JP2024514783A - メディアスタイルを管理するためのユーザインタフェース - Google Patents

メディアスタイルを管理するためのユーザインタフェース Download PDF

Info

Publication number
JP2024514783A
JP2024514783A JP2023560219A JP2023560219A JP2024514783A JP 2024514783 A JP2024514783 A JP 2024514783A JP 2023560219 A JP2023560219 A JP 2023560219A JP 2023560219 A JP2023560219 A JP 2023560219A JP 2024514783 A JP2024514783 A JP 2024514783A
Authority
JP
Japan
Prior art keywords
representation
media processing
style
media
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023560219A
Other languages
English (en)
Other versions
JPWO2022256200A5 (ja
Inventor
ジョニー ビー. マンザリ,
グラハム, アール. クラーク,
サード, ウィリアム エー. ソレンティーノ,
ドス サントス, アンドレ ソウザ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Priority claimed from PCT/US2022/030704 external-priority patent/WO2022256200A1/en
Publication of JP2024514783A publication Critical patent/JP2024514783A/ja
Publication of JPWO2022256200A5 publication Critical patent/JPWO2022256200A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、概して、メディア処理スタイルについてのユーザインタフェースに関する。いくつかの実施形態では、本開示は、メディア処理スタイルを選択するためのユーザインタフェースに関する。いくつかの実施形態では、本開示は、メディア処理スタイルを編集するためのユーザインタフェースに関する。【選択図】図7A

Description

(関連出願の相互参照)
本出願は、2021年6月1日出願の「UいER INTERFACEs FOR MANAGING MEDIA STYLES」と題する米国特許仮出願第63/195,679号、2021年9月13日出願の「USER INTERFACES FOR MANAGING MEDIA STYLES」と題する米国特許出願第63/243,633号、及び2022年4月14日出願の「USER INTERFACES FOR MANAGING MEDIA STYLES」と題する米国特許出願第17/721,039号に対する優先権を主張する。これらの出願の内容は、全体が、参照により本明細書に組み込まれる。
本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための技術に関する。
スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。
しかしながら、電子デバイス(例えば、コンピュータシステムを含む)を使用してメディアの視覚的コンテンツに適用されるメディアスタイルを管理するためのいくつかの技術は、概して、煩雑かつ非効率的である。例えば、いくつかの既存の技術では、複数回のキー押圧又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
したがって、本技術は、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための、より高速でより効率的な方法及びインタフェースを電子デバイスに提供する。そのような方法及びインタフェースは、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための他の方法を任意選択的に補完又は置換する。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減し、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作コンピューティングデバイスについて、そのような方法及びインタフェースは、電力を節約し、バッテリ充電までの時間を延ばし、不要、無関係、及び/又は反復受信される入力の数を減少させる。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムにおいて実行される方法が記載される。本方法は、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示することと、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出することと、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することを含む、方法であって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現を含むスタイル選択ユーザインタフェースであって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表現の第1の部分と表現の第2の部分が表示される、スタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む非一時的コンピュータ可読記憶媒体であって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現を含むスタイル選択ユーザインタフェースであって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表現の第1の部分と表現の第2の部分が表示される、スタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む一時的コンピュータ可読記憶媒体あって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分がメディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を含むスタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する命令を含むコンピュータシステムであって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示するための手段と、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出する手段と、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する手段とを含むコンピュータシステムであって、表現の第1の部分を表示する手段は、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する手段と、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示する手段と、を含む。
いくつかの実施形態によれば、コンピュータプログラム製品が記載される。コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備える。1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む、コンピュータプログラム製品あって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムにおいて実行される方法が記載される。本方法は、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示することと、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示することと、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、第1のパラメータの現在値を調整するための第1のコントロールを表示することと、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示する手段と、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示する手段と、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する手段と、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する手段と、を備える。
いくつかの実施形態によれば、コンピュータプログラム製品が記載される。コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備える。1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
したがって、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための他の方法を補完又は置換することができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。
いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。
いくつかの実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す図である。
いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。
いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、パーソナル電子デバイスを示す。
いくつかの実施形態に係る、パーソナル電子デバイスを示すブロック図である。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、むしろ例示的な実施形態の説明として提供されることを認識されたい。
メディア処理スタイルを選択し、メディア処理スタイルを編集するために本明細書で説明される方法など、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。そのような技術は、メディアを編集したいと思うユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、そのような技術は、普通なら冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減することができる。
以下、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bは、メディア処理スタイルを管理する技術を実行するための例示的なデバイスの説明を提供する。
図6A~図6Yは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。図7A~図7Xは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。図8A~図8Cは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。図9は、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。図10A~10Bは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。図6A~図6Y、図7A~7X、及び図8A~図8Cのユーザインタフェースは、図9及び図10A~10Bの処理を含む、以下に説明する処理を示すために用いられる。
後述のプロセスは、改善された視覚的なフィードバックをユーザに提供すること、操作を実行するために必要な入力の数を減らすこと、表示される追加のコントロールでユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供すること、条件のセットが満たされたときに更なるユーザ入力を必要とせずに操作を実行すること、及び/又は、他の技術を含む、様々な技術により、(例えば、ユーザがデバイスを操作/対話する際に適切な入力を行うのを助け、ユーザの誤りを減らすことによって)デバイスの操作性を高め、ユーザとデバイスのインタフェースを効率化するものである。これらの技術はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
更に、1つ以上のステップが満たされている1つ以上の条件を条件とする本明細書に記載の方法では、記載の方法は、繰り返しの過程にわたって、本方法のステップが条件とする条件の全てが本方法の異なる繰り返しで満たされるように、複数の繰り返しで繰り返されることができることを理解されたい。例えば、ある方法が、条件が満たされた場合に第1のステップを実行し、条件が満たされなかった場合に第2のステップを実行することを必要とする場合、当業者であれば、条件が満たされ、満たされなくなるまで、請求項に記載のステップが、特定の順序で繰り返されることを理解するであろう。したがって、満たされた1つ以上の条件に依存する1つ以上のステップで説明される方法は、方法に記載された各条件が満たされるまで繰り返される方法として書き換えられることができる。しかしながら、これは、システム又はコンピュータ可読媒体が、対応する1つ以上の条件の充足に基づいて条件付き動作を実行する命令を含み、したがって、方法のステップが条件付きである全ての条件が満たされるまで、方法のステップを明示的に繰り返すことなく偶発性が満たされたか否かを判定することができる、システム又はコンピュータ可読媒体の請求項には必要とされない。当業者はまた、条件付きステップを有する方法と同様に、システム又はコンピュータ可読記憶媒体が、条件付きステップの全てが実行されたことを確実にするために必要な回数だけ方法のステップを繰り返すことができることを理解するであろう。
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
「~の場合(if)」という用語は、任意選択的に、文脈に従って、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に従って、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップコンピュータ又はタブレットコンピュータなどの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。いくつかの実施形態では、電子デバイスは、表示生成構成要素と通信している(例えば、有線通信を介して、無線通信を介して)コンピュータシステムである。表示生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚的な出力を提供するように構成されている。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムとは別個である。本明細書で使用するとき、「表示する」コンテンツは、コンテンツを視覚的に生成するために、有線又は無線接続で、データ(例えば、画像データ又はビデオデータ)を、一体型又は外部の表示生成構成要素に送信することによって、コンテンツ(例えば、ディスプレイコントローラ156によってレンダリング又はデコードされたビデオデータ)を表示させることを含む。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、通常、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーション毎に、及び/又は個別のアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透明なユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求において使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値が、接触の推定される力を判定するために組み合わされる(例えば、加重平均される)。同様に、スタイラスの感圧性先端部が、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変更、接触に近接するタッチ感知面の電気容量及び/若しくはその変更、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変更が、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力の代替測定値が、強度閾値を上回っているか否かを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力の代理測定値は、力又は圧力の推定値に変換され、力又は圧力の推定値が、強度閾値を上回っているか否かを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを表示する実装面積が限られている低減されたサイズのデバイス上で、ユーザが他の方法ではアクセス不可能であり得る追加のデバイス機能にユーザがアクセスすること(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信すること(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的コントロールを介して)が可能となる。
本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前のポジションに対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変更に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。場合によっては、ユーザの動作により物理的に押圧された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変更がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)及び/又は命令セットを動作させる又は実行して、デバイス100のための様々な機能を実施し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency、無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラ電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、モバイル通信用グローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE)、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、及び/若しくはIEEE802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンション用のセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取り出され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光学センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくはコントロールデバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。いくつかの実施形態では、電子デバイスは、1つ以上の入力デバイスと通信する(例えば、有線通信を介した無線通信を介して)コンピュータシステムである。いくつかの実施形態では、1つ以上の入力デバイスは、タッチ感知面(例えば、タッチ感知ディスプレイの一部としてのトラックパッド)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、入力としてユーザのジェスチャ(例えば、ハンドジェスチャ)を追跡するためなど、1つ以上のカメラセンサ(例えば、1つ以上の光学センサ164及び/又は1つ以上の深度カメラセンサ175)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。
全体が参照により本明細書に組み込まれる、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを解放し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをロック解除するプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚的出力を表示する。この視覚的出力は、グラフィック、テキスト、アイコン、動画、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚的出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は、(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる移動又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体が参照により本明細書に組み込まれる、米国特許第6,323,846号(Westermanら)、同第6,570,557号(Westermanら)、及び/若しくは同第6,677,932号(Westerman)、並びに/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚的出力を表示するのに対して、タッチ感知タッチパッドは視覚的出力を提供しない。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、以下の出願、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」で説明されている。これらの出願は全て、全体が参照により本明細書に組み込まれる。
タッチスクリーン112は、任意選択的に、100dpiを超える動画解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiの動画解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適したオブジェクト又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に使用して動作するように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど正確でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルのポジション又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚的出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されるタッチ感知面の拡張部である。
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状況インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光学センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光学センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、任意選択的に、静止画像又は動画をキャプチャする。いくつかの実施形態では、光学センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対側のデバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又は動画の取得のためのビューファインダとして使用することが可能である。いくつかの実施形態では、ユーザが他のビデオ会議参加者をタッチスクリーンディスプレイ上で見ている間、ユーザの画像が、任意選択的に、テレビ会議のために取得されるように、光学センサはデバイスの前面に配置される。いくつかの実施形態では、光学センサ164のポジションは、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光学センサ164が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100は、任意選択的に、1つ以上の深度カメラセンサ175もまた含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを判定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間、任意選択的に、深度情報を有するユーザの画像をテレビ会議のために取得し、また、深度マップデータを有する自撮り画像をキャプチャするために、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、又はデバイス100の背面及び前面に配置される。いくつかの実施形態では、深度カメラセンサ175のポジションは、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100はまた、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体が参照により本明細書に組み込まれる、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で記載されているように機能する。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに置かれた場合(例えば、ユーザが電話をかけている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触知フィードバック生成命令を触覚フィードバックモジュール133から受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体が参照により本明細書に組み込まれる、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許出願公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイに表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100のロケーション及び配向(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示されるように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスのロケーション及び/又は姿勢に関するロケーション情報のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、又はVxWorksなどの組込み型オペレーティングシステム)は、全般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは同様であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を(ディスプレイコントローラ156と連携して)検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指ダウンイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が中止したか否かを判定すること(例えば、指アップイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変更)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するために(例えば、ユーザがアイコン上で「クリック」したか否かを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくともサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザに、(例えば、個々の強度閾値を調整すること、及び/又は複数の強度閾値をシステムレベルのクリック「強度」パラメータによって一度に調整することによって)強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じポジション(又は実質的に同じポジション)(例えば、アイコンのポジション)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的プロパティ)を変更する構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、動画、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
触覚フィードバックモジュール133は、触知出力生成器(単数又は複数)167によって使用される命令を生成するための様々なソフトウェア構成要素を含み、ユーザのデバイス100との相互作用に応じて、デバイス100上の1つ以上のロケーションでの触知出力を生成する。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスのロケーションを判定し、様々なアプリケーション内で使用するためにこの情報を提供する(例えば、ロケーションベースのダイアリングで使用するために電話138へ、ピクチャ/ビデオメタデータとしてカメラ143へ、及び気象ウィジェット、ローカルイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は動画用のカメラモジュール143、
●画像管理モジュール144、
●動画プレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダーモジュール148、
●任意選択的に、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●動画プレーヤモジュール及び音楽プレーヤモジュールを一体化した動画及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は、
●オンライン動画モジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、任意選択的に、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するために用いられ、それには、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含む。アドレス帳又は連絡先リストを管理するために使用される。
電話モジュール138は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、電話番号に対応する一連の文字の入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、個別の電話番号のダイヤル、通話の実行、並びに通話終了時の接続解除及び通話停止のために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
テレビ会議モジュール139は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、ユーザの命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
電子メールクライアントモジュール140は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又は動画画像を有する電子メールの作成及び送信を非常に容易にする。
インスタントメッセージングモジュール141は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージに対応する一連の文字の入力、以前に入力された文字の修正、(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)個別のインスタントメッセージの送信、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信される及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるようなグラフィック、写真、オーディオファイル、動画ファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、実行可能命令を含み、実行可能命令は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼の目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信する。
カメラモジュール143は、タッチスクリーン112、ディスプレイコントローラ156、光学センサ(単数又は複数)164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、静止画像若しくは(動画ストリームを含む)動画のキャプチャ及びメモリ102内への記憶、静止画像若しくは動画の特性の修正、又はメモリ102からの静止画像若しくは動画を削除するための実行可能な命令を含む。
画像管理モジュール144は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連携して、静止画像及び/若しくは動画の配置、修正(例えば、編集)、又はその他の操作、ラベル付け、削除、(例えば、デジタルスライドショー若しくはアルバムにおける)提示、及び記憶のための実行可能な命令を含む。
ブラウザモジュール147は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ウェブページ又はその一部、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含む、ユーザの命令に従ってインターネットをブラウジングするための実行可能な命令を含む。
カレンダーモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの命令に従って、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダーアイテム、to-doリストなど)を作成、表示、修正、及び記憶するための実行可能な命令を含む。
ウィジェットモジュール149は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されたミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
ウィジェットクリエータモジュール150は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
検索モジュール151は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)と一致するメモリ102内の文字、音楽、サウンド、画像、動画、及び/又は他のファイルを検索するための実行可能な命令を含む。
動画及び音楽プレーヤモジュール152は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、MP3又はAACファイルなどの1つ以上のファイルフォーマットで記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びに動画を(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。
メモモジュール153は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従ってメモ、to-doリストなどを作成及び管理するための実行可能な命令を含む。
地図モジュール154は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、任意選択的に、ユーザの命令に従って、地図及び地図に関連付けられたデータ(例えば、運転の道順、特定のロケーション又はその付近の店舗及び他の見どころに関するデータ、並びに他のロケーションベースのデータ)を受信、表示、修正、及び記憶するために使用される。
オンライン動画モジュール155は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザが特定のオンライン動画へのアクセス、特定のオンライン動画のブラウジング、(例えば、ストリーミング及び/又はダウンロードによる)受信、(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上の)再生、特定のオンライン動画へのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイルフォーマットのオンライン動画の他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンライン動画へのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンライン動画アプリケーションについての追加の説明は、その内容の全体が参照により本明細書に組み込まれる、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」を参照されたい。
上記で識別したモジュール及びアプリケーションは各々、前述した1つ以上の機能及び本出願に記載した方法(例えば、本明細書に記載したコンピュータにより実行される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、それぞれのソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成される。例えば、動画プレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aの動画及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける既定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを介して実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソート部170(例えば、オペレーティングシステム126内)と、個別のアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。
イベントソート部170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112に表示される現在のアプリケーションビュー(単数又は複数)を示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソート部170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を判定するためにイベントソート部170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、タッチ感知ディスプレイ112でのマルチタッチジェスチャの一部としてのユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
いくつかの実施形態では、イベントソート部170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示しているときに、サブイベントが1つ以上のビュー内のどこで起きたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(個別のアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて判定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを識別する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成する一連のサブイベントにおける第1のサブイベント)が発生する最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって識別されると、ヒットビューは、通常、ヒットビューとして識別されたタッチ又は入力ソースと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)が特定の一連のサブイベントを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみが特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的ロケーションを含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、個別のイベント受信部182によって取り出されるイベント情報をイベントキューに記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。あるいは、アプリケーション136-1がイベントソート部170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部である。
いくつかの実施形態では、アプリケーション136-1は、各々がアプリケーションのユーザインタフェースの個別のビュー内で発生するタッチイベントを処理する命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、個別のアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1がメソッド及び他のプロパティを継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、個別のイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソート部170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、個別のアプリケーションビュー191に含まれる。
個別のイベント認識部180は、イベントソート部170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントのロケーションなどの追加情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの配向から別の配向への(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の配向(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば、既定の一連のサブイベント)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの移動、タッチのキャンセル、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。
いくつかの実施形態では、イベント定義187は、個別のユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、個別のイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベント処理部を選択する。
いくつかの実施形態では、個別のイベント187の定義は、一連のサブイベントがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。
個別のイベント認識部180は、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判定した場合、個別のイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、個別のイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように相互作用するか、又はイベント認識部が互いにどのように相互作用することが可能となるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、個別のイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、個別のイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、個別のヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなく、サブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定のプロセスを実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又は動画プレーヤモジュールで使用される動画ファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新しいユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトのポジションを更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含む又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、個別のアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、それらの全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の移動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、デバイス100と接触した指の、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、ローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択的に含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的にデバイス100上で実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、既定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替の実施形態では、デバイス100は、マイクロフォン113を介して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力もまた受け入れる。デバイス100は、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167もまた含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、通常、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を含む入出力(I/O)インタフェース330を含み、ディスプレイ340は、通常、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350並びにタッチパッド355と、デバイス300上に触知出力を生成する(例えば、図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似している)触知出力生成器357と、センサ359(例えば、光、加速度、近接、タッチ感知、及び/又は図1Aを参照して前述した、接触強度センサ(単数又は複数)165に類似している接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
図3の上記で識別した要素は各々、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で識別したモジュールは各々、前述した機能を実行する命令セットに対応する。上記で識別したモジュール又はコンピュータプログラム(例えば、命令セット又は命令を含む)は、別個のソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
次に、任意選択的に、例えばポータブル多機能デバイス100に実装されるユーザインタフェースの実施形態に注意を向ける。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラ信号及びWi-Fi信号などの無線通信(単数又は複数)用の信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状況インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称される動画及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダー」とラベル付けされた、カレンダーモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンライン動画」とラベル付けされた、オンライン動画モジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136の設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、動画及び音楽プレーヤモジュール152のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、個別のアプリケーションアイコンに関するラベルは、個別のアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対して触知出力を生成する1つ以上の触知出力生成器357を含む。
以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の一次軸(例えば、図4Bの453)に対応する一次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれのロケーションに対応するロケーション(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの移動)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられる一方、いくつかの実施形態では、指入力のうちの1つ以上が別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに、)マウスクリックであって、その後に(例えば、接触の移動の代わりに)スワイプの経路に沿ったカーソルの移動を伴うマウスクリックによって置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャのロケーション上に位置している間、(例えば、接触を検出して、それに続いて接触の検出を中止する代わりに)マウスクリックによって置き換えられる。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して説明された機能のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504を有する。あるいは、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチ(複数)に、その強度に基づいて応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
タッチ強度を検出し処理する例示的な技術は、例えば、それぞれ全体が参照により本明細書に組み込まれる関連出願である、国際公開第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際公開第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」を参照されたい。
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的であり得る。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、眼鏡類、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、ウォッチのバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(near field communication、NFC)、セルラ、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530と接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能な入力デバイスであるか、又は押下可能かつ回転可能な入力デバイスである。いくつかの実施例では、入力機構508は、任意選択的にボタンである。
いくつかの実施例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はそれらの組み合わせなどの様々なセンサを含み、それらは全て、I/Oセクション514に動作可能に接続することができる。
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス900及びプロセス1000(図9及び図10A~図10B)を含む、以下で説明される技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して、使用されるコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体であり得る。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それらに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの永続性ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
本明細書で使用されるとき、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~図5B)のディスプレイスクリーンに表示される、ユーザ相互作用グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)は各々、任意選択的に、アフォーダンスを構成する。
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが相互作用しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他のロケーションマーカーを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上に位置している間、入力(例えば、押圧入力)がタッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で検出されたとき、特定のユーザインタフェース要素は、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接相互作用を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)のロケーションで入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域に動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る具体的な形態に関わらず、フォーカスセレクタは、概して、ユーザが意図するユーザインタフェースとの相互作用を(例えば、ユーザがそれを通じて相互作用することを意図しているユーザインタフェースの要素をデバイスに示すことによって)通信するためにユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、個別のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その個別のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲において使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する所定の時間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたか否かを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を超えない特性強度を有する接触は第1の動作をもたらし、第1の強度閾値を上回るが第2の強度閾値を超えない特性強度を有する接触は第2の動作をもたらし、第2の閾値を超える特性強度を有する接触は第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、個別の動作を実行するべきか、それとも個別の動作を実行するのを見合わせるべきか)を判定するために使用される。
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
図6A~図6Yは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図6Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を含む、カメラユーザインタフェースを表示するコンピュータシステム600を示す。いくつかの実施形態では、ライブプレビュー630は、カメラ表示領域604を有するディスプレイの部分など、ディスプレイの一部のみに延在する。いくつかの実施形態では、コンピュータシステム600は、デバイス100、デバイス300、及び/又はデバイス500の1つ以上の構成要素を含む。
ライブプレビュー630は、コンピュータシステム600の1つ以上のカメラの視野内にある特定のシーン(例えば、図6Aにおいて山の前で花の隣に立っている人物)を示す。ライブプレビュー630は、コンピュータシステム600の1つ以上のカメラの少なくとも第1のカメラの(例えば、部分的な)視野(「FOV」)の表現である。ライブプレビュー630は、FOVにおいて検出された画像に基づいている。いくつかの実施形態では、コンピュータシステム600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、コンピュータシステム600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。
図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含む。インジケータ領域602及びコントロール領域606は、インジケータ及びコントロールがライブプレビュー630と同時に表示されることができるように、ライブプレビュー630上に重ね合わされる。カメラ表示領域604は、インジケータ領域602とコントロール領域606との間に位置し、インジケータ又はコントロール(例えば、アフォーダンス)と実質的に重ならない。
図6Aに示されるように、インジケータ領域602は、フラッシュインジケータ602a、メディア処理スタイルインジケータ602b、アニメーション画像インジケータ602c、及び生画像インジケータ602eなどのインジケータを含む。フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることを示す。メディア処理スタイルインジケータ602bは、コンピュータシステム600が、コンピュータシステム600の1つ以上のカメラによってキャプチャされた視覚的コンテンツ(例えば、データ)に適用されるメディア処理スタイルを制御するためのメディア処理スタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを表示しているかどうかを示す。図6Aでは、メディア処理スタイルインジケータ602bは非アクティブ状態で表示されており、これは、メディア処理スタイルを制御するための複数の選択可能なユーザインタフェースオブジェクトが表示されていないことを示す。いくつかの実施形態では、メディア処理スタイルは、メディア処理パラメータのセットを有する(例えば、メディア処理パラメータのセットを定義する、及び/又はメディア処理パラメータのセットによって定義される)。いくつかの実施形態では、パラメータのうちの1つ以上は、コンピュータシステム600の1つ以上のカメラによってキャプチャされる視覚的コンテンツを変更するためにコンピュータシステム600が使用することができる視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)を表す。いくつかの実施形態では、各パラメータは、個別のパラメータを有する特定のメディア処理スタイルがメディアの視覚的コンテンツに適用されるときに、コンピュータシステム600が視覚的コンテンツをどのように変更するかに影響を与える値に関連付けられる(又は値を有する)。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、事前に定義され、コンピュータシステム600のユーザによって作成されない(例えば、コンピュータシステム600のユーザがメディア処理スタイルを定義することなく、コンピュータシステム上に事前にインストールされる)。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、コンピュータシステム600のユーザによってカスタマイズ、修正、及び/又は作成される。いくつかの実施形態では、各メディア処理スタイルは、同じタイプのパラメータ(例えば、同じタイプの視覚的特性に対応するパラメータ)を有する。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、同じタイプのパラメータを有するが、1つ以上のメディア処理スタイルに対応するタイプのパラメータのうちの1つ以上の異なる値を有する。
アニメーション画像インジケータ602cは、(例えば、メディアをキャプチャする要求を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。いくつかの実施形態では、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に着色された(例えば、灰色及び/又は半透明)オーバーレイを含む。生画像キャプチャインジケータ602eは、コンピュータシステム600が生画像メディアフォーマットでメディアを記憶及び/又はキャプチャするように構成されているかどうかを示す。図6Aでは、生画像キャプチャインジケータ602eが非アクティブ状態で表示されており、これは、コンピュータシステム600が非生画像フォーマット(例えば、JPEGフォーマット及び/又はHEICフォーマット)でメディアを記憶及びキャプチャするように構成されていることを示す。いくつかの実施形態では、生画像フォーマットで記憶されたメディアのファイルサイズは、非生画像フォーマットで記憶された同じメディアのファイルサイズより大きい。いくつかの実施形態では、生画像フォーマットで記憶されたメディアは、非生画像フォーマットで記憶された同じメディアよりも多くの情報を含む。いくつかの実施形態では、このより多くの情報は、生画像フォーマットで記憶されたメディアが、非生画像フォーマットで記憶されたメディアよりも多くの方法でキャプチャ後に編集されることを可能にする。いくつかの実施形態では(図6V~図6Yに関連して以下で更に説明するように)、コンピュータシステム600は、(例えば、図6Xに示すように)生画像キャプチャインジケータ602eがアクティブ状態で表示されているとき、及び/又はコンピュータシステム600が生画像フォーマットでメディアを記憶及びキャプチャするように構成されているとき、メディア処理スタイルインジケータ602bを表示することを中止する。いくつかの実施形態では、コンピュータシステム600は、生画像キャプチャインジケータ602eがアクティブ状態で表示されるとき、メディア処理スタイルインジケータ602bを非アクティブ状態で表示する。
図6Aに示すように、カメラ表示領域604は、ライブプレビュー630及びズームコントロール622を含む。ズームコントロール622は、0.5×ズームコントロール622a、1×ズームコントロール622b、及び2×ズームコントロール622cを含む。図6Aでは、1×ズームコントロール622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。
図6Aに示すように、コントロール領域606は、シャッターコントロール610、カメラスイッチャコントロール614、メディアコレクション612の表現、及びカメラモードコントロール620を含む。シャッターアフォーダンス610は、アクティブ化されると、コンピュータシステム600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、コンピュータシステム600にローカルに記憶される、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス614は、アクティブ化されると、コンピュータシステム600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。図6Aに示すメディアコレクション612の表現は、コンピュータシステム600によって直近にキャプチャされたメディア(画像、ビデオ)の表現である。いくつかの実施形態では、メディアコレクション612上の入力を検出したことに応じて、コンピュータシステム600は、(後述する)図6S~6Uに示すユーザインタフェースと同様のユーザインタフェースを表示する。
図6Aに示すように、カメラモードコントロール620は、スローモーションモードコントロール620a、ビデオモードコントロール620b、写真モードコントロール620c、ポートレートモードコントロール620d、及びパノラマモードコントロール620eを含む。図6Aに示すように、写真モードコントロール620cが選択されており、写真モードコントロール620cが太字で示されている。写真モードコントロール620cが選択されると、コンピュータシステム600は写真キャプチャモードで動作しており、コンピュータシステム600がシャッターコントロール610に向けられた入力を検出したことに応じて、写真メディア(例えば、静止写真)のキャプチャを開始する(例えば、及び/又はキャプチャする)。コンピュータシステム600によってキャプチャされる写真メディアは、シャッターコントロール610への入力が検出されたとき(又はその後)に表示されるライブプレビュー630を表す。いくつかの実施形態では、スローモーションモードコントロール620aに向けられた入力を検出したことに応じて、コンピュータシステム600は、スローモーションメディアキャプチャモードで動作し、メディアがキャプチャされた速度よりも遅い速度で再生されるメディア(例えば、スローモーション効果が適用されたビデオ、スローモーションビデオ)のキャプチャを開始する。いくつかの実施形態では、ビデオモードコントロール620bに向けられた入力を検出したことに応じて、コンピュータシステム600は、ビデオキャプチャモードで動作し、ビデオメディア(例えば、ビデオ)のキャプチャを開始する。いくつかの実施形態では、ポートレートモードコントロール620dに向けられた入力を検出したことに応じて、コンピュータシステム600はポートレートモードで動作し、ポートレートメディア(例えば、静止写真、シミュレートされたぼけ又はシミュレートされた被写界深度効果が適用された静止写真)のキャプチャを開始する。いくつかの実施形態では、パノラマモードコントロール620eに向けられた入力を検出したことに応じて、コンピュータシステム600はパノラマモードで動作し、パノラマメディア(例えばパノラマ写真)のキャプチャを開始する。いくつかの実施形態では、カメラユーザインタフェース上に表示されるインジケータ及び/又はコントロールは、選択されたモード(例えば、及び/又はコンピュータシステム600が選択されたカメラモードに基づいて動作するように構成されるモード)に基づく。
図6Aでは、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630を表示しており、これは、水平線のパターンを重ね合わせたライブプレビュー630によって示されている。コンピュータシステム600は、メディアの表現(例えば、ライブプレビュー630及び/又は図6S~6Uなどのメディアの以前にキャプチャされた表現)のそれぞれの部分にわたって、図に示されるパターン(例えば、特定の方向(例えば、水平、垂直、斜め)の線のセット)を必ずしも表示しないことを理解されたい。例えば、図6Aでは、コンピュータシステム600は、ライブプレビュー630を表示するときに、水平線のセットを必ずしも表示しない。しかしながら、図示されるパターンは、特定のメディア処理スタイル(例えば、図6Aの標準スタイル634a)を使用して表示されているメディアの表現の特定の部分の象徴である。上述したように、特定のメディア処理スタイルがメディアの視覚的コンテンツに適用されるとき、メディア処理スタイルを使用して表示されるメディアの表現の視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)は、メディア処理スタイルを使用して表示されないメディアの表現の視覚的特性とは異なって見える。
図6Aでは、(例えば、図6B及び図6I~図6Jに関連して更に説明するように)標準スタイル634aが現在選択されているメディア処理スタイルであり、コンピュータシステム600が(例えば、図8A~図8Cに関連して更に説明するように)メディア処理スタイルアプリケーションモードで動作するように構成されているため、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630を表示する。いくつかの実施形態では、別のメディア処理スタイルが現在選択されているメディア処理スタイルである場合、コンピュータシステム600は、図6Aの他のメディア処理スタイルを使用してライブプレビュー630を表示する。いくつかの実施形態では、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作するように構成されていないとき、コンピュータシステム600は(例えば、図8A~図8Cに関連して更に説明するように)メディア処理スタイルインジケータ602bを表示しない、及び/又はメディア(例えば、ライブプレビュー630及び/又は以前にキャプチャされたメディア)の表現にメディア処理スタイルを適用しない。図6Aでは、コンピュータシステム600は、シャッターコントロール610上の(例えば、シャッターコントロール610に向けられた、及び/又はシャッターコントロール610に対応するロケーションにおける)タップ入力650aを検出する。
図6Bでは、タップ入力650aを検出したことに応じて、コンピュータシステム600は、FOVで表されるメディアのキャプチャを開始し、キャプチャされたメディアの表現(例えば、図6Aのライブプレビュー630)を含むようにメディアコレクション612を更新する。特に、図6Bのメディアコントロール612内の表現(「図6Bの表現」)は、図6Aのメディアコントロール612内の表現(例えば、「図6Aの表現」)とは異なって見える。図6Bの表現には、標準スタイル634a(例えば、水平線)が適用されており、図6Aの表現には、標準スタイル634aが適用されていない。図6Bのメディアコレクション612内の表現は、コンピュータシステム600が標準スタイル634aを使用してライブプレビュー630を表示していたため、及び/又はタップ入力650aが検出されたときにキャプチャされたメディアに適用される現在選択されているメディア処理スタイルが標準スタイル634aであったため、標準スタイル634aが適用されている。一方、図6Aのメディアコレクション612内の表現は、標準スタイル634aが適用されていない。いくつかの実施形態では、これは、ライブプレビュー630が標準スタイル634aを使用して表示されていた間、及び/又は図6Aの表現に対応するメディアをキャプチャする要求がキャプチャされたときに標準スタイル634aが現在選択されているメディア処理スタイルであった間、図6Aのメディアコレクション612内の表現によって表されるメディアがキャプチャされなかったからである。いくつかの実施形態では、図6Bの表現を表示するために、コンピュータシステム600は、(例えば、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作していないときに発生し得るキャプチャメディアの視覚的特性の通常及び/又はデフォルト(例えば、非ユーザ修正)変更に加えて)図6Bの表現に対応するメディアの視覚的特性を変更する。いくつかの実施形態では、図6Aの表現は、(例えば、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作していないときに起こり得る、及び/又はFOV内の1つ以上の要素(例えば、照明、影)に基づいて起こり得る、キャプチャされたメディアの視覚的特性の通常及び/又はデフォルトの変更に加えて)図6Aの表現によって表されるメディアの視覚的特性を変更することによって表示されない。図6Bでは、コンピュータシステム600は、メディア処理スタイルインジケータ602b上のタップ入力650bを検出する。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルを制御するためのメディア処理スタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを表示する。特に、コンピュータシステム600は、異なるメディア処理スタイルを使用してライブプレビュー630の異なる部分を表示する。図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の中央の部分(「中間セクション」)を表示し続け、標準スタイル634aを使用して中間セクションの左側にあるライブプレビュー630の部分(「左セクション」)及び中間セクションの右側にあるライブプレビュー630の部分(「右セクション」)を表示することを中止する。例示のみを目的として、図6Cは、(例えば、図6Cにおいてコンピュータシステム600によって任意選択的に表示される)左境界642a及び右境界642bを示す。本明細書で使用される場合、説明を容易にするために、左セクションは、左境界642aの左側のライブプレビュー630の部分とすることができ、中間セクションは、左境界642aと右境界642bとの間のライブプレビュー630の部分とすることができ、右セクションは、右境界642bの右側のライブプレビュー630の部分とすることができる。しかしながら、これらのそれぞれのセクションは、説明を容易にするために参照され、コンピュータシステム600は、1つ以上のメディア処理スタイルを、メディアの表現の任意の数の部分/セクション、並びにメディアの表現の多くの異なるサイズ、形状、及び/又は構成された部分/セクションに適用することができる。
図6Cに示すように、タップ入力650bを検出したことに応じて、左セクション及び右セクションは、メディア処理スタイルを使用せずに(例えば、パターンを使用せずに)、及び/又はタップ入力650bが検出される前に表示されなかった異なるメディア処理スタイルを使用せずに表示される(例えば、図6Cの左セクションは、図6Bの左セクションと同じように示される)。タップ入力650bを検出したことに応じて、コンピュータシステムは、これらのセクションの上に灰色のオーバーレイを表示することによって、右セクション及び左セクションの視覚的突出を低減した。したがって、図6Cに示すように、右セクション及び左セクションは、インジケータ領域602及びコントロール領域606に視覚的にマージされており、これらも灰色のオーバーレイで表示されている。図6Cに示すように、右セクションは、オブジェクトの境界/フレームの一部である視覚的要素660bを含む。視覚的要素660bは、標準スタイル634aとは異なる別のメディア処理スタイルがライブプレビュー630に適用され得ることを示す。ここでは、コンピュータシステム600が、特定の方向(例えば、後述する図6Dの移動入力(例えば、スワイプ入力、ドラッグ入力)650dの方向)の入力(例えば、ページングドット638によって示され、後述する)を検出したことに応じて、1つ以上の他のメディア処理スタイルを選択できると判定したため、視覚的要素660bが右セクションに表示されている。加えて、コンピュータシステム600が、別の方向(例えば、後述する図6Dの移動入力650dと反対の方向)の入力(例えば、ページングドット638によって示され、後述する)を検出したことに応じて、1つ以上の他のメディア処理スタイルを選択することができないと判定したため、視覚的要素は左セクションに表示されていない。図6Cに示すように、コンピュータシステム600は、中間セクションと右セクションとの間に仕切り640も表示した。仕切り640は、適用されるメディア処理スタイルなしで、及び/又は仕切り640の視覚的突出を低減/増大させる視覚的要素なしで表示される。いくつかの実施形態では、仕切り640は、異なるメディア処理スタイルが適用された部分及び/又は視覚的要素が含まれた部分の間に表示される。いくつかの実施形態では、仕切り640は、メディア処理スタイルが適用されたライブプレビュー630の個別の部分を、メディア処理スタイルが適用されていないライブプレビュー630の別の部分と線引きする、及び/又は画定するために使用される。いくつかの実施形態では、仕切り640は、ライブプレビュー630などのメディアの表現に対する2つの隣接する及び/又は異なるメディア処理スタイルのアプリケーション間でのみ表示される。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、標準スタイル634aが現在選択されているメディア処理スタイルであることを示す標準スタイル識別子636a(例えば、「標準」)も表示する。図6Cに示すように、カメラ表示領域604内のライブプレビュー630の大部分は、現在選択されているメディア処理スタイル(例えば、標準スタイル634a)を使用して表示される。いくつかの実施形態では、カメラ表示領域604内のライブプレビュー630の大部分は、現在選択されているメディア処理スタイルを使用して表示されない。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600はまた、標準ページングドット638a、鮮やかなページングドット638b、高級ページングドット638c、及びヴィンテージページングドット638dを含むページングドット638を表示する。ここでは、メディアの表現の中間セクションが標準メディア処理スタイルを使用して表示されるため、標準ページングドット638aが選択されているものとして表示される(例えば、開放ページングドットによって表される)。いくつかの実施形態では、メディアの表現(例えば、ライブプレビュー630)のより大きな部分が、任意の他のメディア処理スタイルではなく標準スタイル634aを使用して表示されるため、標準ページングドット638aが選択されているものとして表示される。
更に、図6Cに示すように、各ページングドット(例えば、ページングドット638)は、利用可能なメディア処理スタイルのセット内のメディア処理スタイルに対応する。利用可能なメディア処理スタイルのセットは、コンピュータシステム600がメディアの表現の一部を表示するために使用することができるメディア処理スタイルである。したがって、図6Cでは、コンピュータシステム600は、少なくとも4つの利用可能なメディア処理スタイルを使用してメディアの表現の一部を表示することができる。いくつかの実施形態では、ページングドットがページングドット638に追加されると、コンピュータシステム600は、追加されたページングドットに対応する(例えば、それによって表される)メディア処理スタイルを、利用可能なメディア処理スタイルのセットに追加する。いくつかの実施形態では、ページングドットがページングドット638から削除されると、コンピュータシステム600は、削除されたメディア処理スタイルに対応する(例えば、それによって表される)メディア処理スタイルを利用可能なメディア処理スタイルのセットから削除する。いくつかの実施形態では、コンピュータシステム600は、メディアの表現を表示するために使用され得るいくつかのメディア処理スタイル、及び/又はメディアの表現を表示するために使用され得る現在のメディア処理スタイルを表すために、1つ以上の他の指示(例えば、ページングドット以外)を表示する。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、ズームコントロール622を表示することを中止し、図6Bにおいてズームコントロール622が以前に表示されていたロケーションに標準スタイルコントロール626aを表示する。(例えば、タップ入力750sが検出されたことに応じて、図7Sに関連して以下で説明する)標準スタイルコントロール626aは、コントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2を含む。いくつかの実施形態では、暖かさパラメータは、メディアアイテムの色温度バイアス(例えば、メディアアイテム内の色が、青、緑、及び/又は紫などの寒色に向かって、及び/又は赤、黄、及び/又はオレンジなどの暖色に向かってシフトされるかどうか)を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの彩度を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの画像の明るい領域と暗い領域との間の差(例えば、光度、コントラスト、輝度、及び/又は影)を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの彩度を制御する。いくつかの実施形態では、トーンパラメータは、画像の彩度及び明るい領域と暗い領域との間の差を制御する(例えば、一方の方向において彩度及び明るい領域と暗い領域との間の差を増加させ、他方の方向において彩度及び明るい領域と暗い領域との間の差を減少させる)。いくつかの実施形態では、コンピュータシステム600は、シーン内の要素(例えば、人、動物、ペット、木、花、鳥、建物、空、風景、山、衣服、皮膚、日没、及び/又は水)を認識しており、トーンパラメータに対する調整は、シーンの異なる要素に対して異なる効果を有し、その結果、トーンパラメータの調整は、画像の明るい領域と暗い領域との間で異なる程度の調整、及び/又はシーン内の異なる要素に対して異なる彩度を引き起こす(例えば、人又はペットの彩度を高めるよりも、空又は山又は風景の彩度を高める)。例えば、トーンパラメータが増加されるとき、人の肌に適用される彩度の量は、人の衣服に適用される彩度の量よりも小さい(任意選択で、人の肌に適用される彩度増加の量は、0又は0に近い)、及び/又は人の衣服に適用される彩度の量は、人の後ろの風景又は日没に適用される彩度の量よりも小さい。
トーンパラメータコントロール626a1は、トーンパラメータ識別子626a1a、現在のトーン値626a1b、及びトーン値範囲インジケータ626a1cを含む。トーンパラメータ識別子626a1aは、トーンパラメータコントロール626a1aによって制御されるパラメータ(例えば、トーンパラメータ)のタイプを示す。現在のトーン値626a1bは、標準スタイル634aのトーンパラメータの現在値を示す。トーン値範囲インジケータ626a1cは、トーンパラメータの現在値を含む値の範囲の一部である。同様に、暖かさパラメータコントロール626a2は、暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cを含む。暖かさパラメータ識別子626a2aは、暖かさパラメータコントロール626a2aによって制御されるパラメータ(例えば、暖かさパラメータ)のタイプを示す。暖かさトーン値626a2bは、標準スタイル634aの暖かさパラメータの現在値である。暖かさ値範囲インジケータ626a1cは、暖かさパラメータの暖かさ値を含む値の範囲の一部である。注目すべきことに、現在のトーン値626a1b及び現在の暖かさ値626a2bはそれぞれ、標準スタイル634aについてのトーンパラメータ及び標準スタイル634aについての暖かさパラメータのデフォルト値(例えば、「0」)である。いくつかの実施形態では、メディア処理スタイルの個別のパラメータのデフォルト値は、予め定義され、ユーザ入力なしに設定される値である。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を更新する。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bをアクティブ状態に更新し、これは、メディア処理スタイルユーザインタフェース及び/又はメディア処理スタイルを制御するための選択可能なユーザインタフェースオブジェクトが表示されていることを示す。いくつかの実施形態では、コンピュータシステム600は、メディア処理スタイルインジケータ602bを、色の変更、スラッシュ(例えば、フラッシュインジケータ602a上のスラッシュ)の削除、強調表示、及び/又はメディア処理スタイルインジケータ602bのサイズの縮小/拡大など、メディア処理スタイルアプリケーションモードがアクティブ状態にあることを示す他の方法で更新する。いくつかの実施形態では、コンピュータシステム600は、メディア処理スタイルインジケータ602bを更新して、現在選択されているメディア処理スタイルを示す。したがって、いくつかの実施形態では、コンピュータシステム600は、新しいメディア処理スタイルが現在のメディア処理スタイルになったときにメディア処理スタイルインジケータ602bの外観を更新する。いくつかの実施形態では、図6Cのメディア処理スタイルインジケータ602b上のタップ入力を検出したことに応じて、コンピュータシステムは、図6Aのユーザインタフェースを再表示する。いくつかの実施形態では、アニメーション画像インジケータ602c上のタップ入力を検出したことに応じて、コンピュータシステム600は、図6Aのユーザインタフェースを表示する。図6Cでは、コンピュータシステム600は、シャッターコントロール610上のタップ入力650cを検出する。
図6Dに示すように、タップ入力650cを検出したことに応じて、コンピュータシステム600は、FOVで表されるメディアのキャプチャを開始し、キャプチャされたメディアの表現(例えば、図6Cのライブプレビュー630)(「図6Dの表現」)を含むようにメディアコレクション612を更新する。図6Dのキャプチャされたメディアの表現は、標準スタイル634aが適用されており(例えば、水平線のセットを含む)、標準スタイル634aが適用された(例えば、水平線のセットがない)図6Bの表現と同じである。図6Bの表現及び図6Dの表現は同じであるが、図6Bの表現は、ライブプレビュー630の全体が標準スタイル634aを使用して表示されている間にキャプチャされたものであり、図6Dの表現は、中間セクションのみが標準スタイル634aを使用して表示されているときにキャプチャされたものである。図6Dでは、標準スタイル634aが、図6Dの表現の右、中央、及び左のセクションに適用されているが、ライブプレビュー630の右及び左のセクションは、(例えば、タップ入力650cが検出されたことに応じて)標準スタイル634aを使用して表示されていない。図6Dにおいて、標準スタイル634aは、図6Cのライブプレビュー630を表示するために使用されたFOV内の視覚的コンテンツに適用されたものよりも、キャプチャされたメディアの視覚的コンテンツのより大きな部分(及び/又は全て)に適用される。図6Dにおいて、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第1の部分を検出する。移動入力650d(例えば、移動入力650dの任意の部分)は、ライブプレビュー630の任意のロケーションで検出され得ることを理解されたい。いくつかの実施形態では、移動入力650dの部分は、左セクション、視覚的要素660b、及び/又は特定のメディア処理スタイル(例えば、図6Eに関連して後述するように、標準スタイル634a、鮮やかなスタイル634b、及び/又は視覚的要素660bを含む)上で検出されない。
図6Eに示すように、左方向の移動入力650dの第1の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の一部(例えば、中間セクションの左部分及び左セクションを含む)を表示し、鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、中間セクションの右部分及び右セクションを含む)を表示する。図6Eでは、鮮やかなスタイル634bは、上向きの斜線(例えば、北東方向に移動する線)のセットによって示される。図6Dに戻ると、コンピュータシステム600は、図6Dの鮮やかなスタイル634bを使用してライブプレビュー630の一部を表示しなかった。図6Eに示されるように、標準スタイル634aは、これらのメディア処理スタイルがライブプレビュー630が異なる方法でどのように表示されるかに影響を与えることを示すために、鮮やかなスタイル634bとは異なる線のセットによって示される。標準スタイル634aを使用して表示されるライブプレビュー630の部分及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズは、移動入力650dの第1の部分の移動特性(例えば、速度、方向、加速度、及び/又は時間を含む)の大きさに基づく。いくつかの実施形態では、図6Dの移動入力650dの部分よりも大きい大きさを有する移動入力650dの部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用して表示される図6Eのライブプレビュー630の部分よりも小さい標準スタイル634aを使用するライブプレビュー630の部分を表示し、鮮やかなスタイル634bを使用して表示される図6Eのライブプレビュー630の部分よりも大きい鮮やかなスタイル634bを使用するライブプレビュー630の部分を表示する。いくつかの実施形態では、図6Dの移動入力650dの部分よりも小さい大きさを有する移動入力650dの部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用して表示される図6Eのライブプレビュー630の部分よりも大きい標準スタイル634aを使用してライブプレビュー630の部分を表示し、鮮やかなスタイル634bを使用して表示される図6Eのライブプレビュー630の部分よりも小さい鮮やかなスタイル634bを使用してライブプレビュー630の部分を表示する。したがって、いくつかの実施形態では、個別のメディア処理スタイルを使用して表示されるライブプレビュー630の量は、移動入力の大きさに基づく。いくつかの実施形態では、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを移動入力650dで移動させる。いくつかの実施形態では、図6Eの鮮やかなスタイル634bを使用してライブプレビュー630の一部を表示することの一部として、コンピュータシステム600は、視覚的要素660bを表示することを中止する。いくつかの実施形態では、視覚的要素660bの表示を中止することの一部として、コンピュータシステム600は、図6Eの鮮やかなスタイル634bを使用して、視覚的要素660bがライブプレビュー630の部分の少なくともサブセットに遷移するアニメーション(例えば、フェードアニメーション、ディゾルブアニメーション)を表示する。いくつかの実施形態では、移動入力650dを検出したことに応じて(例えば、入力の任意の移動が検出される前に)、コンピュータシステム600は、図6Eの鮮やかなスタイル634bを使用して、ライブプレビュー630の部分の少なくともサブセットに遷移する視覚的要素660bのアニメーションを表示する。いくつかの実施形態では、移動入力650dを検出している間に、コンピュータシステム600は、シャッターコントロール610上のタップ入力を検出し、シャッターコントロール610上のタップ入力を検出したことに応じて、(例えば、図6Eでは標準スタイル634aが現在選択されているため)標準スタイル634aが適用されたメディアをキャプチャする。図6Eでは、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第2の部分を検出する。
図6Fに示すように、左方向の移動入力650dの第2の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを左に(例えば、移動入力650dの第2の部分の方向に)移動させる。図6Fに示すように、左方向の入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の一部(例えば、図6E及び左セクションと比較して中間セクションの縮小部分を含む)を表示し、鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、図6E及び右セクションと比較して中間セクションの拡大部分を含む)を表示する。したがって、移動入力650dの第2の部分に基づいて、図6Fの標準スタイル634aを使用して表示されるライブプレビュー630の部分のサイズは、図6Eの標準スタイル634aを使用して表示されるライブプレビュー630の部分のサイズよりも小さい。更に、移動入力650dの第2の部分に基づいて、図6Fの鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズは、図6Eの鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズよりも大きい。コンピュータシステム600が標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを左に移動させるにつれて、コンピュータシステム600は、(例えば、入力650dの移動に基づいて、及び/又はそれと一致して)標準スタイル634aを使用して表示されるライブプレビュー630の部分と鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分との間に仕切り640を維持しながら仕切り640を移動させる。
図6Fでは、移動入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、標準スタイル識別子636aを表示することを中止し、鮮やかなスタイル識別子636b(例えば、「鮮やかな」)を(例えば、標準スタイル識別子636aが以前に表示されたロケーションに)表示する。加えて、コンピュータシステム600はまた、ページングドット638を更新して、鮮やかなページングドット638b(例えば、中空/開放ページングドット)が選択され、標準ページングドット638aが選択されない(例えば、中実/閉鎖ページングドット)ことを示す。ここで、コンピュータシステム600は、標準スタイル634aを使用して表示されるライブプレビュー630の部分よりもライブプレビュー630の大きな部分(又は同等の部分)が鮮やかなスタイル634bを使用して表示されると決定されているため、鮮やかなスタイル識別子636bを表示し、鮮やかなページングドット638bを選択されているものとして表示する。この決定のために、コンピュータシステム600は、鮮やかなスタイル634bを現在選択されているメディア処理スタイルとして設定し、標準スタイルコントロール626aを鮮やかなスタイルコントロール626bで置き換える。図6Fに示すように、鮮やかなスタイルコントロール626bは、コントロール628、(例えば、鮮やかなスタイル634bのトーンパラメータを制御するための)トーンパラメータコントロール626b1、及び(例えば、鮮やかなスタイル634bの暖かさパラメータを制御するため)暖かさパラメータコントロール626b2を含み、これらは、(例えば、図6Cのコントロール628、トーンパラメータコントロール626b1、及び暖かさパラメータコントロール626b2にそれぞれ関連して)上述したものと同様の技術を使用して表示される。現在のトーン値626b1bは、鮮やかなスタイル634bのトーンパラメータのデフォルト値(例えば、「80」)であり、現在の暖かさ値626b2bは、鮮やかなスタイル634bの暖かさパラメータのデフォルト値(例えば、「0」)である。特に、標準スタイル634aのためのトーンパラメータのデフォルト値は、鮮やかなスタイル634bのためのトーンパラメータのデフォルト値とは異なる。同様に、トーン値範囲インジケータ626a1cは、現在のトーン値626a1b及び現在のトーン値626b1bが異なるため(例えば、個別の現在値がトーンパラメータのスケールの異なる範囲に位置付けられるため)、トーン値範囲インジケータ626b1cとは異なる。いくつかの実施形態では、それぞれのメディア処理スタイルの特定のタイプのパラメータのデフォルト値の差は、異なるメディア処理スタイルの定義につながる。
図6Eを再び参照すると、コンピュータシステム600は、図6Eにおいて、ライブプレビュー630の、標準スタイル634aを使用して表示されるライブレビュー630の部分よりも大きな部分(又は等しい部分)が、鮮やかなスタイル634bを使用して表示されると判定されなかったため(例えば、及び/又はライブプレビュー630の、鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分よりも大きな部分(又は等しい部分)が、標準スタイル634aを使用して表示されると判定されたため)、標準スタイルコントロール626a及び標準スタイル識別子636aを表示し続け、選択された標準ページングドット638aを表示し続ける。図6Fに戻ると、いくつかの実施形態では、コンピュータシステム600は、鮮やかなスタイル634bがライブプレビュー630の特定の部分(例えば、ライブプレビュー630及び/又はコンピュータシステム600のディスプレイの中心/付近の部分)を使用して表示され、及び/又は鮮やかなスタイル634bがライブプレビュー630の境界ロケーション(例えば、ライブプレビュー630及び/又はコンピュータシステム600のディスプレイの中心/付近)に現在表示されているため、鮮やかなスタイルコントロール626b及び鮮やかなスタイル識別子636bを表示し、鮮やかなページングドット638bを選択されているものとして表示する。図6Fでは、コンピュータシステム600は、ライブプレビュー630上の右方向の移動入力650dの第3の部分を検出する。移動入力650dの第3の部分は、移動入力650dの第1の部分及び第2の部分の反対方向に移動するものとして検出される。
図6Fに示すように、移動入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を変更する。図6Fでは、メディア処理スタイルインジケータ602bの外観は、現在選択されているメディア処理スタイルが標準スタイル634a(例えば、図6E)から鮮やかなスタイル634b(例えば、図6F)に変化しており、鮮やかなスタイル634bが標準スタイル634aのパラメータの値とは異なるパラメータの値(例えば、トーンパラメータ)を有するので、変化する。図6Fに示されるように、コンピュータシステム600は、メディア処理スタイルインジケータ602bの周囲を時計回り方向に移動する線を表示する(例えば、メディア処理スタイルインジケータ602bの周囲(及び/又は境界)の上部の中央付近に開始点を有する)。線は、トーンパラメータの現在値(例えば、図6Fの「80」)を表すように表示される。図6Fに示されるように、線は、トーンパラメータの現在値と、トーンパラメータを設定可能な最小値(例えば、「-100」)及び/又は最大値(例えば、100)との間の関係に基づいて、メディア処理スタイルインジケータ602bの周囲を移動する。したがって、図6Fに示すように、現在値(例えば、「80」)が例示的な最大値(例えば、「100」)の80パーセントであるため、線は、メディア処理スタイルの周囲のおよそ80パーセントを移動する。図6Eを再び参照すると、図6Eにおけるトーンパラメータの現在値(例えば、「0」)が、トーンパラメータが設定され得る最小/最大値の0パーセントであったため、メディア処理スタイルインジケータ602bは、メディア処理スタイルインジケータ602bの周囲を移動する線を含まない。いくつかの実施形態では、現在値が異なる値である場合、線は、メディア処理スタイルインジケータ602bの周囲を移動する、及び/又は異なる量(例えば、より多い又は少ない)の周囲を占める。
図6Fに示すように、トーンパラメータの現在値が正である、及び/又は中央値(例えば、「0」)を上回るので、線は、メディア処理スタイルインジケータ602bの周囲を時計回り方向に移動する。いくつかの実施形態では、トーンパラメータの現在値が負であるか、又は中央値(例えば、「0」)を下回るとき、線は、反時計回り方向にメディア処理スタイルインジケータ602bの周囲を移動する。したがって、いくつかの実施形態では、線がメディア処理スタイルインジケータ602bの周囲を移動する方向は、トーンパラメータの値が正である(又は中央値を上回る)か、負である(又は中央値を下回る)かを示す。いくつかの実施形態では、コンピュータシステム600は、トーンパラメータ(又は別のパラメータ)の現在値が変化したときに、メディア処理スタイルインジケータ602bの一部の色及び/又はメディア処理スタイルインジケータ602bの一部のサイズを変化させるなど、メディア処理スタイルインジケータ602bの1つ以上の他の視覚的態様(例えば、周囲の線以外)を変化させる。いくつかの実施形態では、視覚的態様が変化する漸進的なアニメーションが、コンピュータシステム600によって表示される。いくつかの実施形態では、アニメーションは、個別のパラメータの以前の値に対応するポジションから個別のパラメータの現在値に対応するポジションまで時計回り又は反時計回り方向に移動する、メディア処理スタイルインジケータ602bの周囲の線を含む。
図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて(例えば、かつ移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bを使用して(例えば、個別に使用して)表示されるライブプレビューの部分を、移動入力650dの第3の部分の大きさに基づいて右に移動させる。図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、図6C~図6Eに関連して上述したような1つ以上の技術を使用して、個別のメディア処理スタイル及び/又は1つ以上のユーザインタフェースオブジェクト(例えば、標準スタイル識別子636a、選択された標準ページングドット638a、標準スタイルコントロール626a)を使用してライブプレビュー630の様々な部分を表示する。図6Gにおいて、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第4の部分を検出する。図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの周囲の線を削除することによって、メディア処理スタイルインジケータ602bの外観を変更する。図6Gにおけるトーン周囲の現在値が0であり、かつ/又は図6Gにおけるトーン周囲の現在値が、トーンパラメータを設定することができる最小/最大値の0パーセントであるので、メディア処理スタイルインジケータ602bの周囲の線が削除される。いくつかの実施形態では、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、(例えば、図6Gに示されるように)メディア処理スタイルインジケータ602bの周囲に線がもはや表示されなくなるまで、(例えば、メディア処理スタイルインジケータ602bの上部及び中心ポジションに向かって)反時計回り方向に縮小する(例えば、図6Fに表示される)メディア処理スタイルインジケータ602bの周囲の線のアニメーションを表示する。
図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分を、移動入力650dの第3の部分の大きさに基づいて左に移動させる。移動入力650dの第4の部分が移動入力650dの第3の部分よりも大きい大きさを有していたので、コンピュータシステム600は、(例えば、図6G~図6Hにおいて)移動入力650dの第3の部分を検出したことに応じて、(例えば、図6F~図6Gにおいて)標準スタイル634a及び鮮やかなスタイル634bのアプリケーションが移動入力650dの第4の部分を検出したことに応じて変換された距離よりも大きい距離にわたって、標準スタイル634a及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分を変換する。図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル634bを使用してライブプレビュー630の大きな部分を表示し、標準スタイル634aを使用してライブプレビュー630のより小さな部分を表示する。図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて、コンピュータシステム600はまた、図6Fに関連して上述したような1つ以上の技術を使用して、1つ以上のユーザインタフェースオブジェクト(例えば、鮮やかなスタイル識別子636b、選択された鮮やかなページングドット638b、鮮やかなスタイルコントロール626b)を表示する。図6Hでは、コンピュータシステム600は、(例えば、移動入力650dが図6Hに示されているポジションにおいて)移動入力650dの終了(例えば、リフトオフ)を検出する。
図6Iに示されるように、移動入力650dの終了を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル634bを使用して中間セクションを表示する。ここで、コンピュータシステム600は、移動入力650dの終了が検出されたとき(及び/又はその前(例えば、直前)及び/又はその後(例えば、直後))に、別のメディア処理スタイル(例えば、標準スタイル634a)を使用して表示された部分よりも、ライブプレビュー630のより大きな部分が鮮やかなスタイル634bを使用して表示されたと判定されたために、鮮やかなスタイル634bを使用して中間セクションを表示する。したがって、図6Iでは、コンピュータシステム600は、この決定に基づいて、鮮やかなスタイル634bを現在選択されているメディア処理スタイルにしている。いくつかの実施形態では、コンピュータシステム600は、移動入力650dの終了が検出されたときに別のメディア処理スタイル(例えば、鮮やかなスタイル634b)を使用して表示された部分よりも大きな部分のライブプレビュー630が標準スタイル634aを使用して表示されたと判定されたときに、標準スタイル634aを使用して中間セクションを表示する。いくつかの実施形態では、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのそれぞれが図6Hに表示されているポジションから標準スタイル634a及び鮮やかなスタイル634bのそれぞれが図6Iに表示されているポジションまでディスプレイ全体にわたって平行移動する(例えば、素早くスナップする)標準スタイル634a及び鮮やかなスタイル634bのアプリケーションのアニメーション(例えば、スナップアニメーション)を表示する。
図6Iに示すように、移動入力650dの終了を検出したことに応じて(例えば、移動入力650dの終了が検出されたときに別のメディア処理スタイルを使用して表示された部分よりも、ライブプレビュー630のより大きな部分が鮮やかなスタイル634bを使用して表示されたと判定されたため)、コンピュータシステム600は、標準スタイル634aを使用して左セクションを表示するために、標準スタイル634aのアプリケーションを左に移動させる。加えて、コンピュータシステム600はまた、高級スタイル634cを使用して右セクションを表示する。図6Iでは、高級スタイル634cは、下向きに傾斜する線(例えば、左から右に走査するときに南東方向に移動する線)のセットによって示される。いくつかの実施形態では、コンピュータシステム600は、高級スタイル634cが移動入力(例えば、図6K~図6Lに関連して以下で説明されるような移動入力650k1などの移動入力)を介して選択され得るという決定がなされるため、高級スタイル634cを使用して右セクションを表示する。
図6Jに示すように、移動入力650dの終了を検出した後に、コンピュータシステム600は、左セクションの上に視覚的要素660aを表示し、右セクションの上に視覚的要素660bを表示し、左セクション及び右セクションの視覚的突出を低減する。いくつかの実施形態では、左セクションの上に視覚的要素660a及び右セクションの上に視覚的要素660bを表示することの一部として、コンピュータシステム600は、標準スタイル634a及び高級スタイル634cがフェードアウトする(及び/又は視覚的要素660a及び/又は視覚的要素660bにディゾルブする)アニメーションを表示する。図6Jでは、コンピュータシステム600は、シャッターコントロール610上のタップ入力650jを検出する。
図6Kに示すように、タップ入力650jを検出したことに応じて、コンピュータシステム600は、FOVによって表されるメディアのキャプチャを開始し、キャプチャされたメディア(例えば、図6Jのライブプレビュー630)の表現を含むようにメディアコレクション612を更新する。図6Kのキャプチャされたメディアの表現(「図6Kの表現」)は、図6Bの表現及び図6Dの表現とは異なる、鮮やかなスタイル634bが適用されている(例えば、左から右に走査するときに上向きの斜線のセットを含む)。更に、キャプチャされたメディアの表現の右、中央、及び左のセクションに鮮やかなスタイル634bが適用されているが、ライブプレビュー630の右及び左のセクションは、(例えば、タップ入力650jが検出されたとき/検出されている間)鮮やかなスタイル634bを使用して表示されていない。図6Kでは、鮮やかなスタイル634bは、ライブプレビュー630を表示するために使用されたFOV内の視覚的コンテンツに適用されたものよりも、キャプチャされたメディアの視覚的コンテンツのより大きな部分(及び/又は全て)に適用される。いくつかの実施形態では、シャッターコントロール610上のタップ入力の検出及び移動入力650dを検出したことに応じて、コンピュータシステム600はメディアをキャプチャし、キャプチャされたメディアの表示された表現は、(例えば、シャッターコントロール上のタップ入力が検出されたときに別のメディア処理スタイルがライブプレビュー630のより小さい部分に適用されたかどうかにかかわらず)(例えば、シャッターコントロール上のタップ入力が検出されたときに別のメディア処理スタイルがライブプレビュー630のより小さい部分に適用されたかどうかにかかわらず、他のメディア処理スタイルがメディアの表現に適用されることなく)シャッターコントロール610上のタップ入力が検出されたときにライブプレビュー630の最大部分に適用されたメディア処理スタイルを有する。図6Kでは、コンピュータシステム600は、左方向(例えば、図6Dの移動入力650dの第1の部分と同じ方向)の移動入力650k1、又は右方向(例えば、図6Dの移動入力650dの反対方向)の移動入力650k2を検出する。
図6Lに示すように、(例えば、移動入力650k1を検出し続けている間に)移動入力650k1を検出したことに応じて、コンピュータシステム600は、(例えば、図6C~図6Fに関連して上述した1つ以上の技術を使用して)鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、中間セクションの左部分を含む)を表示し、高級スタイル634cを使用してライブプレビュー630の一部(例えば、図6Kの鮮やかなスタイル634bを使用して表示された中間セクションの右部分及び右部分を含む)を表示する。図6Lでは、移動入力650k1を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル識別子636b(例えば、「鮮やかな」)を表示することを中止し、高級スタイル識別子636c(例えば、「高級」)を(例えば、鮮やかなスタイル識別子636bが以前に表示されていたロケーションに)表示する。加えて、コンピュータシステム600はまた、ページングドット638を更新して、高級ページングドット638c(例えば、中空/開放ページングドット)が選択されていること、及び鮮やかなページングドット638bが選択されていない(例えば、中実/閉鎖ページングドット)ことを示す。ここで、コンピュータシステム600は高級スタイル識別子636cを表示し、高級ページングドット638cが選択されているものとして表示するが、これは、鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分よりも大きな部分(又は等しい部分)のライブプレビュー630が高級スタイル634cを使用して表示される、及び/又は高級スタイル634cが現在選択されているメディア処理スタイルとして設定されるべきである(例えば、図6H~図6Iの移動入力650dの検出に関連して上述したような1つ以上の技術を使用して)と決定されているからである。この決定のために、コンピュータシステム600はまた、図6Lに示すように、鮮やかなスタイルコントロール626bを高級スタイルコントロール626cで置き換える。高級スタイルコントロール626cは、コントロール628、(例えば、高級スタイル634cのトーンパラメータを制御するための)トーンパラメータコントロール626c1、及び(例えば、高級スタイル634cの暖かさパラメータを制御するための)暖かさパラメータコントロール626c2を含み、これらは、(例えば、図6Cのコントロール628、トーンパラメータコントロール626b1、及び暖かさパラメータコントロール626b2にそれぞれ関連して)上述したものと同様の技術を使用して表示される。現在のトーン値626c1bは、高級スタイル634cのトーンパラメータのデフォルト値(例えば、「50」)であり、現在の暖かさ値626c2bは、高級スタイル634cの暖かさパラメータのデフォルト値(例えば、「70」)である。特に、高級スタイル634cのトーンパラメータ及び暖かさパラメータのデフォルト値は、標準スタイル634a(例えば、図6Cに示すようなトーン:0、暖かさ:0)及び鮮やかなスタイル634b(例えば、図6Fに示すようなトーン:80、暖かさ:0)のトーン及び暖かさのデフォルト値とは異なる。これは、既定の高級スタイル634cが既定の標準スタイル634a及び鮮やかなスタイル634bとは異なることを意味する。いくつかの実施形態では、図6Kにおける右方向の移動入力650k2に応じて、コンピュータシステム600は、図6D~6Hのユーザインタフェースのうちの1つを表示する(例えば、表示されるユーザインタフェースは、移動入力650k2の大きさに依存する)。図6Lでは、コンピュータシステム600は、(例えば、移動入力650k1が図6Kに示されているポジションにおいて)移動入力650k1の終了(例えば、リフトオフ)を検出する。
図6Lに示すように、移動入力650k1を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を変更する。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bの2つの視覚的態様を変更する。図6Lでは、コンピュータシステム600は、個別の視覚的態様に対する変更が個別のパラメータの変更(又は現在値)を表すように、メディア処理スタイルインジケータ602bの2つの視覚的態様を変更する。図6Lは、コンピュータシステム600が、トーンパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの周囲の線を変更し、暖かさパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの色を変更することを示すが、図6Lでメディア処理スタイルインジケータ602bが変更される方法は、単なる例示である。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータ、トーンパラメータ、及び/又は異なるパラメータの現在値に基づいて、メディア処理スタイルインジケータ602bの異なる視覚的態様を変更する。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの周囲の線を変更し、及び/又はトーンパラメータの現在値に基づいてメディア処理スタイルインジケータ602bの色を変更する。
図6Lに示すように、図6Lのトーンパラメータの現在値(例えば、「50」)は、図6Kのトーンパラメータの以前の値(例えば、「80」)より小さいため、コンピュータシステム600は、(例えば、図6F~図6Gに関連して上述したような1つ以上の技術を使用して)メディア処理スタイルインジケータ602bの周囲の線(例えば、第1の視覚的態様)を更新して、メディア処理スタイルインジケータ602bの周囲のより少ない部分を占めるようにする(例えば、線を反時計回り方向に縮小する)。しかしながら、図6Lのトーンパラメータの現在値(例えば、50)は、図6Kにおけるトーンパラメータの以前の値(例えば、「80」)と同様に正であるため、コンピュータシステム600は、時計回り方向に移動する(例えば、ラインが移動するように見えるように配向される)ように、メディア処理スタイルインジケータ602bの周囲に線を表示し続ける。図6Lに示すように、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色(例えば、第2の視覚的態様)を変更する。ここで、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色を変更して、暖かさパラメータの以前の値(例えば、「0」)とは異なる暖かさパラメータの現在値(例えば、「70」)を表す。図6Lに示すように、図6Lのメディア処理スタイルインジケータ602bの色は、図6Kのメディア処理スタイルインジケータ602bの色よりも濃い灰色である。暖かさパラメータの現在値が増加するにつれて、コンピュータシステム600は、より濃い灰色をメディア処理スタイルインジケータ602bの色に追加し、濃灰色の量は、暖かさパラメータの現在値(例えば、「70」)と暖かさパラメータの最大値(例えば、「100」)及び/又は最小値とのパーセンテージにほぼ等しい。したがって、図6Lに示すように、コンピュータシステム600は、メディア処理スタイルインジケータ602bを、最大量の70パーセントの濃灰色を有するものとして表示する。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの値が増加及び/又は減少するにつれて、メディア処理スタイルインジケータ602bの色を暗くする。いくつかの実施形態では、コンピュータシステム600は、現在値が中央値(例えば、「0」)を超えて増加するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を増加させる。いくつかの実施形態では、コンピュータシステム600は、値が中央値(例えば、「0」)に向かって(例えば、最大値と中央値との間で)減少するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を減少させる。いくつかの実施形態では、コンピュータシステム600は、現在値が中央値(例えば、「0」)未満に減少するにつれて、メディア処理スタイルインジケータ602bの色を構成する第2の色(例えば、青色)の量を増加させる。いくつかの実施形態では、コンピュータシステム600は、値が中央値(例えば、「0」)(例えば、最小値と中央値との間)に向かって増加するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を減少させる。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの現在値の変化に基づいて、メディア処理スタイルインジケータ602bの周囲の線の色を変化させる。
図6Mに示されるように、移動入力650k1の終了を検出したことに応じて、コンピュータシステム600は、高級スタイル634cを使用して中間セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示し、ヴィンテージスタイル634dを使用して右セクションを表示する。コンピュータシステム600は、(例えば、図6H~図6Iの移動入力650dの終了の検出に関連して上述した1つ以上の技術を使用して)高級スタイル634cが現在選択されているメディア処理スタイルとして設定されるべきであると決定されているため、高級スタイル634cを使用して中間セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示し、ヴィンテージスタイル634dを使用して右セクションを表示する。図6Mでは、コンピュータシステム600は、モード及び設定トグル616上のタップ入力650mを検出する。
図6Nに示すように、タップ入力650mを検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル識別子636b及びページングドット638の表示を中止し、ズームコントロール622を(例えば、鮮やかなスタイル識別子636b及びページングドット638のうちの1つ以上が以前に表示されていたロケーションに)表示する。図6Nに示すように、タップ入力650mを検出したことに応じて、コンピュータシステムは、高級スタイルコントロール626cの表示を中止し、カメラモードコントロール620を(例えば、図6Mにおいて高級スタイルコントロール626cが以前に表示されていたロケーションに)表示する。タップ入力650mを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの表示を非アクティブ状態に更新する。したがって、タップ入力650mを検出したことに応じて、コンピュータシステム600は、(例えば、入力が検出されなかった間にスタイルがコンピュータシステム600の中間セクションに表示されたときに図6Mで選択された)高級スタイル634cを使用して表現の一部を表示し続ける。しかしながら、コンピュータシステム600は、タップ入力650mを検出したことに応じて、高級スタイル634cとは異なるメディア処理スタイルを使用して、及び/又は視覚的要素を使用して、右セクション及び左セクションを表示することを中止する。いくつかの実施形態では、コンピュータシステム600は、図6Nでは、ライブプレビュー630上の移動入力が、異なるメディア処理スタイルを使用してライブプレビュー630の部分を表示させない(例えば、どのメディア処理スタイルが使用されるかの変更を引き起こさない)ため、高級スタイル634cとは異なるメディア処理スタイルを使用して、及び/又は視覚的要素を使用して、右セクション及び左セクションを表示することを中止する。図6Nでは、コンピュータシステムは、カメラモードコントロール620上の左方向への移動入力650n1、又はライブプレビュー630上の左方向への移動入力650n2を検出する。
図6Oでは、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600は、写真キャプチャモードでの動作からポートレートキャプチャモードでの動作に遷移する。図6Oに示すように、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600は、カメラモードコントロール620を左に移動させ、選択されているものとしてポートレートモードコントロール620d(例えば、太字ポートレートモードコントロール620d)を表示する。ポートレートモードで動作している間、コンピュータシステム600は、(例えば、6Mで選択された)高級スタイル634dを使用してライブプレビュー630の少なくとも一部の表示を維持する。したがって、コンピュータシステム600が他のタイプのメディア(例えば、写真メディア、ビデオメディア、及び/又はポートレートメディア、パノラマメディア)をキャプチャするように構成されている間に、メディア処理スタイルをメディアの表現(例えば、ライブプレビュー630)に適用することができる。いくつかの実施形態では、メディア処理スタイルインジケータ602bがアクティブ状態で表示されている間(及び/又はスタイルユーザインタフェースオブジェクトが表示されている間)に移動入力650n2を検出したことに応じて、コンピュータシステム600は、異なるキャプチャモードで動作するように遷移しない(例えば、コンピュータシステム600は、移動入力650n2が検出される前にコンピュータシステム600が動作していたのと同じキャプチャモードで動作し続ける)。いくつかの実施形態では、メディア処理スタイルインジケータ602bが非アクティブ状態にある間に移動入力650n2を検出したことに応じて、コンピュータシステム600は、(例えば、図6N~図6Oに示すように)異なるキャプチャモードで動作するように遷移する。いくつかの実施形態では、コンピュータシステム600は、入力650n1が検出されたことに応じて、メディア処理スタイルインジケータ602bがアクティブ状態であるか非アクティブ状態であるかにかかわらず、ポートレートキャプチャモードでの動作に遷移する。したがって、いくつかの実施形態では、コンピュータシステム600は、移動入力のロケーション、及びコンピュータシステムが現在スタイルユーザインタフェースオブジェクトのセットを表示しているかどうかに基づいて、移動入力に異なって応答することができる。図6Oに示すように、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600はまた、図6Nにおいてコンピュータシステム600が写真キャプチャモードで動作していた間に表示されなかった、インジケータ領域602におけるポートレートキャプチャモードのためのインジケータ(例えば、絞り値インジケータ602d)と、コントロール領域606におけるポートレートモードのためのコントロール(例えば、照明効果コントロール678、ズームコントロール622b)とを表示する。更に、移動入力650n1及び650n2を検出したことに応じて、コンピュータシステム600は、インジケータ領域602内の写真キャプチャモード用のインジケータ(例えば、アニメーション画像インジケータ602c)の表示を中止し、コンピュータシステム600が図6Nにおいてポートレートモードで動作していたときに表示されていたコントロール領域606内の写真モード用のコントロール(例えば、ズームコントロール622a及びズームコントロール622c)を表示する。いくつかの実施形態では、ライブプレビュー630上の図6Nにおける移動入力を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルを制御するためのスタイルユーザインタフェース及び/又は複数の選択可能なユーザインタフェースオブジェクトを表示していないため、(例えば、移動入力650n1又は650n2に関して上述したものと同様の技術を使用して)ポートレートキャプチャモードでの動作から異なるキャプチャモードでの動作へ遷移する。いくつかの実施形態では、(例えば、移動入力650n1又は移動入力650n2の同様のロケーションにおける)移動入力を検出したことに応じて、コンピュータシステム600は、ポートレートキャプチャモードでの動作から異なるキャプチャモードでの動作に遷移し、現在選択されているスタイル(例えば、6Mで選択された高級スタイル634d)を使用してライブプレビュー630の少なくとも一部の表示を維持する(又は維持し続ける)。いくつかの実施形態では、移動入力650n1又は移動入力650n2が特定の大きさ(例えば、より大きい大きさ)を有したこと、及び/又は移動入力650n1又は移動入力650n2とは異なるものであったことを検出したことに応じて、コンピュータシステム600は、写真モードでの動作から、ポートレートモード(例えば、パノラマモード及び/又はビデオモード)とは異なるモードで動作するように遷移し、現在選択されているスタイル(例えば、6Mで選択された高級スタイル634d)を使用してライブプレビュー630の少なくとも一部の表示を維持する(又は維持し続ける)。いくつかの実施形態では、メディアをキャプチャする要求を検出したことに応じて、コンピュータシステム600は、ポートレートメディアをキャプチャし、現在選択されているメディア処理スタイル(例えば、高級スタイル634c)をキャプチャされたポートレートメディアに適用する。したがって、いくつかの実施形態では、コンピュータシステム600は、現在選択されているメディア処理スタイルを異なるタイプのメディア(例えば、図6Oのポートレートメディア及び図6Cの写真メディア)に適用することができる。図6Oでは、コンピュータシステムは、メディア処理スタイルインジケータ602b上のタップ入力650oを検出する。
図6Pに示すように、タップ入力650oを検出したことに応じて、コンピュータシステム600は、(例えば、図6Mに関連して上述したような1つ以上の技術を使用して)ポートレートモードで動作し続けている間、高級スタイル識別子636c、ページングドット638、高級スタイルコントロール626c、並びに視覚的要素660a及び660bを含む1つ以上のスタイルのユーザインタフェースオブジェクトを再表示する。いくつかの実施形態では、ライブプレビュー630上で移動入力を検出したことに応じて、コンピュータシステム600は、ポートレートモードで動作し続けている間、異なるメディア処理スタイルを使用して(例えば、図6C~6Pに関連して上述した1つ以上の技術を使用して)ライブプレビュー630の異なる部分を表示する。したがって、いくつかの実施形態では、コンピュータシステム600が異なるキャプチャモードで動作している間に、異なるメディア処理スタイルを選択することができる。いくつかの実施形態では、シャッターコントロール610上のタップ入力を検出したことに応じて、コンピュータシステム600は、ポートレートメディアをキャプチャし、ポートレートメディアの表現は、(例えば、スタイル634cが図6Pで選択されているので)高級スタイル634cとして表示される。いくつかの実施形態では、fストップインジケータ602d上の入力を検出したことに応じて、コンピュータシステム600は、図6Oのユーザインタフェースを再表示する(例えば、スタイルユーザインタフェース及び/又はメディア処理スタイルを制御するための複数の選択可能なユーザインタフェースオブジェクトを表示することを中止する)。図6Pでは、コンピュータシステム600は、メディアコレクション612上の入力650pを検出する。
図6Qに示すように、タップ入力650pを検出したことに応じて、コンピュータシステム600は、コントロール領域670、メディアビューア領域672、及びコントロール領域674を含むメディアビューアユーザインタフェースを表示する。コントロール領域670は、バックコントロール670a、現在時刻670b、及びメディアギャラリーコントロール670cを含む。コントロール領域674は、複数のコントロールと、サムネイル表現676a~676dを含むメディア676のサムネイル表現とを含む。サムネイル表現676a~676dは、図6A~6Qにおいてメディアコレクション612の一部として以前に表示されたものである。メディアビューア領域672は、メディア表現680dを含む。図6Qに示すように、メディア表現680dは、入力650jを検出したことに応じてキャプチャされたメディアの表現である。図6Qに示されるように、メディア表現680dは、メディア表現680dに対応するメディアがキャプチャされたときに現在選択されているメディア処理スタイルであった鮮やかなスタイル634bを使用して表示される。図6Qでは、コンピュータシステム600は、バックコントロール670a上の入力650qを検出する。
図6Rに示すように、タップ入力650qを検出したことに応じて、コンピュータシステム600は、図6Oのユーザインタフェースを再表示し、図6Rのライブプレビュー630が高級スタイル634cを使用して表示される。図6Rでは、ライブプレビュー630は、コンピュータシステム600がカメラアプリケーションから離れてメディアビューアアプリケーションにナビゲートしていても、コンピュータシステム600が現在選択されているメディア処理スタイルとして高級スタイル634cを維持しているので、鮮やかなスタイル634bを使用して表示される。したがって、いくつかの実施形態では、コンピュータシステム600は、カメラアプリケーションを使用するセッション間に、現在選択されているメディア処理スタイルを維持する。いくつかの実施形態では、コンピュータシステム600は、(例えば、図7A~図7Xにおいて後述するように)新しいメディア処理スタイルが選択されるまで、及び/又は鮮やかなスタイル634bが修正されるまで、高級スタイル634cを現在選択されているメディア処理スタイルとして維持する。いくつかの実施形態では、タップ入力650qを検出したことに応じて、コンピュータシステム600は、図6Oの代わりに図6Qのユーザインタフェースを再表示し、メディア処理スタイルを制御するためのスタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを示す。図6Rでは、コンピュータシステム600は、メディアコレクション612上の入力650rを検出する。
図6Sに示すように、タップ入力650rを検出したことに応じて、コンピュータシステム600は、メディア表現680dを含む図6Qのユーザインタフェースを再表示する。図6Sに示すように、コンピュータシステム600は、メディア表現680d上の移動入力650sを検出する。図6Tに示すように、移動入力650sを検出したことに応じて、コンピュータシステム600は、メディア表現680dをメディア表現680cで置き換える。メディア表現680cは、標準スタイル634aが図6Cにおいて現在選択されているメディア処理スタイルであったときに入力650cを検出したことに応じてキャプチャされたメディアの表現であるので、標準スタイル634aを使用して表示される。いくつかの実施形態では、メディアビューアユーザインタフェースは、メディア表現680c及びメディア表現680dによって表されるメディアなど、既にキャプチャされているメディアに適用されるメディア処理スタイルを変更する1つ以上のオプションを含む。したがって、いくつかの実施形態では、コンピュータシステムは、異なるメディア処理スタイルが現在選択されている処理スタイルであったときに、最初にキャプチャされなかった以前にキャプチャされたメディアに異なるメディア処理スタイルを適用する。図6Tでは、コンピュータシステム600は、メディアギャラリーコントロール670c上のタップ入力650tを検出する。
図6Uに示すように、タップ入力650tを検出したことに応じて、コンピュータシステム600は、メディアギャラリーユーザインタフェースを表示する。ギャラリーユーザインタフェースは、バックコントロール686と、メディア処理スタイル(例えば、標準スタイル634a(例えば、水平線を含むパターンによって表される)、バイブレーションスタイル634b(例えば、上向き斜線を含むパターンによって表される)、高級スタイル634c(例えば、下向き斜線を含むパターンによって表される)、及びヴィンテージスタイル634d(例えば、垂直線を含むパターンによって表される))を使用してキャプチャされたメディアの表現とを含む。いくつかの実施形態では、メディアギャラリーユーザインタフェースに含まれるメディアの表現によって表されるメディアは、異なるタイプのメディア(例えば、静止写真メディア、ポートレートメディア、ビデオメディア、パノラマメディア、スローモーションメディアなど)である。いくつかの実施形態では、メディアギャラリーユーザインタフェースに含まれるメディアの表現によって表されるメディアは、異なるメディア処理スタイルが選択されている間、及び/又はコンピュータシステム600が異なるキャプチャモードで動作するように構成されている間にキャプチャされた。図6Uでは、コンピュータシステム600は、バックコントロール686上の入力650uを検出する。
図6Vに示すように、タップ入力650uを検出したことに応じて、コンピュータシステム600は、(例えば、図6Uの)メディアギャラリーユーザインタフェースを表示することを中止し、図6Rのカメラユーザインタフェースを再表示し、図6Rのライブプレビュー630は、高級スタイル634cを使用して表示される。図6Vでは、コンピュータシステム600は、生画像キャプチャインジケータ602e上のタップ入力650vを検出する。図6Wに示すように、タップ入力650vを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bを表示することを中止し、ライブプレビュー630の一部にメディア処理スタイルを適用することを中止する。図6Wに示すように、タップ入力650vを検出したことに応じて、コンピュータシステム600は、生画像キャプチャインジケータ602eを、メディア処理スタイルインジケータ602bが以前に表示されていたロケーションまで左にスライドさせる。図6Wでは、タップ入力650vを検出したことに応じて、コンピュータシステム600は、非生画像メディアフォーマットでメディアを記憶及び/又はキャプチャするように構成されている状態から生画像フォーマットに遷移し、生画像キャプチャコントロール602eをアクティブであるとして表示する。いくつかの実施形態では(上述したように)、コンピュータシステム600は、選択されたメディア処理スタイルを生画像フォーマットで記憶されたメディアに適用しない。したがって、いくつかの実施形態では、コンピュータシステム600は、キャプチャされたメディアにメディア処理スタイルを適用するようにも構成されている間、生画像フォーマットでメディアを記憶及び/又はキャプチャするように構成することができない。図6Wでは、コンピュータシステム600は、カメラユーザインタフェース上のロケーション(例えば、1つ以上のカメラモードアフォーダンス620の上及び/又は下)で上向きスワイプ入力650wを検出する。
図6Xに示すように、上向きスワイプ入力650wを検出したことに応じて、コンピュータシステム600は、図6Wのカメラモードコントロール620をカメラ設定コントロール688に置き換える。カメラ設定コントロール688は、選択されたときにコンピュータシステム600にフラッシュモードを調整する(例えば、フラッシュモードをオン及び/又はオフにする)ための1つ以上のオプションを表示させるフラッシュ設定コントロール668aと、メディア処理スタイルコントロール688bと、選択されたときにコンピュータシステム600に露出補正値を調整する1つ以上のオプション(例えば、スライダ)を表示させる露出補正コントロール688fと、選択されたときにコンピュータシステム600にタイマの持続時間を調整するための1つ以上のオプションを表示させるタイマコントロール688gと、選択されたときにコンピュータシステム600にメディアに適用されるフィルタを調整するための1つ以上のオプションを表示させるフィルタコントロール688hと、選択されたときにコンピュータシステム600に絞り値を調整するための1つ以上のオプションを表示させる絞り値コントロール688iとを含む。特に、図6Xに表示されるカメラ設定コントロールは、コンピュータシステム600がポートレートモードで動作している間に利用可能なカメラ設定の一部を反映する(例えば、図6Wにおいて「ポートレート」が太字で示されるように)。いくつかの実施形態では、コンピュータシステム600が異なるカメラモードで動作している間に上方向スワイプ入力650wを検出したことに応じて、1つ以上の他のカメラ設定コントロール及び/又は1つ以上の同じカメラ設定コントロールが表示される。図6Xでは、コンピュータシステム600は、メディア処理スタイルコントロール688b上のタップ入力650x1を検出する。
図6Yに示すように、タップ入力650×1を検出したことに応じて、コンピュータシステム600は、生画像キャプチャコントロール602eを非アクティブであるとして表示し(及び/又はコンピュータシステムは非生画像メディアをキャプチャするように構成され、生画像メディアをキャプチャするように構成されない)、図6Lのカメラユーザインタフェースを再適用及び再表示し、(例えば、ライブプレビュー630の1つ以上の他の部分が他のメディア処理スタイルで表示されると共に)図6Rのライブプレビュー630の一部が高級スタイル634cを使用して表示され、高級スタイルコントロール626cが表示される。いくつかの実施形態では、タップ入力650×1を検出したことに応じて、コンピュータシステム600は、図6Rのカメラユーザインタフェースを再表示し、図6Rのライブプレビュー630は、高級スタイル634cを使用して表示される。いくつかの実施形態では、図6Xの生画像キャプチャコントロール602e上のタップ入力650×2を検出したことに応じて、コンピュータシステム600は、図6Lのカメラユーザインタフェースを再表示するか、又は図6Rのカメラユーザインタフェースを再表示する。いくつかの実施形態では、図6Xの生画像キャプチャコントロール602e上でタップ入力650×2を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の一部にメディア処理スタイルを適用しない(例えば、メディア処理スタイルを適用せずに図6Xのライブプレビュー630の表示を継続する)一方で、生画像キャプチャコントロール602eを非アクティブである(及び/又はコンピュータシステムが非生画像メディアをキャプチャするように構成され、生画像メディアをキャプチャするように構成されない)ものとして表示する。
図7A~図7Xは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図7Aは、(例えば、図6Cに関連して上述したような1つ以上の技術を用いて)カメラユーザインタフェースを表示するコンピュータシステム600を示す。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bをアクティブ状態で表示しており、中間セクションは標準スタイル634aを使用し、右セクション及び左セクションはメディア処理スタイルを使用せずに(例えば、図6Cに関連して上述した1つ以上の技術を使用して)表示している。更に、コンピュータシステム600は、(例えば、図6Cに関連して上述したような1つ以上の技術を使用して)視覚的要素660b、選択されている標準ページングドット638aを有するページングドット638、並びにコントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2を含む標準スタイルコントロール626aを有する右セクションを表示している。図7Aに示すように、コンピュータシステム600はまた、(例えば、図6Cに関連して上述した1つ以上の技術を使用して)トーンパラメータ識別子626a1a、現在のトーン値626a1b、及びトーン値範囲インジケータ626a1cを含むトーンパラメータコントロール626a1、並びに暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cを含む暖かさパラメータコントロール626a2を表示している。図7Aでは、コンピュータシステム600は、トーンパラメータコントロール626a1上の移動入力750aの一部を検出する。
図7Bに示されるように、図7Aにおける移動入力750aの部分を検出したことに応じて(例えば、移動入力750aを検出し続けている間)、コンピュータシステム600は、トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。特に、図7Bでは、コンピュータシステム600は、トーンパラメータコントロール626a1及び/又はトーン値範囲インジケータ626a1cを(例えば、図7Bにおいてトーンパラメータコントロール626a1が表示されたポジションを横切って及び/又はラインに沿って)一直線に拡張する。トーンパラメータコントロール626a1を拡張するとき、コンピュータシステム600は、図7Bのトーン値範囲インジケータ626a1cの目盛りが図7Aのトーン値範囲インジケータ626a1cの目盛りよりも大きく、更に離れるように、トーン値範囲インジケータ626a1cのサイズを増加させる。更に、図7Bの階調値範囲インジケータ626a1cの目盛りは、図7Aの階調値範囲インジケータ626a1cのチェックマークよりも多くの値を表す(例えば、図7Bの階調値範囲インジケータ626a1cは、図7Aの階調値範囲インジケータ626a1cよりも多くの目盛りを有する)。言い換えれば、図7Aにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1及び/又はトーン値範囲インジケータ626a1cにズームインする(これは、いくつかの実施形態では、ユーザがトーンパラメータコントロール626a1の値を変更することをより容易にする)。図7Bに示すように、図7Aにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、図7Aの現在のトーン値626a1bが表示されたディスプレイ上のポジションとは異なるディスプレイ上のポジションに、図7Bの現在のトーン値626a1b(例えば、「0」)を表示する。コンピュータシステム600は、図7Bの現在のトーン値626a1bを移動させているが、コンピュータシステム600は、(例えば、図7Aの現在のトーン値626a1bが表示されていたように)トーン値範囲インジケータ626a1cの中央ポジションに図7Bの現在のトーン値626a1bを表示し続ける。更に、図7Aで移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータ識別子626a1aをコントロール領域606の右側に移動させる。図7Bでは、コンピュータシステム600は、(例えば、移動750dを検出し続けている間)トーン値範囲インジケータ626a1c上の移動入力750aの別の部分を検出する。コンピュータシステム600は、左方向の移動入力750の部分を検出する。いくつかの実施形態では、図7Aで検出された移動入力750aの部分はタップ入力であり、図7Bで検出された移動入力750aの部分は移動入力である(例えば、いくつかの実施形態では、ユーザは、タップしてコントロールを拡張し、次いで、コントロールのパラメータの現在値を調整するための入力を提供することができる)。いくつかの実施形態では、図7Aで検出された移動入力750aの部分及び図7Bで検出された移動入力750aの部分は、独立して検出される別個の入力である。いくつかの実施形態では、図7Aで検出された移動入力750a(例えば、タップ入力)の部分が受信されたことに応じて、コンピュータシステム600は、図7Aで検出された移動入力750aの部分が検出され続けるかどうかにかかわらず、トーンパラメータコントロール626a1を拡張する。いくつかの実施形態では、タップ入力である移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を拡張し、トーンパラメータコントロール626a1を縮小し、閾値期間(例えば、5、20、30、40、75秒)内に、拡張されたトーンパラメータコントロール626a1上及び/又はカメラユーザインタフェース上で追加の入力が検出されない場合、暖かさパラメータコントロール626b1を再表示する。
図7Cに示すように、(例えば、左方向に移動している)図7Bにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーン値範囲インジケータ626a1cの目盛りを左に移動させ(例えば、図7Bにおいて検出された移動入力750aの大きさに基づいて)、現在のトーン値626a1bを「0」(例えば、図7B)から「100」(例えば、図7C)に更新する。(例えば、左方向に移動している)図7Bで検出された移動入力750aの部分の移動特性(例えば、速さ、加速度、及び/又は速度)に基づいて現在のトーン値626a1bを「0」(例えば、図7B)から「100」(例えば、図7C)に更新する間に、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を更新する。図7Cでは、コンピュータシステム600は、図7Bにおいて検出された移動入力750aの部分の移動特性に基づいて、メディア処理スタイルインジケータ602bの周囲の線のサイズを時計回り方向に増加させることによって、メディア処理スタイルインジケータ602bの外観を更新する。注目すべきことに、現在値(例えば、「100」)は、トーンパラメータを設定することができる最大値であるが、コンピュータシステム600の線は、メディア処理スタイルインジケータ602bの周囲を完全には囲まない。線は、トーンパラメータが最大値に設定されている間にラインがメディア処理スタイルインジケータ602bの周囲を時計回り方向に(例えば、正の値を示すために)移動したことを示すために、メディア処理スタイルインジケータ602bの周囲を完全には囲んでいない(例えば、メディア処理スタイルインジケータ602bの周囲の上部付近に間隙を有して表示される)。いくつかの実施形態では、トーンパラメータの現在値がトーンパラメータの最小値(例えば、「-100」)に設定されているとき、コンピュータシステム600は、メディア処理スタイルインジケータ602bの上部の他方の側に間隙を表示して(例えば、線の開始を示す垂直線が図7Cの線の左部分に接続され、間隙が垂直線と図7Cの線の右部分との間にある)、トーンパラメータの現在値がトーンパラメータの最小値に設定されている間に、線がメディア処理スタイルインジケータ602bの周りを反時計回り方向に移動したことを示す(例えば、負の値を示す)。
現在のトーン値626a1b及びメディア処理スタイルインジケータ602bを更新することに加えて、コンピュータシステム600は、標準スタイル識別子636aをカスタム標準スタイル識別子636aaで置き換え、ページングドット638内の標準ページングドット638aの左側にカスタム標準ページングドット638aaを追加する。言い換えれば、図7Cでは、コンピュータシステム600は、現在のトーン値626a1bをデフォルト値(「0」)から修正値(「100」)に更新することに応じて、標準スタイル634aのカスタムバージョンを利用可能なスタイルのセットに追加する。図7Cに示すように、標準スタイル識別子636aaは、図7Cにおける現在のトーン値626a1bが標準スタイル634aのデフォルトトーン値(図7Bでは「0」)よりも大きいので、「リッチなコントラスト」という単語を含む。したがって、コンピュータシステム600は、カスタムメディア処理スタイルのパラメータが、メディア処理スタイルのデフォルトパラメータとどのように異なるかに基づいて、カスタムメディア処理スタイルの名前を決定することができる。したがって、図7Cでは、コンピュータシステム600は、標準スタイル634aのトーンパラメータのデフォルト値を更新せず(例えば、図7Cに示すように)、代わりに、更新値を有する標準スタイル634aの修正バージョンを作成する。したがって、いくつかの実施形態では、ユーザは、後で標準スタイル634aの修正バージョン(例えば、カスタム標準スタイル634aa)にアクセスすることができる。
図7Cに示されるように、図7Bにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の中間セクションを更新し、その結果、中間セクションは、図7Bの標準スタイル634aを使用する代わりに、図7Cのカスタム標準スタイル634aaを使用して表示される。コンピュータシステム600は、図7Cのカスタム標準スタイル634aaを、標準スタイル634aのトーン(例えば、「0」)よりも増加した量のトーン(例えば、「100」)で表示して、標準メディア処理スタイルのトーンパラメータの値を変化を反映していることを理解されたい。例示のみを目的として、カスタム標準スタイル634aa(例えば、図7C)は、カスタム標準スタイル634aaが標準スタイル634aの修正バージョンであることを示すために、標準スタイル634a(例えば、図7B)と同じパターン(例えば、水平線)で示されている。しかしながら、カスタム標準スタイル634aaの線は、カスタム標準スタイル634aaが標準スタイル634aと異なることを示すために、図7Bの標準スタイル634aの線のように実線ではなく点線で示されている。図7Cでは、コンピュータシステム600は、図7Cにおいて移動入力750aを依然として検出しているので、コンピュータシステム600は、トーンパラメータコントロール626a1の拡張バージョンを表示し続ける。いくつかの実施形態では、コンピュータシステム600は、コンピュータシステム600が図7Bにおいて移動入力750aを検出し続けるかどうかにかかわらず、トーンパラメータコントロール626a1の拡張バージョンを表示し続ける。図7Cでは、コンピュータシステム600は、移動入力750aの終了(例えば、リフトオフ)を検出する。
図7Dに示すように、移動入力750aの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を縮小し(例えば、サイズを縮小し)、暖かさパラメータコントロール626a2を再表示する。図7Dに示すように、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、図7Bで表示されたのと同じポジション及び同じサイズで表示される。図7Dでは、コンピュータシステム600は、移動入力750aが検出される前に表示されていた暖かさパラメータコントロール626a2(例えば、図7Bの暖かさパラメータコントロール626a2)と同じバージョンを表示する。したがって、(例えば、図7Bと図7Dとを比較すると)暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cの表示は変化していない。しかしながら、トーンパラメータコントロール626a1は、移動入力750aを検出したことに応じて更新されたため、コンピュータシステム600は、トーンパラメータコントロール626a1の更新バージョンを表示し、図7Dの現在のトーン値626a1bは、図7Bの現在のトーン値626a1bとは異なり、図7Dのトーン値範囲インジケータ626a1cは、図7Bのトーン値範囲インジケータ626a1cとは異なる。特に、図7Dでは、トーン値範囲インジケータ626a1cは、現在のトーン値626a1b(例えば、「100」)がトーン値範囲インジケータ626a1cのスケールに関連するため、現在のトーン値60a1b(例えば、「100」)を表すセットの拡大目盛り(例えば、5)を含む(例えば、中央目盛りの右側の全ての目盛りは、「100」が、トーン値範囲インジケーション626a1cのスケール上の0より上の範囲(例えば、0~100)の100%を占める値であることを示すように拡大され、完全に埋められる)。図7Bに戻ると、トーン値範囲インジケータ626a1cは、図7Bの現在のトーン値626a1bが「0」であり、トーン値範囲インジケーション626a1cのスケール上で0より下又は上の任意の範囲を占有する値ではなかったため、拡大された及び/又は充填された目盛りを含まなかった。図7Dに戻ると、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、(例えば、表示されたままであるカスタム標準スタイル識別子636aaによって示されるような)カスタム標準スタイル634aaの個別のパラメータの現在値(例えば、626a1b、626a2b)を表すことを理解されたい。したがって、メディア処理スタイルについての1つ以上のコントロールを使用して、メディア処理スタイルの1つ以上のパラメータを調整することもできる。
図7Dに示すように、移動入力750aの終了を検出したことに応じて、コンピュータシステム600はリセットコントロール722を表示する。ここで、コンピュータシステムは、メディア処理スタイルのパラメータの値がメディア処理スタイルのデフォルト値ではないので(例えば、現在のトーン値626a1bが標準スタイル634aのデフォルト値「0」から「100」に変更されているので)、リセットコントロール722を表示する。図7Dでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の移動入力750dの一部を検出する。
図7Eに示すように、図7Dにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を表示することを中止し、(例えば、図7B~図7Cのトーンパラメータコントロール626a1の拡張に関連して上述した1つ以上の技術を使用して)暖かさパラメータコントロール626a2を拡張する。特に図7Eでは、コンピュータシステム600は、暖かさパラメータコントロール626a2及び/又は暖かさ値範囲インジケータ626a2cを一直線に拡張する。拡張することが暖かさパラメータコントロール626a2を拡張するとき、コンピュータシステム600は、図7Eの暖かさ値範囲インジケータ626a2cの目盛りが、図7Aの暖かさ値範囲インジケータ626a2cの目盛りより大きく、更に離れるように、暖かさ値範囲インジケータ626a2cのサイズを増加させる。更に、図7Eの暖かさ値範囲インジケータ626a2cの目盛りは、図7Aの暖かさ値範囲インジケータ626a2cの目盛りよりも多くの値を表す(例えば、図7Eの暖かさ値範囲インジケータ626a2cは、図7Aの暖かさ値範囲インジケータ626a2cよりも多くの目盛りを有する)。言い換えれば、図7Dにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、暖かさパラメータコントロール626a2及び/又は暖かさ値範囲インジケータ626a2cにズームインする(これは、いくつかの実施形態では、ユーザが暖かさパラメータコントロール626a2の値を変更することをより容易にする)。図7Eに示すように、図7Dでの移動入力750dを検出したことに応じて、コンピュータシステム600は、図7Aの現在の暖かさ値626a2bが表示されたディスプレイ上のポジションとは異なるディスプレイ上のポジションに、図7Eの現在の暖かさ値626a2b(例えば、「0」)を表示する。コンピュータシステム600は、図7Eの現在の暖かさ値626a2bを移動させているが、コンピュータシステム600は、(例えば、図7Aの現在の暖かさ値626a2bが表示されていたように)暖かさ値範囲インジケータ626a2cの中央ポジションに図7Eの現在の暖かさ値626a2bを表示し続ける。更に、移動入力750dを検出したことに応じて、コンピュータシステム600は、暖かさパラメータ識別子626a2aをコンピュータシステム600の右側に移動させる。図7Eでは、コンピュータシステム600は、(例えば、移動750dを検出し続けている間)暖かさ値範囲インジケータ626a2c上の右方向の移動入力750dの別の部分を検出する。
図7Fに示すように、図7Eにおける移動入力750dの部分(例えば、右方向に移動している)を検出したことに応じて、コンピュータシステム600は、(例えば、図7Eにおいて検出された移動入力750dの大きさに基づいて)暖かさ値範囲インジケータ626a2cの目盛りを右に移動させ、現在の暖かさ値626a2bを「0」(例えば、図7E)から「-75」(例えば、図7F)に更新する。図7Fに示すように、図7Eにおいて移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色を変更することによって(例えば、図6Lに関連して上述した1つ以上の技術を使用して)、メディア処理スタイルインジケータ602bの外観を更新する。図7Fでは、コンピュータシステム600は、図7Eにおける移動入力750dの部分の移動に基づいて、メディア処理スタイルインジケータ602bの色の薄灰色の量を増加させる。ここで、コンピュータシステム600は、暖かさコントロールの現在値が減少しているので、(例えば、図6Lに関連して上述したような濃灰色の量を増加させることとは対照的に)薄灰色の量を増加させる。図7Fに示すように、コンピュータシステム600は、カスタム標準スタイル識別子636aaと、カスタム標準スタイル634aaを使用して表示される中間セクションとを表示し続ける。図7Fでは、コンピュータシステム600は、カスタム標準スタイル識別子636aaを表示し続ける。しかしながら、図7Fでは、コンピュータシステム600は、カスタム標準スタイル識別子636aaを更新して、「リッチなコントラスト」の代わりに「リッチなコントラスト冷たい」という単語を含める。ここで、「冷たい」がカスタム標準スタイル識別子636aaに追加されるのは、図7Eにおいて移動入力750dの部分を検出したことに応じて暖かさパラメータの現在値が減少したこと、及び/又は暖かさパラメータの現在値(例えば、「-75」)が標準スタイル634a(例えば、カスタム標準スタイル634aaが作成された)の暖かさパラメータのデフォルト値未満であることによる。図7Fでは、コンピュータシステム600は、利用可能なスタイルのセットに新しいカスタム標準メディア処理スタイル(例えば、図7Eに示されるカスタム標準スタイル636aaとは異なるカスタム標準メディア処理スタイル)を追加する代わりに、カスタム標準スタイル識別子636aaのパラメータを編集しているため、コンピュータシステム600は、カスタム標準スタイル識別子634aaを表示し続ける。したがって、図7Fでは、現在の暖かさ値626a2bが標準スタイル634a(例えば、図6Bに示す)のデフォルト値から変更されているが、(例えば、ページングドット638によって示されるような)利用可能なスタイルのセットの数は同じままである。カスタム標準スタイル634aaを使用して中間セクションを表示するとき、コンピュータシステム600は、カスタム標準メディア処理スタイルに関する暖かさの変化及び/又は暖かさパラメータの値の変化を反映するように中間セクションを更新する。例示のみを目的として、カスタム標準スタイル634aa(例えば、図7F)は、カスタム標準スタイル634aaが標準スタイル634aの修正バージョンであることを示すために、標準スタイル634a(例えば、図7B)と同じパターン(例えば、水平線)で示されている。しかしながら、図7Fのカスタム標準スタイル634aaの線(例えば、破線)は、図7Bの標準スタイル634aの線(例えば、実線)及び図7Eのカスタム標準スタイル634aaの線(例えば、点線)とは異なり、図7Fのカスタム標準スタイル634aaが図7Bの標準スタイル634a及び図7Eのカスタム標準スタイル634aaと異なることを示す。いくつかの実施形態では、図7Eにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、図7Eのカスタム標準スタイル634aaを更新せず、追加のカスタム標準メディア処理スタイルを追加する。いくつかの実施形態では、追加のカスタム標準メディア処理スタイルを表示するとき、コンピュータシステム600は、カスタム標準ページングドット638aaの左及び/又は右に追加のカスタム標準メディア処理スタイルのページングドットを表示し、カスタム標準スタイル識別子636aaを追加のカスタム標準メディア処理スタイルのスタイル識別子で置き換える。いくつかの実施形態では、コンピュータシステム600は、追加のカスタム標準メディア処理スタイルを、標準メディア処理スタイルのうちの1つ以上に隣接するポジションで利用可能なスタイルのセットに追加し、及び/又は追加のカスタム標準メディア処理スタイルを他の標準メディア処理スタイルとグループ化する。図7Fでは、コンピュータシステム600は、暖かさ値範囲インジケータ626a2c上の移動入力750dの終了を検出する。
図7Gに示すように、移動入力750dの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を再表示し、暖かさパラメータコントロール626a2を縮小する(例えば、図7Dに関連して上述した1つ以上の技術を使用して)。暖かさパラメータコントロール626a2は、移動入力750dを検出したことに応じて更新されたため、コンピュータシステム600は、暖かさパラメータコントロール626a2の更新バージョンを表示し、図7Gの現在の暖かさ値626a2bは、図7Dの現在の暖かさ値626a2bとは異なり、図7Gの暖かさ値範囲インジケータ626a2cは、図7Dの暖かさ値範囲インジケータ626a2cとは異なる。特に、図7Gでは、暖かさ値範囲インジケータ626a2cは、現在の暖かさ値626a2b(例えば、「-75」)が暖かさ値範囲インジケータ626a2cのスケールに関連するため、現在の暖かさ値626a2b(例えば、「-75」)を表す1セットの拡大目盛り(例えば、4)を含む(例えば、中央目盛りの左側の目盛りの75%(例えば、現在の暖かさ値626a2bが負の値であるため)が、「-75」が暖かさ値範囲インジケーション626a2cのスケール上の0より下の範囲(例えば、-100~0)の75%を占める値であることを示すために拡大されて埋められる)。いくつかの実施形態では、図7Gのシャッターコントロール610上の入力(例えば、タップジェスチャ)を検出したことに応じて、コンピュータシステム600は、メディアをキャプチャし、(例えば、メディアの表現を表示するときに)図7Gのカスタム標準スタイル634aa(標準スタイル634aではない)をメディアに適用する。図7Gでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の移動入力750gの一部を検出する。
図7Hに示されるように、図7Gにおける移動入力750gの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Dのトーンパラメータコントロール626a1の拡張に関連して上述したような1つ以上の技術を用いて)トーンパラメータコントロール626a1を表示することを中止し、暖かさパラメータコントロール626a2を拡張する。図7Hでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の左方向の移動入力750gの別の部分を検出する。
図7Iに示すように、図7Hにおいて移動入力750gの部分(例えば、左方向に移動している)を検出したことに応じて、コンピュータシステム600は、(例えば、図7Hにおいて検出された移動入力750gの部分の大きさに基づいて)暖かさ値範囲インジケータ626a2cの目盛りを左に移動させ、現在の暖かさ値626a2bを「-75」(例えば、図7H)から「0」(例えば、図7I)に更新する。図7Iに示すように、コンピュータシステム600は、コンピュータシステム600が図7Dのカスタム標準スタイル634aa、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602b(例えば、「図7Dの点線」)を使用して中間セクションを表示するのと同じ方法で、図7Iのカスタム標準スタイル634aa、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602b(例えば、「図7Iの点線」)を使用して中間セクションを表示する。図7D及び図7Iでは、コンピュータシステム600は、図7Iの現在の暖かさ値626a2bが図7Dの現在の暖かさ値626a2bと同じ値であり、図7Iにおける現在のトーン値626a2b(例えば、図7Jに示されるような)が図7Dの現在のトーン値626a2bと同じであるため、中間セクション、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602bを同じように表示する。図7Iでは、コンピュータシステム600は、暖かさ値範囲インジケータ626a2c上の移動入力750gの終了を検出する。
図7Iに示すように、移動入力750gの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を再表示し、暖かさパラメータコントロール626a2を縮小する(例えば、図7D及び7Iに関連して上述した1つ以上の技術を使用して)。いくつかの実施形態では、図7Iにおけるシャッターコントロール610上の入力(例えば、タップジェスチャ)を検出したことに応じて、コンピュータシステム600は、メディアをキャプチャし、(例えば、メディアの表現を表示するときに)図7Iのカスタム標準スタイル634aa(図7Hの標準スタイル634a及び/又はカスタム標準スタイル634aaではない)をメディアに適用する。図7Jでは、コンピュータシステム600は、ライブプレビュー630上の左方向への移動入力750jを検出する。
図7Kに示すように、移動入力750jを検出したことに応じて、コンピュータシステム600は、(例えば、図6E~図6Iの移動入力650dの検出に関連して上述した1つ以上の技術を使用して)メディア処理スタイルの利用可能なセットを左に変換し、標準スタイル634aを使用して中間セクションを表示し、カスタム標準スタイル634aaを使用して右セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示する。特に、図7Kでは、コンピュータシステム600は、標準スタイル634aが、(例えば、コンピュータシステム600が、図7Iにおいて使用して中間セクションを以前に表示した)利用可能なメディア処理スタイルのセット内のカスタム標準スタイル634aaの後に配置されているため、標準スタイル634aを使用して中間セクションを表示する。同様に、コンピュータシステム600は、鮮やかなスタイル634bが利用可能なメディア処理スタイルのセットにおいて標準スタイル634aの後に配置されるので、鮮やかなスタイル634bを使用して右セクションを表示する。したがって、図7I及び7Kでは、カスタムメディア処理スタイル上で入力を検出して、利用可能なメディア処理スタイルのセット内の他のメディア処理スタイルを使用してライブプレビュー630の一部を表示することができる。図7Kに示すように、移動入力750jを検出したことに応じて、コンピュータシステム600は、図7Jのカスタム標準スタイル識別子636aaを標準スタイル識別子636aaで置き換える。更に、移動入力750jを検出したことに応じて、コンピュータシステム600は、現在のトーン値626b1bが標準スタイル634aのデフォルト値(例えば、「0」)に設定され、現在のトーン暖かさ626b2bが標準スタイル634aのデフォルト値(例えば、「0」)に設定されるように(例えば、カスタム標準スタイル634aaのそれぞれの現在値を表示することを中止するように)、標準スタイルコントロール626aを更新する。図7Kでは、コンピュータシステム600はまた、標準スタイル634aの現在値(例えば、現在のトーン値626b1b及び現在の暖かさ値626b2bが「0」である)が表示される(例えば、標準スタイル634aのデフォルト値が表示される)ため、リセットコントロール722を表示することを中止する。いくつかの実施形態では、右方向の移動入力を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaを使用して中間セクションを再表示する。図7Kでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750kの一部を検出する。
図7Lに示すように、(例えば、標準スタイル634aが選択されている間、及び/又は標準スタイル634aを使用して中間セクションが表示されている間に)図7Kにおいて移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述したような1つ以上の技術を使用して)トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。図7Lでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の左方向の移動入力750kの別の部分を検出する。
図7Mに示すように、図7Lにおいて移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Cに関連して上述した1つ以上の技術を使用して)(例えば、図7Lにおいて検出された移動入力750kの大きさに基づいて)トーン値範囲インジケータ626a1cの目盛りを左に移動させ、現在のトーン値626a1bを「0」(例えば、図7L)から「50」(例えば、図7M)に更新する。現在のトーン値626a1bを更新することに加えて、コンピュータシステム600は、標準スタイル識別子636aをカスタム標準スタイル識別子636aaで置き換え、カスタム標準ページングドット638aaを選択されているものとして表示し、標準ページングドット638aを選択されていないものとして表示する。特に、図7Mでは、コンピュータシステム600は、カスタム標準スタイル634aaのトーンパラメータの現在値を更新し、標準スタイル634aのトーンパラメータの現在値を更新しない。したがって、図7Mでは、コンピュータシステム600は、標準スタイル634aがどのように定義されるかを変更しない(及び/又は標準スタイル634aの現在値を変更する)。図7Mでは、図7Lにおける移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaを使用して中間セクションを表示する。図7Cのカスタム標準スタイル634aaは、(例えば、図7Mの現在のトーン値626a1bが、図7Jに示される現在のトーン値626a1bの以前の値よりも低いため)減少した量のトーンを有する。例示のみを目的として、図7Mのカスタム標準スタイル634aaの線(例えば、十字)は、カスタム標準スタイル634aaの1つ以上のパラメータが変化したことを示すために、図7Jのカスタム標準スタイル634aaの線(例えば、点線)とは異なる。
図7Mに示すように、図7Lにおける移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、図7Mにおけるトーンパラメータの現在値(例えば、「50」)に基づいて、メディア処理スタイルインジケータ602bの外観を更新する。したがって、図6Lに関連して上述したようなもう1つの技術を使用して、メディア処理スタイルインジケータ602bの周囲の線は、メディア処理スタイルインジケータ602bの周囲の約半分になるように更新される。図7Mに示すように、カスタム標準スタイル識別子636aaは、図7Dのカスタム標準スタイル識別子636aaに関連して上述したのと同様の理由で、単語「リッチなコントラスト」を含む。図7Dと図7Mとを比較すると、コンピュータシステム600は、図7Dのトーンパラメータの現在値が図7Mのトーンパラメータの現在値よりも高かったが、同じ単語(「リッチなコントラスト」)を有するカスタム標準スタイル識別子636aaを表示する。いくつかの実施形態では、コンピュータシステム600は、(例えば、図7Dのトーンパラメータの現在値の現在値が図7Mのトーンパラメータの現在値より高い、及び/又は図7Dのトーンパラメータの現在値の現在値が、ある量(例えば、「75」)を超えるトーンパラメータのデフォルト値より高いため)「リッチ」の代わりに単語「よりリッチ」を含む図7Mのカスタム標準スタイル識別子636aaを表示する。いくつかの実施形態では、コンピュータシステム600は、トーンパラメータの現在値がデフォルト値未満であるとき、単語「ソフト」及び/又は「よりソフト」と共にカスタム標準スタイル識別子636aaを表示する。図7Mでは、コンピュータシステム600は、トーン値範囲インジケータ626a1a上の移動入力750kの終了を検出する。
図7Nに示すように、移動入力750kの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を縮小し、暖かさパラメータコントロール626a2を再表示する。ここで、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、(例えば、移動入力750kを検出したことに応じて、カスタム標準スタイル634aaが選択され、及び/又はカスタム標準スタイル634aaを使用して中間セクションが表示されたため)カスタム標準スタイル634aaについてのトーンパラメータ及び暖かさパラメータの現在値を示す(例えば、現在のトーン値626a1bが「50」であり、現在の暖かさ値626a2bが「0」である)。図7Nでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750nを検出する。
図7Oに示すように、図7Nにおいて移動入力750nを検出したことに応じて(例えば、カスタム標準スタイル634aaが選択されている間、及び/又はカスタム標準スタイル634aaを使用して中間セクションが表示されている間)、コンピュータシステム600は、(例えば、図7Bに関連して上述したような1つ以上の技術を使用して)トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。図7Oでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の右方向の移動入力750nの別の部分を検出する。
図7Pに示すように、図7Oで移動入力750nの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Cに関連して上述したような1つ以上の技術を使用して)(例えば、図7Oで検出された移動入力750oの大きさに基づいて)トーン値範囲インジケータ626a1cの目盛りを右に移動させ、現在のトーン値626a1bを「50」(例えば、図7O)から「0」(例えば、図7P)に更新する。トーン値626a1bを更新することに加えて、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除する。現在のトーン値626a1b及び現在の暖かさ値626a2bの両方が標準メディア処理スタイルについてのそれぞれのデフォルト値に設定されていたので、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除する。更に、カスタム標準スタイル634aaが利用可能なメディア処理スタイルのセットから削除されているので、コンピュータシステム600は、カスタム標準スタイル識別子636aaを標準スタイル識別子636aで置き換え、カスタム標準ページングドット638aaをページングドット638から削除する。したがって、標準スタイル識別子636aを表示している間、コンピュータシステム600は、標準スタイル634aを使用して中間セクションを表示する。したがって、コンピュータシステム600は、個別のメディア処理スタイルのためのカスタムメディア処理が、メディア処理スタイルの利用可能なセット内のメディア処理スタイルのうちの1つ以上のためのデフォルト値にリセットされる(例えば、及び/又はもはや異なっていない)とき、カスタムメディア処理スタイルを削除することができる。いくつかの実施形態では、図7Oにおける移動入力750oの部分を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaのトーンパラメータを更新し、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除しない。図7Pでは、コンピュータシステム600は、トーン値範囲インジケータ626a1a上の移動入力750nの終了を検出する。
図7Qに示すように、移動入力750nの終了を検出したことに応じて、コンピュータシステム600は、(例えば、図7A及び7Cに関連して上述した1つ以上の技術を使用して)トーンパラメータコントロール626a1を縮小し、暖かさパラメータコントロール626a2を再表示する。図7Qでは、コンピュータシステム600は、ライブプレビュー630上の移動入力750qを検出する。
図7Rに示すように、移動入力750qを検出したことに応じて、コンピュータシステム600は、(例えば、図6E~図6Iの移動入力650dの検出に関連して上述した1つ以上の技術を使用して)メディア処理スタイルの利用可能なセットを左に変換し、ヴィンテージスタイル634dを使用して中間セクションを表示し、高級スタイル634cを使用して左セクションを表示する。ヴィンテージスタイル634dが利用可能なメディア処理スタイルのセット内の最後のメディア処理スタイル(例えば、右の最後)であるため、コンピュータシステム600は、メディア処理スタイルを使用せずに右セクションを表示する。図7Rに示されるように、移動入力7501を検出したことに応じて、コンピュータシステム600は、図6Qの標準スタイル識別子636aをヴィンテージスタイル識別子636dに置き換える。更に、移動入力750jを検出したことに応じて、コンピュータシステム600は、標準スタイルコントロール626aをヴィンテージスタイルコントロール626dに置き換える。ヴィンテージスタイルコントロール626dは、トーンパラメータコントロール626d1及び暖かさパラメータコントロール626d2を含み、現在のトーン値626d1b(例えば、「10」)及び現在の暖かさ値626d2b(例えば、「50」)は、ヴィンテージスタイル634dの個別のパラメータのデフォルト値である(例えば、利用可能なメディア処理スタイルのセットにおける他のメディア処理スタイルのデフォルト値とは異なる)。図7Rでは、コンピュータシステム600は、暖かさパラメータコントロール626d2上のタップ入力750rを検出する。
図7Sに示すように、タップ入力750rを検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述した1つ以上の同様の技術を使用して)暖かさパラメータコントロール626d2を拡張し、トーンパラメータコントロール626d1を表示することを中止する。図7Sにおいてコントロール628を表示している間、コンピュータシステム600は、コントロール628上のタップ入力750sを検出する。図7Tに示すように、タップ入力750sを検出したことに応じて、コンピュータシステムは、(例えば、図7Dに関連して上述した1つ以上の技術を使用して)暖かさパラメータコントロール626d2を縮小し、トーンパラメータコントロール626d1を再表示する。図7Tでは、コンピュータシステム600は、暖かさパラメータコントロール626d2上の移動入力750tの一部を検出する。
図7Uに示すように、図7Tにおいて移動入力750tの一部を検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述した1つ以上の同様の技術を使用して)暖かさパラメータコントロール626d2を拡張し、トーンパラメータコントロール626d1の表示を中止する。図7Uでは、コンピュータシステム600は、暖かさ値範囲インジケータ626d2c上の左方向の移動入力750tの別の部分を検出する。
図7Vに示すように、図7Uにおいて移動入力750tの部分を検出したことに応じて、コンピュータシステム600は、暖かさ値範囲インジケータ626d2cの目盛りを左に移動させ、現在の暖かさ値626d2bを「50」(例えば、図7U)から「62」(例えば、図7V)に更新する。現在のトーン値626d1bを更新することに加えて、コンピュータシステム600は、ヴィンテージスタイル識別子636dをカスタムヴィンテージスタイル識別子636ddで置き換え、ページングドット638内のヴィンテージページングドット638dの左にカスタムヴィンテージページングドット638ddを追加する。言い換えれば、図7Vにおいて、コンピュータシステム600は、現在のトーン値626d1bをデフォルト値(「50」)から修正値(例えば、「62」)に更新することに応じて、ヴィンテージスタイル634dのカスタムバージョンを利用可能なスタイルのセットに追加する。したがって、図7Vでは、コンピュータシステム600は、(例えば、図7Xに示されるように)ヴィンテージスタイル634dのトーンパラメータのデフォルト値を更新せず、代わりに、更新値を有するヴィンテージスタイル634dの修正バージョンを作成する。したがって、いくつかの実施形態では、ユーザは、後でヴィンテージスタイル634dの修正バージョン(例えば、カスタムヴィンテージスタイル634dd)にアクセスすることができる。
図7Vに示すように、図7Uで移動入力750tの部分を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の中間セクションを更新し、図7Uのヴィンテージスタイル634dを使用する代わりに図7Vのカスタムヴィンテージスタイル634ddを使用して中間セクションが表示されるようにする。コンピュータシステム600は、ヴィンテージメディア処理スタイルの暖かさパラメータの値の変化を反映するために、ヴィンテージスタイル634dの暖かさ(例えば、「50」)よりも増加した暖かさの量(例えば、62)を有する図7Vのカスタムヴィンテージスタイル634ddを表示することを理解されたい。例示のみを目的として、(例えば、図7Vにおける)カスタムヴィンテージスタイル634ddは、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dの修正バージョンであることを示すために、(例えば、図7Uにおける)ヴィンテージスタイル634dと同じパターン(例えば、垂直線)で示される。しかしながら、カスタムヴィンテージスタイル634ddの線は、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dと異なることを示すために、図7Uのヴィンテージスタイル634dの線のように実線ではなく点線で示されている。特に、図7Vでは、カスタムヴィンテージスタイル識別子636dd(例えば、入力が検出された場合には634dd)は、ヴィンテージスタイル識別子636d(例えば、634d)の左側に表示され、標準スタイル識別子636a(又は入力が検出された場合には634a)の左側には表示されない(例えば、ページングドット638によって示される)。これは、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dの修正バージョンであり、標準スタイル634aではないためである。したがって、いくつかの実施形態では、コンピュータシステム600は、カスタムの個別のメディア処理スタイルを、個別のメディア処理スタイルの非カスタム(及び/又は修正されていない)バージョンと一緒にグループ化する。
更に、コンピュータシステム600が、ヴィンテージスタイル634dの暖かさ(例えば、「50」)よりも増加した暖かさの量(例えば、62)で図7Vのカスタムヴィンテージスタイル634ddを表示する、及び/又は図7Vの暖かさパラメータの現在値がヴィンテージスタイル634dの暖かさパラメータのデフォルト値よりも大きいため、カスタムヴィンテージスタイル識別子636ddは単語「暖かい」を含む。加えて、コンピュータシステム600は、移動入力750tの部分の移動特性に基づいて(例えば、図6L及び図7Cに関連して上述した1つ以上の同様の技術を使用して)、メディア処理スタイルインジケータ602bの色の濃い灰色の量を増加させることによって、メディア処理スタイルインジケータ602bの外観を更新する。図7Vでは、コンピュータシステム600は、暖かさ値範囲インジケータ626d2a上の移動入力750tの終了を検出する。
図7Wに示すように、移動入力750uの終了を検出したことに応じて、コンピュータシステム600は、(例えば、図7Gに関連して上述した1つ以上の技術を使用して)暖かさパラメータコントロール626d2を再表示し、暖かさパラメータコントロール626d2を縮小する。移動入力750uの終了を検出したことに応じて、コンピュータシステム600は、リセットコントロール722も表示する。図7Wでは、コンピュータシステム600は、リセットコントロール722上の入力750wを検出する。
図7W1に示されるように、タップ入力750wを検出したことに応じて、コンピュータシステム600は、単語「ヴィンテージにリセット」を含むプロンプト768を表示する。ここで、プロンプト768は、現在表示されているスタイルが(例えば、入力を介して)リセットされ得る前に確認が提供される必要があることを示すために、単語「ヴィンテージにリセット」を含む。ここで、「ヴィンテージ」という単語は、ライブプレビュー630に適用されるメディア処理スタイル、及び/又はコンピュータシステム600が確認入力を検出したことに応じて現在適用されているメディア処理スタイルが設定されるメディア処理スタイルを示す。図7W1では、コンピュータシステム600は、リセットコントロール722上の入力750w1を検出する。いくつかの実施形態では、コンピュータシステム600は、リセットコントロール722の代わりにプロンプト768上のタップ入力750w1を検出し、プロンプト768上のタップ入力750w1を検出したことに応じて、リセットコントロール722上のタップ入力750w1の検出に関して以下で説明する機能を実行する。
図7Xに示されるように、図7Wにおけるタップ入力750w又は図7W1におけるタップ入力750w1を検出したことに応じて、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタムヴィンテージスタイル634ddを削除する。更に、コンピュータシステム600は、カスタムヴィンテージスタイル634ddは利用可能なメディア処理スタイルのセットから削除されているため、カスタムヴィンテージスタイル識別子636ddをヴィンテージスタイル識別子636dで置き換え、ページングドット638からカスタムヴィンテージページングドット638ddを削除する。したがって、ヴィンテージスタイル識別子636dを表示している間、コンピュータシステム600は、ヴィンテージスタイル634dを使用して中間セクションを表示する。したがって、コンピュータシステム600は、個別のメディア処理スタイルのためのカスタムメディア処理が、メディア処理スタイルの利用可能なセット内のメディア処理スタイルのうちの1つ以上のためのデフォルト値にリセットされる(例えば、及び/又はもはや異なっていない)とき、カスタムメディア処理スタイルを削除することができる。いくつかの実施形態では、図7Wにおけるタップ入力750w又は図7W1におけるタップ入力750w1を検出したことに応じて、コンピュータシステム600は、カスタムヴィンテージメディア処理スタイルのパラメータをリセットし、利用可能なメディア処理スタイルのセットからカスタムヴィンテージメディア処理スタイルを削除しない。
図7A~図7Xに示すように、コンピュータシステム600は、1つ以上のパラメータの1つ以上の現在値に基づく単語(及び/又は記号及び/又は数字)を使用してカスタムスタイル識別子(例えば、カスタム標準スタイル識別子634aa及び/又はカスタムヴィンテージスタイル識別子636dd)を表示する。いくつかの実施形態では、トーンパラメータの現在値が中央値及び/又はデフォルト値(例えば、「0」)(例えば、及び/又は中央値及び/又はデフォルト値を含む値の範囲)を上回るとき、カスタムスタイル識別子は、「リッチ」などの第1の単語を含むことができる。いくつかの実施形態では、トーンパラメータの現在値が中央値を下回るとき、カスタムスタイル識別子は、第1の単語とは異なる(例えば、第1の単語と反対の、及び/又は第1の単語の反対語である)「ソフト」などの第2の単語を含むことができる。いくつかの実施形態では、暖かさパラメータの現在値が中央値(例えば、「0」)を上回るとき、カスタムスタイル識別子は、単語「暖かい」などの第3の単語(例えば、第1の単語及び第2の単語とは異なる)を含むことができる。いくつかの実施形態では、暖かさパラメータの現在値が中央値(例えば、「0」)を下回るとき、カスタムスタイル識別子は、単語「冷たい」などの第4の単語(例えば、第1の単語、第2の単語、及び第3の単語とは異なる)を含むことができる。いくつかの実施形態では、第3の単語は、第4の単語の反対及び/又は反意語である。したがって、いくつかの実施形態では、カスタムスタイル識別子は、「リッチ-暖かい」、「リッチ-冷たい」、「ソフト-暖かい」、又は「ソフト-冷たい」などの複数のパラメータの現在値を示す単語の組み合わせであってもよい。いくつかの実施形態では、両方のパラメータの現在値が中央値に設定されるとき、カスタムスタイル識別子は、「標準」などの単語を含むことができる。いくつかの実施形態では、パラメータのうちの1つの現在値が中央値に設定され、別のパラメータの現在値が中央値に設定されないとき、カスタムスタイル識別子は、現在中央値に設定されていないパラメータを示す単語を含むが、現在中央値に設定されているパラメータを示す単語を含まず、例えば、トーンパラメータが現在中央値に設定されておらず、暖かさパラメータが中央値に設定されている場合には「リッチ」又は「ソフト」であり、暖かさパラメータが現在中央値に設定されておらず、トーンパラメータが中央値に設定されている場合には「暖かさ」又は「冷たい」である。いくつかの実施形態では、カスタムスタイル識別子は、1つ以上の他のパラメータ(例えば、第3のパラメータ、第4のパラメータ、第5のパラメータなど)についての1つ以上の単語を含むことができる。したがって、メディア処理スタイルについての第3のパラメータ(又は第4のパラメータ若しくは第5のパラメータ)があるとき、カスタムスタイル識別子は、輝度パラメータについての「明るい」(例えば、中央値を上回る)又は「鈍い」(例えば、中央値を下回る)など、第3のパラメータが中央値を上回る/下回るかどうかに基づいて、(第1のパラメータ及び/又は第2のパラメータ(並びに第3のパラメータ及び/又は第4のパラメータ)についての単語と共に)第3のパラメータの現在値に基づく異なる単語を含むことができる。いくつかの実施形態では、カスタムスタイル識別子は、「80」のデフォルトトーン値及び「0」のデフォルト暖かさ値を有する「鮮やかな」(例えば、図6Hの鮮やかなスタイル634bに関連して上述したように)(例えば、上述した「高級」及び/又は「ヴィンテージ」のパラメータの特定のデフォルト値と同じ)などの、トーンパラメータの特定の値及び暖かさパラメータの特定の値を有するメディア処理スタイルを識別する単語を含むことができる。いくつかの実施形態では、カスタムスタイル識別子は、パラメータの現在値が特定のメディア処理スタイルのデフォルト値より上/下であるかどうかに基づいて、パラメータ値の現在値が「0」より下であるときの「鮮やかな-冷たい」、暖かさパラメータの現在値が「0」より上であるときの「鮮やかな-暖かい」、トーンパラメータの現在値が「80」より下であるときの「鮮やかな-ソフト」、トーンパラメータの現在値が「80」より上であるときの「鮮やかな-リッチ」、又はそれらの組み合わせ(例えば、「鮮やかな-ソフト-リッチ」、「鮮やかな-ソフト-暖かい」、「鮮やかな-リッチ-暖かい」、又は「鮮やかな-リッチ-冷たい」)などの1つ以上の追加の単語を含むことができる。いくつかの実施形態では、他のメディア処理スタイルのカスタム識別子(例えば、図6Mの高級634c及び/又は図7Uのヴィンテージ634d)は、鮮やかなスタイル634bに関連して上述したものと同じパラダイムを使用することができる。更に、上記の特定のパラメータの現在値を説明するために使用される語は、単に例示的なものであり、1つ以上の他の語が、上記で論じられた語(例えば、「暖かい」、「冷たい」、「ソフト」、「リッチ」、「鈍い」、「明るい」、「標準」、「高級」、「鮮やか」、及び/又は「ヴィンテージ」)の代わりに使用され得る。
図8A~図8Cは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図8Aは、設定844を含む設定ユーザインタフェースを表示するコンピュータシステム600を示す。設定844は、メディア処理スタイル設定844aを含む。図8Aでは、コンピュータシステム600は、メディア処理スタイル設定844a上のタップ入力850aを検出する。図8Bに示されるように、タップ入力850aを検出したことに応じて、コンピュータシステム600は、標準スタイル878aの表現及び鮮やかなスタイル878bの表現を含むメディア処理スタイルユーザインタフェース810を表示する。標準スタイル878aの表現はサンプル画像(例えば、ストック画像)であり、鮮やかなスタイル878bの表現はサンプル画像である。それぞれのスタイルに対する個別のサンプル画像は、適用される個別の個々のメディア処理スタイルを有する。図8Bに示すように、ページングドット638は、利用可能なスタイルのセット内に4つの利用可能なスタイルがあることを示し、これらは、上述した標準スタイル634a(例えば、標準ページングドット638aに対応する)、鮮やかなスタイル634b(例えば、鮮やかなページングドット638bに対応する)、高級スタイル634c(例えば、高級ページングドット638cに対応する)、及びヴィンテージスタイル634d(例えば、ヴィンテージページングドット638dに対応する)である。いくつかの実施形態では、カスタムメディア処理スタイルがメディア処理スタイルの利用可能なセットに追加されている間にユーザインタフェース810が表示されるとき、コンピュータシステム600は、カスタムメディア処理スタイルについてのページングドット及び/又は表現を表示する。
図8Bに示すように、ユーザインタフェース810は、標準スタイル878a及び選択コントロール816aの表現に対応するメディア処理スタイル(例えば、上述した標準スタイル634a)のパラメータのデフォルト値を含む領域814aを含む。いくつかの実施形態では、選択コントロール816a上の入力を検出したことに応じて、コンピュータシステム600は、現在選択されているメディア処理スタイルとして標準スタイル634aを(例えば、図8Cに関連して以下1つ以上の技術を使用して)設定する。図8Bでは、コンピュータシステム600は、移動入力850bを検出する。
図8Cに示すように、移動入力850bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルの表現を左に移動させ、標準スタイル878aの表現の一部と高級スタイル878cの表現の一部との間に、鮮やかなスタイル878bの表現を表示する。鮮やかなスタイル878aの表現がディスプレイ上の所定ポジションにあるので、コンピュータシステム600は、(例えば、上述したように)領域814aを、鮮やかなスタイル634bのパラメータのデフォルト値を含む814bで置き換える。図8Cでは、コンピュータシステムは、選択コントロール816b上のタップ入力850cを検出する。いくつかの実施形態では、タップ入力850cを検出したことに応じて、コンピュータシステムは、鮮やかなスタイル634bを現在選択されているメディア処理スタイルとして設定する。いくつかの実施形態では、鮮やかなスタイル634bが現在選択されているメディア処理スタイルであるが、コンピュータシステム600は、鮮やかなスタイル634bをデフォルトメディア処理スタイルとして使用して、以前にキャプチャされたメディアの表現を表示し、FOVの表現(例えば、ライブプレビュー630)を表示し、及び/又は将来メディアをキャプチャする。いくつかの実施形態では、鮮やかなスタイル634bが現在選択されているメディア処理スタイルである間に、コンピュータシステム600は、カメラユーザインタフェースを再表示する要求を検出し、要求を検出したことに応じて、コンピュータシステム600は、現在選択されているメディア処理スタイル(例えば、鮮やかなスタイル634b)を使用してカメラユーザインタフェース内にライブプレビュー630を表示する。いくつかの実施形態では、現在選択されているメディア処理スタイルを使用してライブプレビュー630を表示している間、コンピュータシステム600は、メディアをキャプチャし、ユーザインタフェース810を介して(例えば、タップ入力850cなどの入力を用いて)選択された現在選択されているメディア処理スタイルを使用してメディアを表示する。
図9は、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。方法900は、表示生成構成要素(例えば、ディスプレイコントローラ及び/又はタッチ感知ディスプレイシステム)、及び1つ以上の入力デバイス(例えば、タッチ感知面及び/又は1つ以上のカメラの第1のカメラ(例えば、コンピュータシステムの同じ側又は異なる側の1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クワッドカメラなど)(例えば、フロントカメラ及び/又はバックカメラ)、コンピュータシステム)と通信するコンピュータシステム(例えば、100、300、500、600)(例えば、スマートフォン、デスクトップコンピュータ、ラップトップ、及び/又はタブレット)において実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法900は、コンピュータシステムを使用してメディア処理スタイルを選択するための直感的な方法を提供する。この方法は、コンピュータシステムを使用してメディア処理スタイルを選択するユーザの認識的負担を低減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、ユーザがコンピュータシステムを使用してメディア処理スタイルを、より速く、より効率的に選択することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
コンピュータシステムは、表示生成構成要素を介して、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、画像)を含むスタイル選択ユーザインタフェース)(例えば、メディアキャプチャユーザインタフェース、メディア閲覧ユーザインタフェース、及び/又はメディア編集ユーザインタフェース)(例えば、写真メディア及び/又はビデオメディア)(例えば、ライブメディア、ライブプレビュー(例えば、メディアをキャプチャする要求を検出したこと(例えば、シャッターアフォーダンス(例えば、ユーザインタフェースオブジェクト)の選択を検出したこと)に応じて記憶/キャプチャされていない1つ以上のカメラの視野(例えば、現在の視野)の表現に対応するメディア))、以前にキャプチャされたメディア(例えば、キャプチャされた1つ以上のカメラの視野(例えば、以前の視野)の表現に対応するメディア)、保存されており、後でユーザによってアクセス可能であるメディアアイテム、及び/又は、メディアの(例えば、メディアギャラリー内の)メディアのサムネイル表現上のジェスチャを受信したことに応じて表示されたメディアの表現(例えば、キャプチャされている、又はコンピュータシステムの1つ以上のカメラによってキャプチャされた情報、データ(コンピュータシステムの1つ以上のカメラの視野の表現である))を表示し(902)、表現(630、676a、676b、676c、680c、及び/又は680d)の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現(630、676a、676b、676c、680c、及び/又は680d)の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、(例えば、カメラモードで動作している間)、第1メディア処理スタイル(例えば、634a-634d、634aa、及び/又は634dd)を使用して(例えば、それに従って、それと共に)表示される。いくつかの実施形態では、第1のメディア処理スタイルは(例えば、第2のメディア処理スタイル及び第3のメディア処理スタイルを含む)複数のメディア処理スタイルのうちの1つである。いくつかの実施形態では、各複数のスタイルは、同じセットのパラメータ(例えば、同じタイプのパラメータ)を有するが、1つ以上のパラメータに対して異なる値を有する。いくつかの実施形態では、パラメータのセットは、メディアの視覚的コンテンツに適用される(例えば、メディアの表現の表示に影響を与える(例えば、表示されるメディアの表現の1つ以上の特性(例えば、色特性、奥行き特性)を変化させる)メディアの外観(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)を決定するために使用されるメディア処理パラメータのセットである(例えば、メディアの視覚的コンテンツに適用される第2のスタイルを使用することなく表示する)。いくつかの実施形態では、第1の部分及び第2の部分は重複しない、及び/又は第1の部分は第2の部分のサブセットを取り囲まない、及び/又は第2の部分は第1の部分のサブセットを取り囲まない。いくつかの実施形態では、第1の部分と第2の部分とは異なる。いくつかの実施形態では、メディア処理スタイルはまた、メディアキャプチャ(例えば、カメラ)アプリケーションにある間にキャプチャされたメディアのキャプチャに影響を及ぼす。
表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクションの一部、及び/又は左セクション、右セクション)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクションの一部、及び/又は左セクション、右セクション)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、コンピュータシステムは、1つ以上の入力デバイスを介して、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ))を検出する(904)(及び/又はいくつかの実施形態では、非移動入力/ジェスチャ、タップ入力/ジェスチャ(例えば、シングルタップ入力/ジェスチャ、ダブルタップ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャを検出する)。
表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力を検出したことに応じて(及び、いくつかの実施形態では、入力の検出を継続している間に(及びメディアの表現の表示を継続している間に)入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向(例えば、右、左、上、下、及び/又は斜め)であるという判定に従って)(及び、コンピュータシステムがメディア処理スタイル選択モード(例えば、1つ以上のメディア処理スタイルがユーザによって選択された後に、1つ以上のメディア処理スタイルをコンピュータシステムによってキャプチャされたメディアに適用するようにユーザがコンピュータシステムに命令することを可能にするモード)で動作しているという判定に従って)、コンピュータシステムは、表示生成構成要素を介して、(例えば、メディアの表現の表示に影響を及ぼす、メディアの視覚的コンテンツに適用される)第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)を、(例えば、第1のメディア処理スタイル及び/又は(例えば、第1のメディア処理スタイルと異なる)第3のメディア処理スタイルを使用して表現の第1の部分を表示することなく)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分(例えば、630、676a、676b、676c、680c、及び又は680d)の中間セクション、左セクション、及び/又は右セクションの一部)を表示し続けている間(例えば、第2のメディア処理スタイル及び/又は第3のメディア処理スタイルを使用して表現の第2の部分を表示することなく)(例えば、第3のメディア処理スタイルに対応する視覚的要素を表示することなく)表示する(906)。いくつかの実施形態では、入力は、第1の方向の動きの成分を含む。いくつかの実施形態では、入力は、第2のメディア処理スタイルに対応するスタイル選択ユーザインタフェース上のロケーションで検出されず、及び/又は入力は、第1のメディア処理スタイルに対応するスタイル選択ユーザインタフェース上のロケーションで検出されない。いくつかの実施形態では、入力は、第2のメディア処理スタイル及び/又は第1のメディア処理スタイルの縁部及び/又は境界に対応するスタイル選択ユーザインタフェース上のロケーションで検出されない。いくつかの実施形態では、入力は、第1のメディア処理スタイル及び/又は第2のメディア処理スタイルの中心ロケーション(例えば、非境界/縁部)に対応するスタイル選択ユーザインタフェース上のロケーションで検出される。
第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、表示生成構成要素を介して、第2のメディア処理を使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分を検出したことに応じて(入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分は第1の入力大きさ(例えば、入力の開始から第1の方向の第1の移動量)を有する)、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)と、表現の第1の部分と表現の第2の部分との間にある第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)とが第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第2のメディア処理スタイルを使用することなく)表示されている間、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第1のメディア処理スタイルを使用することなく)表現の第1の部分を表示する(908)。
表示の一部として、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続ける間、第2のメディア処理を使用して表現の第1の部分を表示する一部として、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分を表示した後、
表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中央セクション、左セクション、及び/又は右セクションの部分)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中央セクション、左セクション、及び/又は右セクションの部分)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、表現に向けられた入力の第2の部分(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(入力の第2の部分は第1の入力の大きさよりも大きい第2の入力の大きさ(例えば、入力の開始から第1の方向への第2の移動量)を有する)、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を用いて表示されている間、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)と、表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)とを第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示する(910)。いくつかの実施形態では、表現の第1の部分、表現の第2の部分、及び表現の第3の部分は重複しない。表現に向けられた入力の一部の大きさに基づいて、個別のメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが、個別のメディア処理スタイルを使用して表示される表現の部分を制御することを可能にし、個別のメディア処理スタイルが、キャプチャされ得る表現の部分のメディア表現にどのように影響するかに関する視覚的フィードバックを提供し、これは、視覚的フィードバックを改善する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、750q)(第1の部分及び第2の部分を含む)を検出する前に、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、第2のメディア処理スタイルを使用して表示されない。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)とは異なる。表現に向けられた入力の一部の大きさに基づいて、異なるそれぞれのメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが、異なる個別のメディア処理スタイルを使用して表示される表現のどの部分を制御することを可能にし、異なるそれぞれのメディア処理スタイルが、異なってキャプチャされ得る表現の部分のメディア表現にどのように影響するかに関する視覚的フィードバックを提供し、これは、視覚的フィードバックを改善する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分を検出したことに応じて、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されない。いくつかの実施形態では、入力の第2の部分を検出したことに応じて、表現の第1の部分及び表現の第3の部分は、第1のメディア処理スタイルを使用して表示されない。
いくつかの実施形態では、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(及び/又は第1のメディア処理スタイル)が適用される表現(例えば、630、676a、676b、676c、680c、及び/又は680d)の量は、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の移動(例えば、速度、加速度、及び/又は変位(例えば、2つの点(例えば、入力の開始点、入力の終了点)間の距離))(及び、いくつかの実施形態では、方向)の量に基づく(例えば、比例する)。表現に向けられた入力の移動量に基づいて第2のメディア処理スタイルが適用される表現の量を表示することにより、ユーザは、入力の移動量によって個別のメディア処理スタイルが適用される表現の量を制御することができ、これにより、ユーザインタフェースを雑然とさせることなく追加の制御オプションが提供される。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、図6Hの650d)の終了を検出したことに応じて(例えば、表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間に)(かつ入力が第1の方向であるという判定に従って)コンピュータシステムは、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)の所定の部分(例えば、25%、30%、40%、50%、60%、75%)より多くの部分が、表現に向けられた入力(例えば、650d)の終了が検出されるとき(例えば、同時に、直前に、及び/又は直後に)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、図6Hの634b)を使用して表示されたという判定に従って(例えば、第2のメディア処理スタイルが、表現に向けられた入力の終了が検出される前に、表現の特定の部分に適用されていた(及び/又は第1のメディア処理スタイルが適用されていなかった)という判定に従って)、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634b)を使用して表現の第1の部分(例えば、中間セクション)(及び、任意選択的に、表現の第2の部分)を(例えば、第2のメディア処理スタイルを使用して表現の第1の部分、第2の部分、及び/又は別の部分を表示することなく)表示する(例えば、入力の終了を検出した後、突然及び/又は即座に表示するようにスナップする)。いくつかの実施形態では、表現の所定の部分は、別のメディア処理スタイルを使用して表示される表現の任意の他の部分よりも、1つの個別のメディア処理スタイルを使用して表示される(例えば、現在表示されている)表現のより大きな部分である。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、図6Hの650d)の終了を検出したことに応じて(例えば、表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間に)(かつ入力が第1の方向であるという判定に従って)、コンピュータシステムは、表現に向けられた入力(例えば、650d)の終了が検出されたとき(例えば、同時に、直前に、又は直後に)に、表現(例えば、630)の所定の部分よりも少ない部分が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されたという判定に従って(例えば、及び/又は第2のメディア処理スタイル(及び/又は第1のメディア処理スタイル)が、表現に向けられた入力の終了が検出される前に、表現の特定の部分に適用されていなかったという判定に従って)表現(例えば、630)の第1の部分(例えば、中間セクション)(及び、任意選択的に表現の第2の部分)を第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、図6Iの634aに関連して上述したように)(例えば、第1のメディア処理スタイルを使用して表現の第1の部分、第2の部分、及び/又は別の部分を表示することなく)表示する(例えば、入力の終了の検出後、急に及び/又は即時に表示するようにスナップする)。所定の条件が満たされたときに特定のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を自動的に表示することは、コンピュータシステムが、メディアの表現に適用される1つ以上のメディア処理スタイルを自動的に選択することを可能にし、表現に向けられた入力の終了を検出したことに応じて、どのメディア処理スタイルがメディアの表現に適用されるように選択されたかに関する視覚的フィードバックをユーザに提供し、これは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、650k2)を検出したことに応じて、入力が第1の方向とは異なる(例えば、反対の)第2の方向(例えば、右、左、上、下、及び/又は斜めの方向)(例えば、第1の方向の反対方向)であるという判定に従って、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634b)(第2のメディア処理スタイル及び/又は第3のメディア処理スタイルを使用して表現の第1の部分を表示することなく)を使用して表現の第1の部分を表示し続けている間、(例えば、第1のメディア処理スタイル及び/又は第2のメディア処理スタイルを使用して表現の第3の部分を表示することなく)(例えば、第2のメディア処理スタイルに対応する視覚的要素(例えば、スタイルの縁部やフレームの縁部を表す、及び/又はそのように見える視覚的要素)を表示することなく)(第2のメディア処理スタイルに対応する視覚的要素を表示することなく)(例えば、メディアの視覚的コンテンツに適用され、メディアの表現の表示に影響を与える)第3のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634a)を使用して表現の第2の部分を表示し、第3のメディア処理スタイルは、第1のメディア処理スタイル及び第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634c)とは異なる。いくつかの実施形態では、入力は、第2の方向の動きの成分を含む。いくつかの実施形態では、メディアの第1の部分及び第2の部分は、メディアの表現上のポジションを移動しない(例えば、同じロケーションに表示され続ける)。いくつかの実施形態では、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルは、同じパラメータのセット(例えば、(例えば、方法1000及び図7A~図7Xに関連して後述するような)同じタイプのパラメータ)を有する。いくつかの実施形態では、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルは、各個別のメディア処理スタイルのパラメータのセットの1つ以上の値が異なるので異なる。いくつかの実施形態では、表現に向けられた入力を検出する前に、第1の部分は、第1のメディア処理スタイルを使用して表示される第1のオブジェクトを含み、及び/又は第2の部分は、第1のメディア処理スタイルを使用して表示される第2のオブジェクトを含む。いくつかの実施形態では、表現に向けられた入力を検出したことに応じて、かつ入力を検出し続けている間、入力が第1の方向であるという判定に従って、第1のオブジェクトは、第2のメディア処理スタイルを使用して表示され、入力が第2の方向であるという判定に従って、第2のオブジェクトは、第3のメディア処理スタイル及び/又は第1のメディア処理スタイルを使用して表示される。いくつかの実施形態では、入力が検出される前に、第2のメディア処理スタイルに対応する視覚的要素及び第3のメディア処理スタイルに対応する視覚的要素が表示される。入力が第2の方向(例えば、第1の方向とは異なる)であるという判定に従って、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なる第3のメディア処理スタイルを使用して表現の第2の部分を表示することは、ユーザが、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される表現の部分を制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向にあるという判定に従って(例えば、表現に向けられた入力の終了(例えば、リフトオフ)が検出されたという判定に従って(又は表現に向けられた入力の終了を検出したことに応じて)、及び/又は表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間、コンピュータシステムは、第4のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する(表現に向けられた入力が検出される前に表示されていなかった)視覚的要素(例えば、660a、660b)(例えば、テキスト及び/又は記号などの指示)(例えば、ユーザインタフェースオブジェクトなどの視覚的要素(表現が第4のメディア処理スタイルを使用して表示され得ることを示す境界、形状の輪郭、及び/又は視覚的要素)(第5のメディア処理スタイルに対応する視覚的要素を表示することなく)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)を(例えば、表現の第1の部分及び表現の第2の部分を第2のメディア処理スタイルを使用して表示している間に)表示する。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェースのロケーション/領域(例えば、第1の方向とは反対の方向の右縁部及び/又は左縁部)に表示される。いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向とは異なる第3の方向(例えば、右、左、上、下、及び/又は斜め方向)(第1の方向の反対方向)であるという判定に従って(例えば、表現に向けられた入力の終了(例えば、リフトオフ)が検出されたという判定に従って((例えば、上述したように)例えば、及び/又は表現が第1のメディア処理スタイル及び第3のメディア処理スタイルを用いて表示されている間)、コンピュータシステムは、(例えば、表現に向けられた入力が検出される前に表示されていなかった)第5のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、テキスト及び/又は記号などの指示)に対応する視覚的要素(例えば、660a、660b)(例えば、ユーザインタフェースオブジェクトなどの視覚的要素(例えば、境界、形状の輪郭、及び/又は表現が第4のメディア処理スタイルを使用して表示され得る視覚的要素)(例えば、第4のメディア処理スタイルとは異なる、スタイルの縁部及び/又はフレームの縁部を表す、及び/又はそのように見える視覚的要素)を(例えば、第4のメディア処理スタイルに対応する視覚的要素を表示することなく)((例えば、上述したように)例えば、第3のメディア処理スタイルを用いて表現の第1の部分と表現の第2の部分を表示している間))を表示する。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェース上の第1のロケーション(例えば、メディアの表現の縁部)に表示され、第5のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェース上の第1のロケーションとは異なるスタイル選択ユーザインタフェース上の第2のロケーション(例えば、メディアの表現の縁部、第1のロケーションの反対側)に表示される。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素及び/又は第5のメディア処理スタイルに対応する視覚的要素は、第1のメディア処理スタイルに対応する視覚的要素と同時に表示される。いくつかの実施形態では、第5のメディア処理スタイルに対応する視覚的要素は、第5のメディア処理スタイルに対応する視覚的要素が表示されるスタイル選択ユーザインタフェースのロケーション/領域とは異なるスタイル選択ユーザインタフェースのロケーション/領域(例えば、第3の方向とは反対の方向の右縁部及び/又は左縁部)に表示される。表現に向けられた入力の方向に基づいて個別のスタイルに対応する視覚的要素を表示することは、表現に向けられた追加の入力を介して選択され得るスタイルに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に(及び、いくつかの実施形態では、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に)、スタイル選択ユーザインタフェースは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する視覚的要素(例えば、660a、660b)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)と、第6のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する視覚的要素(例えば、660a、660b)(例えば、第3のメディア処理スタイル(例えば、方法900に関連して上述したような)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)とを含む。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(例えば、入力の終了が検出されたという判定に従って、又は表現に向けられた入力が検出された前後に)、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向にあるという判定に従って、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現(例えば、表現の任意の部分)を表示することなく(例えば、第2のメディア処理スタイルをメディアの表現に適用することなく)、第2のメディア処理スタイルに対応した視覚的要素(例えば、660a、660b)を表示することを中止する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(例えば、入力の終了が検出されたという判定に従って、又は表現に向けられた入力が検出された前後に)、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向とは異なる第4の方向であるという判定に従って、コンピュータシステムは、(例えば、第6のメディア処理スタイルをメディアの表現に適用することなく)第6のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、その任意の部分)を表示せずに第6のメディア処理スタイルに対応する視覚的要素(例えば、660a、660b)を表示することを中止する。入力が第1の方向であるという判定に従って、第2のメディア処理スタイルを使用して表現を表示することなく、第2のメディア処理スタイルの視覚的要素の表示を中止すること、又は入力が第1の方向とは異なる第4の方向であるという判定に従って、第6のメディア処理スタイルを使用して表現を表示することなく、第6のメディア処理スタイルに対応する視覚的要素の表示を中止することは、表示を中止した視覚的要素に対応する個別のメディア処理スタイルが、入力が特定の方向に提供されることによって選択できないこと、及び/又は個別のメディア処理スタイルが選択されるためにユーザが入力の方向を変更する必要があることをユーザに通知する視覚的フィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の指示(例えば、その一部)(例えば、第2のメディア処理スタイル(及び/又は第3のメディア処理スタイル(例えば、方法900に関連して上述したような)を使用して表示されるメディアの表現の一部、指示(例えば、1つ以上のテキスト/記号)、第2のメディア処理スタイルの一部、及び/又は第2のメディア処理スタイルを表す視覚的要素(例えば、オブジェクトの境界)において検出されない。第2のメディア処理スタイルの指示において検出されない入力に応じて、個別のメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが個別のメディア処理スタイルを表すオブジェクトを選択する必要なく、及び/又はUIを混乱させる可能性がある個別のメディア処理スタイルを表すオブジェクトを表示する必要なく、ユーザが入力を介して個別のメディア処理スタイルを選択することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、メディアの表現は、以前にキャプチャされたメディアの表現(例えば、676a、676b、676c、680c、及び/又は680d)である(例えば、ライブカメラ視野のプレビュー/ビューではない)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、将来のメディアキャプチャ要求(例えば、「使用」とラベル付けされたユーザインタフェースオブジェクト)に応じてキャプチャされたメディアについて第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプション(例えば、816a、816b)を表示する。いくつかの実施形態では、第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプション(例えば、816a、816b)を表示している間に、コンピュータシステムは、第7のメディア処理スタイルを使用する(例えば、及び/又は第7のメディア処理スタイルをメディアの視覚的コンテンツに適用する)オプションに向けられた入力(例えば、850c)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)の検出に応じて)を検出する。いくつかの実施形態では、第7のメディア処理スタイルを使用するオプションに向けられた入力(例えば、850c)を検出したことに応じて、コンピュータシステムは、(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて)第7のメディア処理スタイルを使用するようにコンピュータシステムを構成する。いくつかの実施形態では、コンピュータシステム(例えば、600)が第7のメディア処理スタイル(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアに対して)を使用するように構成されている間、コンピュータシステムは、メディアをキャプチャする要求(例えば、図8A~図8Cに関連して説明した650a)を検出する。いくつかの実施形態では、コンピュータシステムが第7のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする要求(例えば、図8A~図8Cに関連して説明した650a)を検出したことに応じて、コンピュータシステムは個別のメディアをキャプチャする。いくつかの実施形態では、個別のメディアをキャプチャした後に(例えば、個別のメディアを表示する要求に応じて)、コンピュータシステムは、(例えば、図8A~8Cに関連して説明されるように)個別のメディア(例えば、以前にキャプチャされたメディア)の表現(例えば、680c、680d)を含む第1のユーザインタフェース(例えば、668)を(例えば、図8A~8Cに関連して説明されるように)表示する。いくつかの実施形態では、個別のメディアの表現は、第7のメディア処理スタイルを使用して(例えば、個別のメディアの表現を含む)第1のユーザインタフェースに表示される。いくつかの実施形態では、第1のユーザインタフェースは、入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)、第7のメディア処理スタイルを使用するメディアの表現を表すメディアギャラリーユーザインタフェースオブジェクト及び/又はサムネイル上に表示される。いくつかの実施形態では、第7のメディア処理スタイルを使用してメディアの表現を表示している間、コンピュータシステムは、第2の(例えば、以前にキャプチャされた)メディアの表現を表示する要求を検出し、他のメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、コンピュータシステムは、他のメディアが第7のメディア処理スタイルを使用してキャプチャされたかどうかにかかわらず、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、コンピュータシステムは、メディアの表現が別のメディア処理スタイルを使用してキャプチャされなかったときのみ、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、第7のメディア処理スタイルを使用してメディアの1つ以上の表現を表示するオプションに向けられた入力が検出される前に、他のメディアがキャプチャされた。将来のメディアキャプチャ要求に応じてキャプチャされるメディアに対して第7のメディア処理スタイルを使用するオプションに向けられた入力を検出したことに応じて第7のメディア処理スタイルを使用するようにコンピュータシステムを構成することは、将来キャプチャされるメディアの1つ以上の表現(及び、いくつかの実施形態では、以前にキャプチャされたメディアの表現)にどのメディア処理スタイル(単数又は複数)が適用されるかをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。個別のメディア処理スタイル(単数又は複数)を使用して以前にキャプチャされた表現の異なる部分を表示することは、ユーザが、入力を提供することによって以前にキャプチャされたメディアのためのメディア処理スタイルを選択することを可能にし、個別のメディア処理スタイル(単数又は複数)が以前にキャプチャされたメディアの1つ以上の部分にどのように影響を及ぼすかに関する視覚的フィードバックをユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、コンピュータシステムは、第1のカメラを含む1つ以上のカメラと通信する。いくつかの実施形態では、メディアの表現は、少なくとも第1のカメラの現在の視野の少なくとも一部の表現(例えば、630)(例えば、ライブ表現、ライブプレビュー)を含む。いくつかの実施形態では、表現は、少なくとも第1のカメラの現在の視野の一部が変化したときに更新される。いくつかの実施形態では、少なくとも第1のカメラの現在の視野の一部は、コンピュータシステムが動き回るとき、1つ以上のオブジェクトが少なくとも第1のカメラの視野の中及び/又は外に移動されるとき、及び/又は少なくとも第1のカメラの視野内で他の変化が生じる(例えば、照明が変化するとき)変化する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、将来のメディアキャプチャ要求(例えば、「使用」とラベル付けされたユーザインタフェースオブジェクト)に応じてキャプチャされたメディアについて第8のメディア処理スタイルを使用するオプション(例えば、816a、816b)を表示する。いくつかの実施形態では、第8のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプションを表示している間に、コンピュータシステムは、第8のメディア処理スタイルを使用する(例えば、及び/又は第8のメディア処理スタイルをメディアの視覚的コンテンツに適用する)オプションに向けられた入力(例えば、850c)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)の検出に応じて)を検出する。いくつかの実施形態では、第8のメディア処理スタイルを使用するオプションに向けられた入力(例えば、850c)を検出したことに応じて、コンピュータシステムは、(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて)第8のメディア処理スタイルを使用するようにコンピュータシステム(例えば、600)を構成する。いくつかの実施形態では、コンピュータシステム(例えば、600)が第8のメディア処理スタイルを使用するように構成されている間に、コンピュータシステムは、メディアをキャプチャする第2の要求(例えば、図8A~図8Cに関連して説明した650a)を検出する。いくつかの実施形態では、コンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする第2の要求(例えば、図8A~図8Cに関連して説明した650a)を検出したことに応じて、コンピュータシステムは、第2の個別のメディアをキャプチャする。いくつかの実施形態では、第2の個別のメディアをキャプチャした後、コンピュータシステムは、(例えば、図8A~図8Cに関連して説明したような)第2の個別のメディアの表現(例えば、680c、680d)を含む(例えば、図8A~図8Cに関連して説明したような)第2のユーザインタフェース(例えば、668)を表示する。いくつかの実施形態では、第2の個別のメディア(例えば、以前にキャプチャされたメディア)の表現は、第8のメディア処理スタイルを使用して(例えば、第2の個別のメディアの表現を含む)第2のユーザインタフェースに表示される。いくつかの実施形態では、第2の要求を検出することの一部として、コンピュータシステムは、カメラアプリケーションアイコン上での入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて、カメラアプリケーションを開く)。いくつかの実施形態では、第8のメディア処理スタイルを使用してメディアの表現を表示している間に、コンピュータシステムは、アプリケーションを閉じ、及び再度開く要求を検出し、アプリケーションを閉じ、及び再度開く要求を検出したことに応じて、コンピュータシステムは、第8のメディア処理スタイルを使用してメディアの異なる表現を表示する。いくつかの実施形態では、それぞれのメディアをキャプチャする前に、かつコンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間に、コンピュータシステムは、第8のメディア処理スタイルを使用してメディアの表現(例えば、ライブプレビュー及び/又は少なくとも1つのカメラの現在の視野の一部)を含む第3のユーザインタフェースを表示する。いくつかの実施形態では、コンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする第2の要求を検出したことに応じて、コンピュータシステムは、第3の個別のメディアをキャプチャする。いくつかの実施形態では、第3の個別のメディアをキャプチャした後、コンピュータシステムは、第8のメディア処理スタイルを使用して第3の個別のメディアの表現を含むユーザインタフェースを表示しない。将来のメディアキャプチャ要求に応じてキャプチャされるメディアに対して第8のメディア処理スタイルを使用するオプションに向けられた入力を検出したことに応じて第8のメディア処理スタイルを使用するようにコンピュータシステムを構成することは、将来キャプチャされるメディアの1つ以上の表現(及び、いくつかの実施形態では、以前にキャプチャされたメディアの表現)にどのメディア処理スタイル(単数又は複数)が適用されるかをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。個別のメディア処理スタイル(単数又は複数)を使用して少なくとも第1のカメラの現在の視野の少なくとも一部の表現の異なる部分を表示することは、入力を提供することによってメディアをキャプチャする要求(例えば、シャッターボタンのアクティブ化)を受信することに応じてキャプチャされるメディアのメディア処理スタイルをユーザが選択することを可能にし、現在の視野に対応するメディアがキャプチャされた後に個別のメディア処理スタイル(単数又は複数)が現在の視野の1つ以上の部分にどのように適用されるかに関する視覚的フィードバックをユーザに提供し、これは、ユーザインタフェースを混乱させることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)をキャプチャされたメディアに適用すること(例えば、個別のメディア処理スタイルを使用して個別の表現を表示すること)の一部として、コンピュータシステムは、動作の第1のセット(例えば、メディア処理動作)をキャプチャされたメディア(例えば、680b、680c)に適用する。いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を1つ以上のカメラの視野の一部のライブプレビュー(例えば、630)(例えば、現在の視野)に適用すること(例えば、1つ以上のカメラの視野のそ個別の部分を表示すること)の一部として、コンピュータシステムは、第2のセットの動作(例えば、メディア処理動作)をライブプレビュー(例えば、630)に適用する。いくつかの実施形態では、動作の第1のセット及び動作の第2のセットにおけるメディア処理動作のためのパラメータは、個別のメディア処理スタイルに基づいて選択される。いくつかの実施形態では、動作の第1のセットは、適用するためにより長い時間又はより多くの量の処理能力を要し、動作の第2のセットは、より迅速に、又はより少ない量の処理能力で適用することができ、動作の第1のセットを使用することは、動作の第2のセットを使用することよりも高い品質の結果を提供する。いくつかの実施形態では、第2のセットの動作を適用することは、第1のセットの動作を適用することよりも強度が低い(例えば、より少ない動作を含み、より少ない処理リソース(例えば、ランダムアクセスメモリ及び/又は命令セット)プロセスしか必要としない)。いくつかの実施形態では、第2のセットの動作をライブプレビューに適用することは、コンピュータシステムが、第1のセットの動作がライブプレビューに適用されるときよりも低減された待ち時間及び/又は視覚的歪みで、個別のメディア処理スタイルを使用してライブプレビューを表示することを可能にする。第1のセットの動作をキャプチャメディアに適用し、第2のセットの動作をライブプレビューに適用することにより、個別のメディア処理スタイルが、個別のメディア処理スタイルをメディアの視覚的コンテンツに適用するための計算量の少ないセットの動作でキャプチャすることができる表現の部分のメディア表現にどのように影響を与えるかに関する視覚的フィードバックを提供するコンピュータシステムの能力が向上し、これにより、改善された視覚的フィードバックが提供される。
いくつかの実施形態では、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、第1のメディア処理スタイルに対応する識別子(例えば、636a~636d、636aa、及び/又は636dd)(例えば、1つ以上の記号及び/又はテキスト(例えば、「標準」、「鮮やかな」))が表示される。いくつかの実施形態では、識別子は、メディアの表現に重ね合わされる。いくつかの実施形態では、識別子は、メディアの表現の一部の上、下、左、右に配置され、及び/又はその上に重ね合わされる。表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、第1のメディア処理スタイルに対応する識別子を表示することは、ユーザに視覚的フィードバックを提供し、それにより、ユーザは、メディア処理スタイルがメディアの表現にどのように適用されているかによって、適用されているメディア処理スタイルのタイプを決定する必要なく、どのメディア処理スタイルが適用されているかを迅速に識別することができ、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)を表示し続けている間、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分(例えば、630の中間セクション、左セクション、及び/又は右セクションの一部)を表示することの一部として、コンピュータシステムは、表現の第1の部分と表現の第2の部分との間に仕切り(例えば、640)(例えば、表現の領域及び/又は部分、第1の部分と第2の部分との間の交差を示す視覚的に区別可能なユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、仕切りは、第1のメディア処理スタイル、第2のメディア処理スタイル、及び/又は任意の他のメディア処理スタイルが適用されていない表現の領域及び/又は部分である。いくつかの実施形態では、仕切りは半透明である。いくつかの実施形態では、仕切りは半透明ではない。いくつかの実施形態では、コンピュータシステムは、表現に向けられた入力の大きさに基づいて、ディスプレイを横切って仕切りを移動させる。いくつかの実施形態では、(例えば、入力を検出したことに応じて)仕切りがディスプレイを横切って移動すると、コンピュータシステムは、任意選択的に、表現の第1の部分及び表現の第2の部分のサイズを変更する。いくつかの実施形態では、表現の第1の部分及び表現の第2の部分は、相対的に及び/又は間接的に比例して変更される(例えば、第1の部分のサイズが増加したのと同じ量だけ)(例えば、表現の第1の部分のサイズが増加するにつれて、表現の第2の部分のサイズが減少する(又はその逆)。第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、表現の第1の部分と表現の第2の部分との間の仕切りを表示することは、ユーザに視覚的フィードバックを提供し、それにより、ユーザは、表現のどの部分が第2のメディア処理スタイルを使用して表示されているか、及び/又は表現のどの部分が第1のメディア処理スタイルを使用して表示されているかを迅速に識別することができ、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)は、移動入力(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)である(又は、いくつかの実施形態では、移動入力ではない(例えば、タップ入力、プレスアンドホールド入力である)。
いくつかの実施形態では、コンピュータシステムは第1のキャプチャモードにある。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示している間、かつコンピュータシステム(例えば、600)が第1のキャプチャモード(例えば、図6Nの写真モードコントロール620cを示す)にある間、コンピュータシステムは、スタイル選択ユーザインタフェースに向けられた(例えば、表現に向けられていない、1つ以上のカメラキャプチャモードユーザインタフェースオブジェクトに向けられている、ユーザインタフェースの下部にある、メディアの表現に向けられた入力が検出されたロケーションとは異なるロケーションにある)入力(例えば、650n)(例えば、移動入力)(及び/又は、いくつかの実施形態では、非移動入力/ジェスチャ(例えば、プレスアンドホールド入力/ジェスチャ、音声入力、及び/又はタップ入力))を検出する。いくつかの実施形態では、それは、表現に向けられた入力とは異なる。いくつかの実施形態では、コンピュータシステムは、カメラキャプチャモードのための複数の選択可能なユーザインタフェースオブジェクトを含むカメラ制御領域を表示する。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真/静止、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートキャプチャモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートキャプチャモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、キャプチャモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、キャプチャモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、スチール写真キャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形キャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、第5のタイプ(例えば、ポートレート写真(例えば、背景や前景などのぼけた部分を有する写真)のメディアをキャプチャし、いくつかの実施形態では、コンピュータシステムは、コンピュータシステムの1つ以上のカメラの視野の少なくとも一部に合成被写界深度効果を適用することによって、ぼけた部分を有する写真を特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、及び/又は輪郭光)の量、絞り値、及び/又はぼけ)で生成する(いくつかの実施形態では、特定のタイプの光は、合成(例えば、コンピュータ生成)である(例えば、写真の深度情報及び/又はコンピュータシステムの1つ以上のカメラの視野(例えば、現在の視野)の少なくとも一部を使用してコンピュータシステムによって生成する)。パノラマキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、特定の設定(例えば、ズーム及び/又は移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、キャプチャモード間の切り替え時、視野の表現の表示は、キャプチャモードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、コンピュータシステムが静止写真キャプチャモードで動作している間、この表現は、矩形モードであり、コンピュータシステムが正方形キャプチャモードで動作している間、この表現は、正方形である)。いくつかの実施形態では、合成(例えば、コンピュータ生成)被写界深度効果は、写真を実際にキャプチャした1つ以上のカメラの開口及び/又は焦点距離とは異なる開口(例えば、物理的開口、有効開口)及び/又は焦点距離(例えば、物理的焦点距離、有効焦点距離)を有するカメラで写真がキャプチャされたように見えるように、写真を調整する。いくつかの実施形態では、スタイル選択ユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、少なくとも1つのメディア処理スタイルを使用してメディアの表現を表示し続けている間、及び/又はメディア処理スタイルをメディアの視覚的コンテンツに適用し続けている間に)コンピュータシステムを第1のキャプチャモードから異なるキャプチャモード(例えば、図6Oのポートレートモードコントロール620dを示す)に遷移する。スタイル選択ユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムを第1のキャプチャモードから第1のキャプチャモードとは異なる第2のキャプチャモードに移行させることにより、ユーザは、コンピュータシステムが動作するキャプチャモードを制御することができ、これにより、ユーザインタフェースを雑然とさせることなく追加の制御オプションが提供される。
いくつかの実施形態では、コンピュータシステム(例えば、620)を第1のキャプチャモード(例えば、図6Nの写真モードコントロール620cを示す)から異なるキャプチャモード(例えば、図6Oのポートレートモードコントロール620dを示す)に遷移した後、コンピュータシステムは、メディアをキャプチャする要求を検出する。いくつかの実施形態では、メディアをキャプチャする要求を検出したことに応じて、コンピュータシステムは、(例えば、図6Oに関連して説明されるような)現在選択されているメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に基づいて異なるキャプチャモードでメディアをキャプチャし、このキャプチャすることは、現在選択されているメディア処理スタイルが第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)であるという判定に従って、(図6Oに関連して説明されるように)第1のメディア処理スタイルを使用して異なるキャプチャモードでメディアをキャプチャすることと、現在選択されているメディア処理スタイルが第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)であるという判定に従って、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して異なるキャプチャモードでメディアをキャプチャすることとを含む。いくつかの実施形態では、現在選択されているメディア処理スタイルは、異なるメディア(例えば、異なるカメラモードでキャプチャされたメディア)に適用される。いくつかの実施形態では、現在選択されているメディア処理スタイルの表現は、個別のキャプチャモードから異なる個別のキャプチャモードに切り替わるときに表示され続ける。
いくつかの実施形態では、コンピュータシステム(例えば、600)は、(例えば、図8A~図8Cに関連して説明したように)、(例えば、表現に向けられた入力を検出する前及び検出した後に)(例えば、602cによって示される)第3のキャプチャモード(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)にある。いくつかの実施形態では、表現(例えば、630)に向けられた入力を検出した後、コンピュータシステムは、(例えば、図6N~図6Oに関連して説明したように)メディアの第2の表現を含む第2のユーザインタフェースを表示する要求を検出する。いくつかの実施形態では、メディアの第2の表現を含む第2のユーザインタフェースを表示する要求を検出したことに応じて、コンピュータシステムは、メディアの第2の表現(例えば、630)を含む第2のユーザインタフェースを表示する。いくつかの実施形態では、第2のユーザインタフェースを表示している間に、コンピュータシステムは、第2の表現に向けられた入力(例えば、移動入力)を検出する(及び/又は、いくつかの実施形態では、(例えば、図6N~図6Oに関連して説明したように)非移動入力/ジェスチャ(例えば、プレスアンドホールド入力/ジェスチャ、音声入力、及び/又はタップ入力)(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する)。いくつかの実施形態では、(例えば、図8A~8Cに関連して説明されるように)第2の表現(例えば、630)に向けられた入力(例えば、650n1、650n2)を検出したことに応じて、かつコンピュータシステムが第1のメディア処理スタイル選択モード(例えば、コンピュータシステムに1つ以上のメディア処理スタイルを第2の表現に適用させるモード)にないという判定に従って、コンピュータシステムは、(例えば、図8A~8Cに関連して説明されるように)(例えば、以前に適用されなかった第2の表現に適用されているメディア処理スタイルを表示することなく)コンピュータシステムを第3のキャプチャモード(例えば、620cによって示される)から第4のキャプチャモード(例えば、620dによって示される)(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)に遷移させる。いくつかの実施形態では、(図8A~8Cに関連した説明されるように)第2の表現(例えば、630)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつコンピュータシステムが(例えば、602bによって示されるように)第1のメディア処理スタイル選択モードにあるという判定に従って、コンピュータシステムは、(例えば、図6N~6Oに関連して説明されるように)コンピュータシステムを第3のキャプチャモードに維持する(例えば、620cによって示されるように)(例えば、メディアを処理し、メディアをキャプチャするためのメディア処理スタイルが変更されたという指示を表示する)(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)(例えば、コンピュータシステムを第5のキャプチャモードから第6のキャプチャモードに遷移させることを見合わせる)。規定が満たされたときにコンピュータシステムがメディア処理スタイル選択モードにあるかどうかに基づいて、コンピュータシステムを第3のキャプチャモードから第4のキャプチャモードに遷移させるか、又はコンピュータシステムを第3のキャプチャモードに維持するかを選択することにより、コンピュータシステムがメディア処理スタイル選択モードにあるかどうかに基づいて、コンピュータシステムが異なる動作をインテリジェントに実行することが可能になり、コンピュータシステムは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、表現に向けられた入力を検出する前に、スタイル選択ユーザインタフェースは、第1のメディア処理スタイル(例えば、図7A~図7X及び方法1000に関連して説明したような)のための(例えば、パラメータ(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和))及び/又は深度パラメータ)を編集/修正するための)複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を含む。表現に向けられた入力を検出する前に、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示することは、第1のメディア処理スタイルがメディアの視覚的コンテンツにどのように適用されるかについて調整され得るパラメータに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ表現に向けられた入力が第1の方向であるという判定に従って、かつ第2のメディア処理スタイルが第4の部分(例えば、中間部分)(例えば、メディアの表現(例えば、630)の630、676a、676b、676c、680c、及び/又は680dの中間セクション及び/又は中間セクションの一部、左セクション、及び/又は右セクション)に適用されているという判定に従って(及び/又は、(例えば、表現に向けられた入力を検出したことに応じて)表現に向けられた入力の終了が検出されたときに(例えば、それと同時に、その直前に、及び/又はその直後に)表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)より多の部分が第2のメディア処理スタイルを使用して表示されたという判定に従って)、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)についての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)(例えば、第1のメディア処理スタイルの現在値の表現とは異なる第2のメディア処理スタイルの現在値の表現と共に表示されるユーザインタフェースオブジェクト)を表示し、(例えば、図6A~図6D及び方法900に関連して説明したように)第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、634a~634d、634aa、及び/又は634dd)を表示することを中止する((例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示に置き換える)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び表現に向けられた入力が第1の方向であるという判定に従って、及び第2のメディア処理スタイルがメディアの表現(例えば、630)の第4の部分(例えば、中間部分)(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション及び/又は中間セクションの一部、左セクション、及び/又は右セクション)に適用されていないという判定に従って(及び/又は、表現に向けられた入力の終了が検出されたときに(例えば、同時に、直前に、及び/又は直後に)、表現の所定の部分未満(例えば、25%、30%、40%、50%、60%、75%)より少ない部分が第2のメディア処理スタイルを使用して表示されたという判定に従って)(例えば、表現に向けられた入力を検出したことに応じて)、コンピュータシステムは、第2のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示することなく、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を(例えば、図6A~図6D及び方法900に関連して説明されるように)表示し続ける(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトの表示を、第2のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトの表示に置き換えることを見合わせる)。所定の条件が満たされたときに、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示するか、又は第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示し続けるかを選択することにより、コンピュータシステムは、ユーザに関連する可能性があると判定された状況において、メディア処理スタイルについての関連する選択可能なオプションをユーザに提供することができ、ユーザは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、(例えば、図6A~6D及び方法900に関連して上述したように)第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)は、メディアの表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、ライブプレビュー及び/又は以前にキャプチャされたメディア)上の(例えば、及び/又は、それにおける)1つ以上のロケーションに表示される(重ね合わされる)。いくつかの実施形態では、1つ以上のロケーションは、メディアの表現の下部、カメラ表示領域(例えば、604)に表示されるメディアの表現の下部、メディアをキャプチャするためのユーザインタフェースオブジェクト(例えば、610)及び/又はカメラキャプチャモードユーザインタフェースオブジェクトに隣接する(例えば、上の)1つ以上のロケーション、インジケータ領域(例えば、602)と制御領域(例えば、606)との間である。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示することの一部として、コンピュータシステムは、1つ以上の他の選択可能なユーザインタフェースオブジェクト(例えば、メディアの表現のズームレベルを制御するための1つ以上の選択可能なオブジェクト、メディアの表現に適用することができる合成照明効果を制御するための1つ以上の選択可能なオブジェクト)を表示することを中止する。メディアの表現上の第1のメディア処理スタイルのための複数の選択可能なオブジェクトをメディアの表現上の1つ以上のロケーションに表示することは、第1のメディア処理スタイルに利用可能な(例えば、編集するための、対応する)選択可能なユーザインタフェースオブジェクトに関するフィードバックをユーザに提供し、同時に、ユーザインタフェース要素を表示するための限られた空間を効率的に使用しながら(例えば、ディスプレイ上又はユーザインタフェース要素を表示するために利用可能な所定の表示領域内で)、メディアの表現に関するフィードバックをユーザに提供し、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルが使用のために選択されている間に(例えば、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に)、コンピュータシステム(例えば、600)は、メディアをキャプチャする第1の要求(例えば、650a、650c、650j)を検出する(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクト上の入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び音声入力)を検出する)。いくつかの実施形態では、メディアをキャプチャするための第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)が(例えば、第2のメディア処理スタイルが適用されることなく)適用されたメディア(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクトの異なる起動及び/又は単一の起動に対応する1つ以上の写真(単数又は複数)及び/又はビデオ(単数又は複数))をキャプチャする。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルをキャプチャし、複数の写真及び/又はビデオに適用する。いくつかの実施形態では、メディアをキャプチャする第1の要求は、メディアをキャプチャする複数の要求を含む(例えば、複数の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、メディアをキャプチャする第1の要求は、単一の要求を含む(例えば、単一の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、第1のメディア処理スタイルが適用されたメディアをキャプチャした後、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)が使用のために選択されている間に(例えば、表現の第1の部分及び表現の第2の部分が第2のメディア処理スタイルを使用して表示されている間に)(図6O~6Uに関連して説明するように)、コンピュータシステムは、メディアをキャプチャする第2の要求(例えば、650a、650c、650j)を検出する((例えば、キャプチャされたメディアについてのユーザインタフェースオブジェクト上での入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)を検出する)。いくつかの実施形態では、メディアをキャプチャするための第2の要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルが適用された(例えば、図6O~図6Uに関連して説明したように)(例えば、第1のメディア処理スタイルを適用することなく)メディア(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクトの異なる起動及び/又は単一の起動に対応する1つ以上の写真(単数又は複数)及び/又はビデオ(単数又は複数))をキャプチャする。いくつかの実施形態では、第2のメディア処理スタイルが適用された表現の第1の部分及び表現の第2の部分を含むメディアの表現は、第1のメディア処理スタイルが適用された表現の第1の部分及び表現の第2の部分を含むメディアの表現とは異なる。いくつかの実施形態では、メディアをキャプチャする第2の要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルをキャプチャし、複数の写真及び/又はビデオに適用する。いくつかの実施形態では、メディアをキャプチャする第2の要求は、メディアをキャプチャするための複数の要求を含む(例えば、複数の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、メディアをキャプチャする第1の要求は、単一の要求を含む(例えば、単一の入力/ジェスチャを検出することを含む)。表現のうちの1つ以上の部分が、個別のメディア処理スタイルが適用された状態で表示されたときにメディアをキャプチャする要求を検出したことに応じて、適用された個別のメディア処理スタイルを有する表現の1つ以上の部分を含むメディアをキャプチャすることは、コンピュータシステムが、メディアをキャプチャする要求が検出されたときに表示されたメディアを表すメディアをインテリジェントにキャプチャすることを可能にし、これは、更なるユーザ入力を必要とせずに、条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力の終了(例えば、リフトオフ)が検出されたという判定に従って、かつ表現に向けられた入力が1つ以上の移動基準が満たされた(例えば、入力が特定の持続時間よりも長く検出された、速度(例えば、平均速度、最高速度)が閾値(例えば、非ゼロ閾値)を上回ることが検出された、スタイル選択ユーザインタフェース上の特定のポジションで終了することが検出された、及び/又は閾値(例えば、非ゼロ閾値)距離にわたって検出された(例えば、開始ポジションから終了ポジションまで)という判定に従って、コンピュータシステムは、(例えば、将来のメディアキャプチャ入力に応じてメディアをキャプチャするときに使用するために第2のメディア処理スタイルが選択されたことを示すために)第2のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を使用して(例えば、第1のメディア処理スタイルを使用することなく)表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後、急に及び/又は即時に表示するようにスナップする)。いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力の終了(例えば、リフトオフ)が検出されたという判定に従って、及び表現に向けられた入力が1つ以上の移動基準を満たさないという判定に従って、コンピュータシステムは、(第1のメディア処理スタイルが、将来のメディアキャプチャ入力に応じてメディアをキャプチャするときに使用するために選択されたことを示すために)第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を使用して(例えば、第2のメディア処理スタイルを使用することなく)表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後に急に及び/又は即座に表示するようにディスプレイにスナップする)。入力の移動に基づいて、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するか、又は第1のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するかを選択することにより、コンピュータシステムは、どのメディア処理スタイルが選択されているかに関してユーザにフィードバックをインテリジェントに提供することができ、次に進むメディアの表示及び/又はキャプチャに影響を及ぼす更なるユーザ入力を必要とせずに、条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分及び表現の第2の部分を表示する。いくつかの実施形態では、表現及び表現の第2の部分が第2のメディア処理スタイルを使用して表示されている間に、コンピュータシステムは、表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する(及び、いくつかの実施形態では、表現に向けられた入力の移動方向と同じ方向の移動を含む)。いくつかの実施形態では、表現に向けられた第2の入力を検出したことに応じて、表現に向けられた第2の入力が第1の方向であるという判定に従って、コンピュータシステムは、第2のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、(例えば、方法900に関連して上述したように)(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルとは異なる)第9のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分を表示する。いくつかの実施形態では、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分を表示し続けている間、第9のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、表現に向けられた第2の入力の第1の部分(及び、いくつかの実施形態では、第2の入力の第1の部分は第3の入力の大きさを有する)を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示されている間に、第9のメディア処理スタイルを使用して表現の第1の部分を表示する(例えば、同時に表示する)。いくつかの実施形態では、第7のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた第2の入力の第2の部分を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示される。いくつかの実施形態では、第2の入力の第2の部分は、第2の入力の大きさよりも大きい第4の入力の大きさを有し、コンピュータシステムは、第7のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示し、一方、表現の第2の部分は、第2のメディア処理スタイルを使用して表示される。
いくつかの実施形態では、表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び第2の入力の終了が検出されたという判定に従って、コンピュータシステムは、表現に向けられた第2の入力が1つ以上の移動基準を満たす(例えば、入力が特定の持続時間より長く検出された、閾値(例えば、非0閾値)を上回る速度(例えば、平均速度、最高速度)を有することが検出された、スタイル選択ユーザインタフェース上の特定のポジションで終了することが検出された、及び/又は(例えば、開始ポジションから終了ポジションまで)閾値(例えば、非0閾値)距離にわたって検出された)という判定に従って、表現の第1の部分及び表現の第2の部分を、第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第1のメディア処理スタイル及び第2のメディア処理スタイルを使用することなく)表示する(例えば、入力の終了を検出した後に突然及び/又は即座に表示するようにスナップする)。表現に向けられた入力が1つ以上の移動基準を満たさないという判定に従って、第2のメディア処理スタイルを使用して(例えば、第7のメディア処理スタイル及び第1のメディア処理スタイルを使用せずに)、表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後に急に及び/又は即座に表示するようにディスプレイにスナップする)。入力の移動に基づいて、第7のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するか、又は第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するかを選択することにより、コンピュータシステムは、どのメディア処理スタイルが選択されているかに関してユーザにフィードバックをインテリジェントに提供することができ、次に進むメディアの表示及び/又はキャプチャに影響を与え、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。表現に向けられた第2の入力の第1の部分を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示されている間に、第7のメディア処理スタイルを使用して表現の第1の部分を表示することは、異なるメディア処理スタイル(単数又は複数)がメディアの表現によって表される視覚的コンテンツにどのように異なって影響を与えるか、及び表現に向けられた第2の入力に基づいて選択することができる少なくともいくつかのメディア処理スタイル(単数又は複数)に関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。表現に向けられた入力を検出した後に表現に向けられた第2の入力を検出したことに応じて、かつ表現に向けられた第2の入力が第1の方向であるという判定に従って、第2のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第9のメディア処理スタイルを使用して表現の第1の部分を表示することは、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される表現の部分をユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表示されるメディアの表現を含むスタイル選択ユーザインタフェース(例えば、634a~634d、634aa、及び/又は634dd)を表示する前に、(例えば、(例えば、第1のメディア処理スタイルを使用して表示されない)メディアの第4の表現(又は任意のその他のメディア処理スタイル(例えば、上述の第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルのように、表現に向けられた入力などの入力を検出したことに応じて適用されるユーザ選択/所定の任意の他のメディア処理スタイル))並びにメディアの第4の表現を含むユーザインタフェース内の第1の個別のロケーションに表示されるスタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト(例えば、602b)(例えば、コンピュータシステムに1つ以上のメディア処理スタイルを第2の表現に適用させるモード)(例えば、方法1000に関連して説明したように)を含むユーザインタフェースを表示する。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト(例えば、602b)を表示している間に、コンピュータシステムは、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた(例えば、及び/又は第1の個別のロケーションに向けられた)入力(例えば、650b)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))、(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、(例えば、634a~634d、634aa、及び/又は634ddのうちの1つ以上を含むインタフェース)を表示する。(例えば、及び/又は、第1のメディア処理スタイル又は任意の他のメディア処理スタイル(例えば、任意の他のユーザ選択/事前定義されたメディア処理スタイル)を使用して表示されないメディアの表現を表示することを中止する)。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた第1の入力を検出したことに応じて、コンピュータシステムは、スタイルモードで動作するように構成される。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示することの一部として、コンピュータシステムは、現在選択されているメディア処理スタイルを使用してメディアの表現を表示する(及び/又は表示し続ける)。スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示することは、スタイル選択ユーザインタフェースが表示されるかどうかに関してコンピュータシステムに対する制御をユーザに提供し、ユーザは、メディアの表現に適用する新しいメディア処理スタイルを設定することができ、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、(602c及び602dに関連して上述したように)スタイル選択ユーザインタフェース(例えば、634a~634d、634aa、及び/又は634ddのうちの1つ以上を含むインタフェース)内の第2の個別のロケーションにおける設定(例えば、(例えば、深度パラメータを制御するための)絞り値設定、メディアをキャプチャするための単一の要求に応じて複数の写真がキャプチャされる写真キャプチャ設定をオフにするための設定)を制御するためのユーザインタフェースオブジェクト(例えば、602b)を含む。いくつかの実施形態では、第2の個別のロケーションにおける設定を制御するためのスタイル選択ユーザインタフェース及びユーザインタフェースオブジェクト(例えば、602b)を表示している間に、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトが以前に表示されていたロケーションに向けられた)入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する)。いくつかの実施形態では、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、602c及び602d上で検出された入力に関連して上述したように)(又は、任意の他のメディア処理スタイル(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルのような、表現に向けられた入力などの入力を検出したことに応じて表現に適用される、任意の他のユーザ選択/予め定義されたメディア処理スタイル)を表示することを中止する(例えば、表示されているメディアの表現、メディア処理スタイル(例えば、第1のメディア処理スタイル及び/又は第2のメディア処理スタイル)を使用して表示される表現の部分を表示することを中止する)。いくつかの実施形態では、ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、設定を制御するための1つ以上のユーザインタフェースオブジェクト(例えば、スライダ)を表示する。いくつかの実施形態では、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、メディア処理スタイル選択モードで動作するように構成されない。いくつかの実施形態では、スタイル選択ユーザインタフェースを中止することの一部として、コンピュータシステムは、現在選択されているメディア処理スタイルを使用して表現の表示を維持する。設定を制御するためのユーザインタフェースオブジェクトに向けられた(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を含むユーザインタフェースを表示している間に検出された)入力を検出したことに応じてスタイル選択ユーザインタフェースの表示を中止することは、ユーザがメディアの表現に適用する新しいメディア処理スタイルを選択することができるスタイル選択ユーザインタフェースが表示されるかどうかに関するコンピュータシステムに対する制御をユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースを表示した後、コンピュータシステムは、カメラユーザインタフェースを表示する要求を受信する。いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応じて、コンピュータシステムは、カメラユーザインタフェース内に、1つ以上のカメラの視野の表現(例えば、630)と、選択されると、スタイル選択ユーザインタフェース(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト)を表示させる個別のユーザインタフェースオブジェクト(例えば、602b)とを同時に表示することを含むカメラユーザインタフェース(例えば、602、604、及び/又は606を含むユーザインタフェース)を表示し、これは、第1のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、個別のユーザインタフェースオブジェクト(例えば、602b)を第1の外観で(例えば、アフォーダンスを第2の外観で表示することなく)表示することを含む。いくつかの実施形態では、第2のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、コンピュータシステムは、個別のユーザインタフェースオブジェクト(例えば、602b)を、(例えば、図6A~図6Dの602bに関連して上述したように、第1の外観でアフォーダンスを表示することなく)第1の外観とは異なる第2の外観で表示する。いくつかの実施形態では、カメラユーザインタフェースはまた、1つ以上のカメラの視野の表現と同時に表示されるメディアをキャプチャするためのユーザインタフェースオブジェクト(例えば、610)と、選択されると、デバイスにデバイスの1つ以上のカメラでメディアをキャプチャさせるアフォーダンスとを含む。いくつかの実施形態では、コンピュータシステムは、デフォルトスタイルが現在選択されているメディア処理スタイルであるとき、個別のユーザインタフェースオブジェクトを第1の外観で表示し、1つ以上の(及び/又は所定数の)異なる非デフォルトスタイルが選択されたとき、個別のユーザインタフェースオブジェクトを第2の外観で表示する。ユーザインタフェースオブジェクトを表示することは、選択されると、スタイル選択ユーザインタフェースを、個別のメディア処理スタイルが第1のメディア処理スタイルであるか第2のメディア処理スタイルであるかに基づいて異なる外観で表示させ、メディアの視覚的コンテンツに現在適用されている及び/又は現在適用されるように構成されているメディア処理スタイルに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、ユーザインタフェースは、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される(例えば、図8A~図8Cに関連して説明したような)第1のユーザインタフェースオブジェクトを含む。いくつかの実施形態では、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される第1のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、(図8A~8Cに関連した説明されるように)1つ以上の入力デバイスを介して、第1のユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力)(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を表示する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、図8A~図8Cに関連して説明したように)第1のメディア処理スタイル(例えば、コンテンツを表示するために、コンピュータシステムがメディア処理スタイル選択モードで動作していないときに表示されるスタイル、及び/又は表現に向けられた入力のような入力によって検出できないスタイル)を使用することなく、表現の第1の部分及び表現の第2の部分を表示する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、表現の第1の部分及び表現の第2の部分は、第1のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、表現の第1の部分及び表現の第2の部分は、中立スタイル(及び/又はデフォルトスタイル)を使用して表示される。第1のユーザインタフェースオブジェクトに向けられた入力(例えば、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される第1のユーザインタフェースオブジェクトを表示している間に検出された入力)を検出したことに応じて、第1のメディア処理スタイルを使用せずに表現の第1の部分及び表現の第2の部分を表示することは、第1のメディア処理スタイルの表現が第1のメディア処理スタイルを使用して表示されるか否かをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、メディア(例えば、シャッターボタン)をキャプチャするための選択可能なユーザインタフェースオブジェクト(例えば、610)を含む。いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)と、メディア(及び、例えば、スタイル選択ユーザインタフェース)をキャプチャするための選択可能なユーザインタフェースオブジェクトとを使用してメディアの表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクト(例えば、スタイル選択ユーザインタフェース内のロケーション)に向けられた入力(例えば、650a、650c、650j)例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、650a、650c、650j)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルのパラメータの現在値に基づいて)第1のメディア処理スタイルが適用されたメディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出している間に、及び/又は(例えば、表現に向けられた入力を検出したことに応じてメディア処理スタイルを切り替える要求として)表現に向けられる入力を検出している間に、コンピュータは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトを検出する入力が検出されるとき(例えば、その直前/直後に)、第1のメディア処理スタイルを使用して表示された表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)、及び/又は表示されたメディアの表現の他の部分よりも大きい(又は等しい)メディアの表現の部分に適用されるメディア処理スタイルが適用されたメディアのキャプチャを開始する。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェースにおいて適用される第1のメディア処理スタイルを有するキャプチャメディアの表現(例えば、サムネイル表現)を表示する。メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた(例えば、第1のメディア処理スタイル及びメディアをキャプチャするための選択可能なユーザインタフェースオブジェクトを使用してメディアの表現を表示している間に検出された)入力を検出したことに応じて第1のメディア処理スタイルが適用されたメディアをキャプチャすることは、ユーザが、現在選択されているメディア処理スタイルが適用されるメディアをキャプチャすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、異なるタイプの識別されたオブジェクトと比較した1つのタイプの識別されたオブジェクト(例えば、非被写体と比較した被写体(例えば、人物))について、表現(例えば、630)の第1の部分内の(例えば、において検出される)1つ以上のオブジェクト(例えば、ライブプレビュー630内の人物)(例えば、人物及び/又は人物の顔)(例えば、識別可能なオブジェクト)に対して、1つ以上のオブジェクトを含まない第1の部分のサブセットに対してと異なるように(例えば、異なるセットの視覚的パラメータ(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータの異なるセットを使用して)、第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を適用する(例えば、第1の部分の第2のサブセット(例えば、オブジェクトを含まないサブセット)とは異なる視覚的外観で第1の部分の第1のサブセット(例えば、オブジェクトを含むサブセット)を表示する)。いくつかの実施形態では、第1のメディア処理スタイルは、メディアの表現に含まれるシーンの特定の部分(例えば、空、肌のトーン、ユーザの顔などを含むシーンの部分(単数又は複数))のうちのいくつかの外観を保存しようと試みるために、表現の異なる部分に異なって適用される。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)は、(例えば、図6A~6C及び方法70に関連して説明したように)コントラスト、鮮やかさ、暖かさ、及びこれらの組み合わせからなる群から選択される1つ以上のパラメータに基づいてメディアの表現に適用される。
いくつかの実施形態では、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示され、表現の第2の部分が第1のメディア処理スタイルを使用して表示される間、コンピュータシステムは、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の終了を検出する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の終了を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルを使用して表現の第2の部分(例えば、第2の部分の少なくとも一部、表現の縁部)を表示することを中止し(例えば、第1のメディア処理スタイルを使用して表示される表現の第2の部分をフェードアウトし、表現の第2の部分のサブセット(例えば、660a、660b、及び/又は630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)(例えば、表現の第2の部分に含まれ、それよりも小さい部分)の視覚的突出を減少させる(例えば、薄暗くする、暗くする、フェードアウトする、灰色にする、強調しない、及び/又は不透明度を上昇させる)(及び表現の第1の部分、表現の第2の部分、及び/又は第2のメディア処理スタイルを使用する表現の第3の部分を表示する)。いくつかの実施形態では、表現の第1の部分は、第2のメディア処理スタイルを使用して表示され、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、コンピュータシステムは、表現に向けられた入力の終了を検出する。いくつかの実施形態では、表現の第1の部分が第2のメディア処理スタイルを使用して表示されている間、及び表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、表現に向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルを使用して表現の第1の部分(例えば、第2の部分の少なくとも一部、表現の縁部)を表示することを中止し、表現の第1の部分のサブセット(例えば、表現の第2の部分に含まれ、表現の第2の部分よりも小さい表現の部分)の視覚的突出を減少させる。いくつかの実施形態では、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)のサブセットが低減された視覚的突出で表示されている間、コンピュータシステムは、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた第3の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、表現に向けられた第3の入力を検出したことに応じて、コンピュータシステムは、表現の第2の部分のサブセットの視覚的突出を増加させる(例えば、暗くする、明るくする、フェードインする、強調する、及び/又は不透明度を減少させる)。表現に向けられた第4の入力を検出したことに応じて表現の第2の部分のサブセットの視覚的突出を増加させることにより、表現に向けられた入力の終了が検出されなかったという視覚的フィードバックをユーザに提供し、いくつかの実施形態では、メディア処理スタイルが表現の第2の部分のサブセットにどのように影響し得るかに関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。表現に向けられた入力の終了を検出したことに応じて表現の第2の部分のサブセットを視覚的突出を減少させることは、メディア処理スタイルが入力を介して選択されたこと、及び/又は入力が現在検出されていないことの視覚的フィードバックをユーザに提供し、これは、選択されたメディア処理スタイルの変更に関する意図されない変更が更なるユーザ入力なしでは起こらないという確信をユーザに与え、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、メディア(例えば、及び/又はメディアの表現の一部)の表現が第10のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(及び/又は任意のメディア処理スタイル)を使用して表示されるという判定に従って、表現に向けられた第4の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、メディアの表現を表示することは、表現の第5の部分(例えば、660a、660b、右セクション、及び/又は左セクション)(例えば、縁部(例えば、左縁部及び/又は右縁部)、視覚的要素)が第1の視覚的外観(例えば、第1の色及び/又はグレーアウトされない)で表示され、メディアの表現(例えば、及び/又はメディアの提示の一部)が第10のメディア処理スタイル(及び/又は任意のメディア処理スタイル)を使用して表示されないという判定に従って、表現に向けられた第4の入力を検出したことに応じて、表現の第5の部分(例えば、660a、660b、右セクション、及び/又は左セクション)が、第1の外観とは異なる第2の外観で表示されることを含む。メディアの表現が第10のメディア処理スタイルを使用して表示されるか否かの判定に基づいて表現の第4の部分を異なるように表示することは、ユーザが入力を介して個別のメディア処理スタイルを選択できるかどうか、及び/又は個別のメディア処理スタイルが特定の方向の入力を介してアクセスできるかどうかに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に、第1のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示している間に、メディアの表現の第6の部分(例えば、660a、660b、右セクション、及び/又は左セクション)(例えば、縁部(例えば、左縁部及び/又は右縁部)が、第1のメディア処理スタイル(例えば、メディアの表現の領域/縁部に適用されているメディア処理スタイル)を使用して表示される。第1のメディア処理スタイルを使用して表示されるメディアの表現の第6の部分を表示することは、第1のメディア処理スタイルが表現の第2のエリアにどのように影響し得るかに関するフィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分及び表現の第2の部分を表示している間に、メディアの表現の第7の部分(例えば、660a、660b、右セクション、及び/又は左セクション)は、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されない(メディアの任意のメディア処理スタイル(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルなど)は、メディアの表現の領域/縁部に適用されない)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、コンピュータシステムは、メディアの表現の第7の部分(例えば、660a、660b、右セクション、及び/又は左セクション)が第1のメディア処理スタイルを使用して表示されない状態から第1のメディア処理スタイルを使用して表示される状態に遷移する(例えば、メディアの表現に適用されている第1のメディア処理スタイルをフェードインする)アニメーションを表示する。表現に向けられた入力を検出したことに応じて、第1のメディア処理スタイルを使用して表示されていない状態から第1のメディア処理スタイルを使用して表示されている状態に遷移するメディアの表現の第2の領域のアニメーションを表示することは、(例えば、第1のメディア処理スタイルが表現の第2の領域にどのように影響し得るかをユーザが見たいと思う可能性が高いとき)第1のメディア処理スタイルが表現の第2の領域にどのように影響し得るかに関するフィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示されるスタイル選択ユーザインタフェースを表示する前に、コンピュータシステムは、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクト(例えば、844a)を表示する。いくつかの実施形態では、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクト(例えば、844a)を表示している間に、コンピュータシステムは、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクトに向けられた入力(例えば、850a)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する)。いくつかの実施形態では、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a)が適用された以前にキャプチャされたメディア(例えば、サンプルメディア、コンピュータシステムによってキャプチャされていないメディア、及び/又はテンプレート)の表現(例えば、878a)と、第2のメディア処理スタイル(例えば、634b)が適用された以前にキャプチャされたメディア(例えば、サンプルメディア、コンピュータシステムによってキャプチャされていないメディア、及び/又はテンプレート)の表現(例えば、878b)とを同時に表示することを含む個別のユーザインタフェースを表示する。いくつかの実施形態では、それぞれを表示している間、コンピュータシステムは、個別のユーザインタフェースに向けられた入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出する)。いくつかの実施形態では、個別のユーザインタフェースに向けられた入力を検出したことに応じて、かつ個別のユーザインタフェースに向けられた入力が第1のメディア処理スタイルを使用するオプションの選択に対応するという判定に従って、コンピュータシステムは、メディアユーザインタフェースを表示する要求を検出したことに応じて(例えば、第2のメディア処理スタイルを使用せずに)メディアの表現を含むユーザインタフェースを表示する。いくつかの実施形態では、個別のユーザインタフェースに向けられた入力を検出したことに応じて、かつ個別のユーザインタフェースに向けられた入力が第2のメディア処理スタイルを使用するオプションの選択に対応するという判定に従って、コンピュータシステムは、メディアユーザインタフェースを表示する要求を検出したことに応じて(例えば、第1のメディア処理スタイルを使用せずに)第2のメディア処理スタイルを使用するメディアの表現を含むユーザインタフェースを表示する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、選択されると、スタイル選択ユーザインタフェースを表示させる(例えば、コンピュータシステムをトグルさせる)第1のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されるとスタイルセクションユーザインタフェースを表示させる(例えば、又は表示を中止させる)ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、第1のスタイルモードユーザインタフェースオブジェクトは、1つ以上のカメラ設定ユーザインタフェースオブジェクト(例えば、688)と同時に表示される(例えば、1つ以上のカメラ設定ユーザインタフェースオブジェクト(例えば、カメラ設定を制御するためのオブジェクトのユーザインタフェース)は、1つ以上のカメラがメディアをキャプチャするように構成されたカメラキャプチャモード(例えば、各カメラキャプチャモードの設定)に基づいて表示される)。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトが表示される前に、コンピュータシステムは、個別のユーザインタフェースに向けられた入力(例えば、650w)(例えば、スワイプ入力、タップ入力、及び/又はドラッグ入力)を検出し、個別のユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、以前に表示されなかった)及び1つ以上のカメラ設定アフォーダンス(例えば、以前に表示されなかった)を表示するためのユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、1つ以上のカメラ設定ユーザインタフェースオブジェクトのうちの個別のカメラ設定ユーザインタフェースオブジェクトの選択を検出したことに応じて、コンピュータシステムは、カメラ設定を調整するための1つ以上のコントロール(例えば、選択されたときにコンピュータシステムにモード(例えば、フラッシュモード、夜間モード、動画キャプチャモード、及び/又はタイマモード)をオンにさせるコントロール、選択されたときにコンピュータシステムにモードをオフにさせるコントロール)、選択されたときにキャプチャ設定の値(例えば、露出値、タイマモードの時間値)を調整させるコントロール、及び/又はメディアをキャプチャ及び/又は表示するために使用される1つ以上のフィルタ及び/又はズームレベルを変更するためのコントロール)を表示する。1つ以上のユーザカメラ設定ユーザインタフェースオブジェクトと同時に第1のスタイルモードユーザインタフェースオブジェクトを含むスタイル選択ユーザインタフェースを表示することは、ユーザが1つ以上のユーザカメラ設定を制御するためのコントロールにアクセスすることを可能にしながら、スタイル選択ユーザインタフェースを表示させ、表示を中止させることができるコントロールにユーザがアクセスすることを可能にし、これは、それぞれのコントロールが同時に表示されなかった場合に、それぞれのコントロールにアクセスするためにかかる入力の数を低減する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、選択されると、スタイル選択ユーザインタフェースを表示させる(例えば、コンピュータシステムをトグルさせる)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されると、スタイルセクションユーザインタフェースを表示させる(例えば、又は表示を中止させる)ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、コンピュータシステムは、第2のメディア処理スタイルを使用して表現(例えば、630)の第1の部分を表示し、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)を第3の外観(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線であり、(例えば、図6Lに関連して上述したように)この線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある)で表示する。いくつかの実施形態では、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第2の部分を検出したことに応じて、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトを、(例えば、図6Lに関連して上述したように)(例えば、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示し、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間)第3の外観で表示されている状態から、第3の外観とは異なる第4の外観で表示される状態に変更する(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線、線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある)(例えば、第2のスタイルモードユーザインタフェースを表示する、及び/又はその変化のアニメーションを表示する)。第2のスタイルモードユーザインタフェースオブジェクトを第3の外観で表示されている状態から第4の外観で表示されている状態に変更することは、表現に適用されているメディア処理スタイルへの切り替えが表現の表示にどのように異なって影響を与えるかに関して、ユーザに視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を第3の外観で表示されている状態から第4の外観で表示されている状態に変更することの一部として、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの値(例えば、626a及び/又は626b)が第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの値(例えば、626a及び/又は626b)と異なるという判定に従って、コンピュータシステムは、(例えば、図6Lに関連して上述したように)第1の視覚的態様(例えば、602bの色及び/又は602bの周りの線の表示)(例えば、少なくとも一部(及び、いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の境界(例えば、第2のメディア処理スタイルの取り囲む線)を含む部分)の色、陰影、及び/又は色合い)の表示を、(例えば、第1のメディア処理スタイルの第1のパラメータの値が第2のメディア処理スタイルの第1のパラメータの値と異なるという判定に基づいて第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更することなく)変更する。いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの値が第2のメディア処理スタイルの第1のパラメータの値と異ならないという判定に従って、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様を変更しない。いくつかの実施形態では、(例えば、方法1000に関連して上述したように)表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示している間、第1の視覚的態様は第1の色に対応し(及び/又は第1の色によって表され)、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力の第2の部分を検出したことに応じて、第2の視覚的態様は、第1の色とは異なる第2の色に対応する(及び/又は第2の色によって表される)。いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータ例えば、626a及び/又は626b)の値が第2のメディア処理スタイルの第2のパラメータ(例えば、626a及び/又は626b)の値と異なるという判定に従って、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を第3の外観で表示されている状態から第4の外観で表示されている状態に変更することの一部として、第1のパラメータが第2のパラメータと異なる場合、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様((例えば、図6Lに関連して上述したように)例えば、602bの色及び/又は602bの周りの線)(例えば、第2のメディア処理スタイルの少なくとも一部(例えば、第2のスタイルモードユーザインタフェースオブジェクトの周囲である、に隣接する、及び/又は、それを取り囲む境界線及び/又は線)のサイズ、長さ、及び/又は塗りつぶし)の表示を変更する。いくつかの実施形態では、第2の視覚的態様は、第1の視覚的態様と異なる(例えば、第1のメディア処理スタイルの第2のパラメータの値が第2のメディア処理スタイルの第2のパラメータの値と異なるという判定に基づいて、第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様を変更しない)。いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータの値が第2のメディア処理スタイルの第2のパラメータの値と異ならないという判定に従って、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更しない。いくつかの実施形態では、(例えば、方法1000に関連して上述したように)表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示している間、第2の視覚的態様は第1の長さに対応し(及び/又は第1の長さによって表され)、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力の第2の部分を検出したことに応じて、第2の視覚的態様は、第1の長さとは異なる第2の長さに対応する(及び/又は第2の長さによって表される)。特定のパラメータの値が変更されたかどうかに基づいて、第2のスタイルモードユーザインタフェースオブジェクトの特定の視覚的態様の表示を変更することは、メディア処理スタイルに対してどのパラメータが変更されたかに関して、ユーザに視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、コンピュータは、(例えば、生のキャプチャインジケータ602bが非アクティブ状態で表示されている場合)第1のファイルフォーマット(例えば、JPEG及び/又はHEICなどの圧縮フォーマット)でメディア(例えば、及び/又はキャプチャメディア)を記憶するように構成されている。いくつかの実施形態では、コンピュータシステムが第1のファイルフォーマットでメディアをキャプチャして記憶するように構成されている間、かつ第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)がアクティブ状態(例えば、有効状態(例えば、コンピュータシステムがユーザインタフェースオブジェクトに向けられた1つ以上の入力を検出したことに応じてアクションを実行する状態)で表示されている間、コンピュータシステムは、第1のファイルフォーマットとは異なる第2のファイルフォーマット(例えば、生画像フォーマット)でメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求(例えば、650v)を検出する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、(例えば、図6V~図6Yに関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクトをアクティブ状態で表示することを中止する(例えば、第2のスタイルモードユーザインタフェースオブジェクトを表示することを中止する、及び/又は第2のスタイルモードユーザインタフェースオブジェクトを非アクティブ状態(例えば、無効状態(例えば、ユーザインタフェースオブジェクトに向けられた1つ以上の入力を検出したことに応じてコンピュータシステムがアクションを実行しない状態))で表示する)。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出することの一部として、コンピュータシステムは、1つ以上のカメラでメディアをキャプチャするためのファイルフォーマットを制御するための第1の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力、プレスアンドホールド入力、及び/又はスワイプ入力)を検出する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャし記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、1つ以上のカメラでメディアをキャプチャするためのファイルフォーマットを制御するための第1の選択可能なユーザインタフェースオブジェクトを、非アクティブ状態で表示されている状態からアクティブ状態で表示されている状態に変更する。第2のファイルフォーマットでメディアをキャプチャし記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、第2のスタイルモードユーザインタフェースオブジェクトをアクティブ状態で表示することを中止することは、メディア処理スタイルが適用されておらず、コンピュータが第2のファイルフォーマットでメディアをキャプチャ及び記憶するように構成されているときにメディア処理スタイルを適用することが利用可能でないという視覚的フィードバックをユーザに提供し、これは視覚的フィードバックを改善する。
方法900(例えば、図9)に関して上述したプロセスの詳細はまた、本明細書に記載の方法に類似する方式でも適用可能であることに留意されたい。例えば、方法900は、方法1000を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900は、1つ以上のメディア処理スタイルを選択するために使用することができ、方法1000は、方法900を使用して選択されたメディアを編集するために使用することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図10A~10Bは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。方法1000は、表示生成構成要素(例えば、ディスプレイコントローラ及び/又はタッチ感知ディスプレイシステム)、及び1つ以上の入力デバイス(例えば、タッチ感知面及び/又は1つ以上のカメラの第1のカメラ(例えば、コンピュータシステムの同じ側又は異なる側の1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クワッドカメラなど)(例えば、フロントカメラ及び/又はバックカメラ)、コンピュータシステム)と通信するコンピュータシステム(例えば、100、300、500、600)(例えば、スマートフォン、デスクトップコンピュータ、ラップトップ、及び/又はタブレット)において実行される。方法1000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法1000は、コンピュータシステムを使用してメディア処理スタイルを編集するための直感的な方法を提供する。この方法は、コンピュータシステムを使用してメディア処理スタイルを編集するユーザの認識的負担を低減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、ユーザがコンピュータシステムを使用してメディア処理スタイルを、より速く、より効率的に編集することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
コンピュータシステムは、表示生成構成要素を介して、表現(例えば、例えば、630、676a、676b、676c、680c、及び/又は680d)を含むユーザインタフェース(例えば、スタイル選択ユーザインタフェース、メディアキャプチャユーザインタフェース、メディア閲覧ユーザインタフェース、メディア編集ユーザインタフェース)(例えば、写真メディア、ビデオメディア)(例えば、ライブメディア、ライブプレビュー(例えば、メディアをキャプチャする要求を検出したこと(例えば、シャッターアフォーダンス(例えば、ユーザインタフェースオブジェクト)の選択を検出したことに応じて)記憶/キャプチャされていない1つ以上のカメラの視野(例えば、現在の視野)の表現に対応するメディア、以前にキャプチャされたメディア(例えば、キャプチャされた1つ以上のカメラの視野(例えば、以前の視野)の表現に対応するメディア)、保存されており、後でユーザによってアクセス可能であるメディアアイテム、及び/又は、メディアの(例えば、メディアギャラリー内の)メディアのサムネイル表現上のジェスチャを受信したことに応じて表示されたメディアの表現(例えば、(例えば、カメラモードで動作している間)(例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間)コンピュータシステムの1つ以上のカメラによってキャプチャされている又はキャプチャされた情報、データ)を表示し(1002)、メディアの表現は、メディアの視覚的コンテンツに適用される第1のメディア処理スタイル(634a~634d、634aa、及び/又は634dd)(例えば、に従って)を使用して表示される。いくつかの実施形態では、第1のメディア処理スタイルは、複数のメディア処理スタイルのうちの1つである。いくつかの実施形態では、複数のスタイルの各々は、同じパラメータのセットを有する。いくつかの実施形態では、パラメータのセットは、(例えば、第2のスタイルがメディアに適用されていない)視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)のセットである。
第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用してメディアの表現を表示している間に、コンピュータシステムは、表示生成構成要素を介して、第1のメディア処理スタイルのパラメータ(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)を表示するための複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの第1のパラメータの現在値(例えば、数(例えば、0~100)、パーセンテージ(例えば、0~100%)、コントロール(例えば、スライダ、回転可能ノブ)(例えば、スライダ上の特定ポジションに表示されるスライダバー)上の数の指示、第1の値について示される1つ以上の特徴)、圧縮コントロール及び/又はコントロールの一部)の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)で表示される(例えば、同時に表示される、含む)第1のメディア処理スタイルの第1のパラメータ(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aで示される)(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)を編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(1006)と、第1のメディア処理スタイルの第2のパラメータの現在値(例えば、数(例えば、0~100)、パーセンテージ(例えば、0~100%)、コントロール(例えば、スライダ及び/又は回転可能ノブ)(例えば、スライダ上の特定ポジションに表示されるスライダバー)上の数の指示、第1の値について示される1つ以上の特徴)、圧縮コントロール、及び/又はコントロールの一部)の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)で表示される(例えば、同時に表示される、含む)第1のメディア処理スタイルの第2のパラメータ(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aで示される)(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)と、第2の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(1008)とを含み(1004)、第1のパラメータは第2のパラメータとは異なる。いくつかの実施形態では、第1の値がパラメータの第1の量に対応するという判定に従って、第1の値は、第1のパラメータの第1の量を示すように表示される。いくつかの実施形態では、第1の値がパラメータの第2の量に対応するという判定に従って、第1の値は、第1のパラメータの第2の量を示すように表示され、第1の量は第2の量とは異なる。いくつかの実施形態では、第2のパラメータの第1の値は、第1のパラメータの第1の値とは異なる。いくつかの実施形態では、第1の選択可能なユーザインタフェースオブジェクトは、第2の選択可能なユーザインタフェースオブジェクトとは異なる。いくつかの実施形態では、複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されるかを編集する要求が適用される前に表示されなかった。いくつかの実施形態では、第1のメディア処理スタイルのパラメータを編集するための複数の選択可能なユーザインタフェースオブジェクトは、互いに隣接して(例えば、一列に互いに隣接して)表示される(例えば、互いに一直線に位置合わせされる)。
コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間に)、例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間に)、1つ以上の入力デバイスを介して、入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出する)を検出する(1010)。
入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(1012)(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含む移動入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用してメディアの表現を表示している間、及び/又は特定のカメラモードで動作し続けている間、及び/又は特定のスタイルモード(例えば、メディア処理スタイルモード)で動作し続けている間)(及び/又はいくつかの実施形態では、第1のメディア処理スタイルに対応する第1のパラメータを編集するために第1の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャを検出したことに応じて)コンピュータシステムは、入力が第1のメディア処理スタイルに対応するパラメータを編集するために複数の選択可能なユーザインタフェースオブジェクトに向けられていると判定したことに従って、表示生成構成要素を介して、(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aによって示されるように)第1のパラメータの現在値を調整(例えば、変更)するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(例えば、スライダ及び/又は回転可能ノブ)(例えば、拡張コントロール(例えば、以前に表示されていた圧縮コントロールの拡張コントロール)を(例えば、第2のパラメータの第1の値を調整するためのコントロールを表示することなく)(例えば、第1のパラメータの第2の値を調整することなく)(例えば、視覚的コンテンツに適用されている第1のメディア処理スタイルの表示と同時に)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)表示する(1014)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールに向けられた入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、プレスアンドホールドジェスチャ、及び/又は音声入力)を検出したことに応じて)、コンピュータシステムは、(例えば、第1のパラメータの現在値を反映するように)メディアの表現及び/又はメディアの表現の一部を更新する、及び/又は第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールに向けられた入力を検出したことに応じて、コンピュータシステムは、第2のパラメータの現在値を反映するようにメディアの表現及び/又はメディアの表現の一部を更新しない、及び/又は第2のパラメータの現在値を更新しない。
入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(1012)(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含む移動入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用してメディアの表現を表示している間、及び/又は特定のカメラモードで動作し続けている間、及び/又は特定のスタイルモード(例えば、メディア処理スタイルモード)で動作し続けている間)(及び/又はいくつかの実施形態では、第1のメディア処理スタイルに対応する第2のパラメータを編集するために第2のユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャを検出したことに応じて)コンピュータシステムは、入力が第1のメディア処理スタイルに対応するパラメータを編集するために複数の選択可能なユーザインタフェースオブジェクトに向けられていると判定したことに従って、表示生成構成要素を介して、(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aによって示されるように)第2のパラメータの現在値を調整(例えば、変更)するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(例えば、スライダ及び/又は回転可能ノブ)(例えば、拡張コントロール(例えば、以前に表示されていた圧縮コントロールの拡張コントロール)を(例えば、第1のパラメータの第1の値を調整することなく)(例えば、視覚的コンテンツに適用されている第1のメディア処理スタイルの表示と同時に)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)表示する(1016)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールに向けられた入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて)、コンピュータシステムは、(例えば、第2のパラメータの現在値を反映するために)メディアの表現及び/又はメディアの表現の一部を更新する、及び/又は第2のパラメータの現在値を更新する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を反映するようにメディアの表現及び/又はメディアの表現の一部を更新しない、及び/又は第1のパラメータの現在値を更新しない。入力が、第1のメディア処理スタイルの個別のパラメータを編集するための個別のユーザインタフェースオブジェクトに向けられているという判定に従って、個別のパラメータの現在値を調整するための個別のコントロールを表示することは、ユーザが、入力が向けられた個別のユーザインタフェースオブジェクトに基づいて、個別のパラメータの現在値を調整するためのコントロールにアクセスすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供する。第1のメディア処理スタイルを使用してメディアの表現を表示している間に、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを同時に表示することは、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されるかを編集するために使用され得る複数の選択可能なユーザインタフェースオブジェクトに関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)の表示の一部として、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの現在値の第2の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を(例えば、第1のコントロールと同時に、第1のコントロールの一部として)表示する。いくつかの実施形態では、第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値の第2の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を(例えば、第2のコントロールと同時に、第2のコントロールの一部として)表示する。入力が、個別のパラメータを編集するための個別のユーザインタフェースオブジェクトに向けられているという判定に従って、個別のコントロールの現在のそれぞれの値の表現を有する個別のコントロールを表示することは、個別のパラメータの現在値、及びメディア処理スタイルがどのように視覚的コンテンツに適用されるかを変更するために、ユーザが個別のパラメータの現在値をどのように調整することができるかに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)と第1のメディアスタイルについての複数の選択可能なユーザインタフェースオブジェクト(626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)とを使用してメディアの表現(例えば、630、676a、676b、676c、680c、及び/又は680d)を表示している間に(例えば、特定のスタイルモード(例えば、メディア処理スタイル選択モード)で動作している間に)、コンピュータシステムは、メディアの視覚的コンテンツに適用される第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、1つ以上の視覚的特性において第1のスタイルとは異なるスタイル)を使用してメディアの表現を表示する要求(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用して(例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間に)メディアの表現を表示する要求(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を中止する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトと同時に、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトは、第2のメディア処理スタイルの第3のパラメータの現在値の表現と共に表示される、第2のメディア処理スタイルの第3のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトと、第2のメディア処理スタイルの第4のパラメータの現在値の表現と共に表示される、第2のメディア処理スタイルの第4のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトとを含む。いくつかの実施形態では、第3のパラメータは、第4のパラメータと異なる(例えば、異なるタイプのパラメータ)。いくつかの実施形態では、第1のパラメータは、第3のパラメータと同じ(例えば、同じタイプのパラメータ)である。いくつかの実施形態では、第2のパラメータは、第4のパラメータと同じ(例えば、同じタイプのパラメータ)である。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、入力が第2のメディア処理スタイルの第3のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第3のパラメータの現在値を調整するためのコントロールを表示する。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、入力が第2のメディア処理スタイルの第4のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第4のパラメータの現在値を調整するためのコントロールを表示する。メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を中止することは、コンピュータシステムが、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することを可能にし、これは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられたものであるという判定に従って)、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を拡張する(及び/又は拡大する)(例えば、第1のパラメータの現在値を調整するための第1のコントロールを表示するために)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のメディア処理スタイルの第1のパラメータを編集するための第1のユーザインタフェースオブジェクトが占有していたのと同じ領域(及び/又は同じ領域の一部)を、第1のパラメータの現在値を調整するための第1のコントロールが占有するように、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを一直線に拡張する)(例えば、拡張のアニメーションを表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示することの一部として(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、及び入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられたものであるという判定に従って)、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを拡張する(例えば、第2のパラメータの現在値を調整するための第2のコントロールを表示するために)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトが占有していたのと同じ領域(及び/又は同じ領域の一部)を、第2のパラメータの現在値を調整するための第2のコントロールが占有するように、第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトを一直線に拡張する)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに関連する(例えば、第1の選択可能なユーザインタフェースオブジェクトのより大きなバージョンである、第1の選択可能なユーザインタフェースオブジェクトよりも大きい、第1の選択可能なユーザインタフェースオブジェクトの一部を含む、及び/又は第1の選択可能なユーザインタフェースオブジェクトの1つ以上の特性を含む)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールは、第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに関連する(例えば、第2の選択可能なユーザインタフェースオブジェクトのより大きなバージョンである、第2の選択可能なユーザインタフェースオブジェクトよりも大きい、第2の選択可能なユーザインタフェースオブジェクトの一部を含む、及び/又は第2の選択可能なユーザインタフェースオブジェクトの1つ以上の特性を含む)。表示生成構成要素を介して、入力に応じて第1のパラメータの現在値を調整するための第1のコントロールを表示することの一部として、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを拡張することは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトが第1のパラメータの現在値を調整するための第1のコントロールに対応するという視覚的フィードバックをユーザに提供し、これは、ユーザの混乱を低減すると同時に、混乱が解消されたユーザインタフェースを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間に)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを表示するために)(例えば、縮小するアニメーションを表示するために)第1のパラメータの現在値を調整するための第1のコントロールのサイズを低減させる(例えば、縮小する)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト及び第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを再表示する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを再表示し、入力が検出される前に第1のパラメータの現在値の表現が以前に表示されていたポジションから第2のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト上の異なるポジションに第1のパラメータの現在値の表現を表示する。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の検出を継続している間)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小する(例えば、第1のメディア処理スタイルの第2のパラメータの現在値の表現と共に表示される第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを表示する)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトと、第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトとを再表示する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを再表示し、第2のパラメータの現在値の表現を、入力が検出される前に第2のパラメータの現在値の表現が以前に表示されていたポジションから第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクト上の異なるポジションに表示する。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第1のパラメータの現在値を調整するための第1のコントロールのサイズを縮小することにより、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトが第1のパラメータの現在値を調整するための第1のコントロールに対応するという視覚的フィードバックがユーザに提供され、これにより、ユーザの混乱が低減される一方で、混乱が解消されたユーザインタフェースも提供され、改善された視覚的フィードバックが提供される。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出する前に、第1のパラメータの現在値は、(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)第1の値である。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間に)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示する。いくつかの実施形態では、現在値は、第1の値とは異なる第2の値である。いくつかの実施形態では、第2の値は第1の値と同じである。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示している間に、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、第2のパラメータの現在値の表現を表示し、第2のパラメータの表現の現在値は、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出された後の値であり、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前の現在値と同じである(例えば、第2のパラメータの現在値は変化しない)。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する前に、第1のパラメータの現在値は第3の値であり、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、第2のパラメータの現在値の表現を表示する。いくつかの実施形態では、現在値は、第4の値とは異なる第3の値である(及び/又は、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のパラメータの現在値が表示されていたのと同じ値として第1のパラメータの現在値の表現を表示する)。第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第1の値とは異なる第2の値である、第1のパラメータの現在値の表現を表示することは、第1のパラメータの現在値が入力によって調整されたことを理解するための視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)は、第1のパラメータの第1の値の範囲(例えば、-100~100)の第1の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)で表示され(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの現在値の表現は、第1の値の範囲の表現上に表示される、隣接する、及び/又は含まれる)、(図7A~7Bに関連して上述したように)第1の値の範囲は、第1の値を表す第1の値の範囲の第1の表現内の第1の点と、第2の値を表す第1の値の範囲の第1の表現内の第2の点との間の第1の距離を有する。いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として、コンピュータシステムは、(例えば、図7A~図7Bに関連して上述したように)第1の値を表す値の範囲の第2の表現内の第1の点と、第2の値を表す値の範囲の第2の表現内の第2の点との間に、(例えば、表示生成構成要素上に)第1の距離より大きい(例えば、表示生成構成要素上に)第2の距離を有する値の範囲の第2の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)を表示する。いくつかの実施形態では、第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトは、第2のパラメータの第1の範囲の値(例えば、-100~100)の第3の表現と共に表示され(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの現在値の表現は、第1の範囲の値の表現上に表示され、隣接して表示され、及び/又は第1の範囲の値の表現に含まれる)、第2のパラメータの第1の範囲の値は、第3の値を表す第2のパラメータの第1の範囲の値の第3の表現における第1の点と、第4の値を表す第2のパラメータの第1の範囲の値の第3の表現における第2の点との間の第3の距離を有する。いくつかの実施形態では、第2のコントロールを表示することの一部として、コンピュータシステムは、第3の値を表す第2のパラメータの値の第2の範囲の第4の表現内の第1の点と、第4の値を表す第2のパラメータの値の第2の範囲の第4の表現内の第2の点との間に、第3の距離よりも大きい第4の距離を有する、第2のパラメータの値の第2の範囲の第4の表現を表示する。いくつかの実施形態では、第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトは、第1のパラメータの第2の範囲の値(例えば、-100~100)の表現を含む(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータの現在値の表現は、第2の範囲の値の表現上に表示され、第2の範囲の値の表現に隣接し、及び/又は第2の範囲の値の表現に含まれる)。いくつかの実施形態では、第2のコントロールを表示することの一部として、コンピュータは、第2のパラメータの値の第1の範囲のサブセットである値の範囲(例えば、30~60)の表現を表示する(例えば、第2のパラメータの値の第1の範囲の表現の表示を中止する)。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間(及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出し続けている間)、コンピュータシステムは、(例えば、ユーザインタフェース上で)第1のパラメータの現在値を調整するための第1のコントロールの第1のサイズを増加させる(例えば、第1のコントロールにズームインする、個別のパラメータの現在値を調整するための個別のコントロールの1つ以上の部分を、コントロールが以前に表示されていたよりも増加した、より大きなサイズで表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間(及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出し続けている間)、第2のパラメータの現在値を調整するための第2のコントロールのサイズを増加させる(例えば、ユーザインタフェース上で)(例えば、第2のコントロールにズームインする)。第1のコントロールを表示することの一部として、第1の値を表す第2の点と第2の値を表す第2の点との間に第1の距離よりも大きい第2の距離を有する値の範囲の表現を表示することは、第1のパラメータの現在値を調整するための第1のコントロールが入力を介して第1のパラメータの現在値を変更するように操作され得るという視覚的フィードバックをユーザに提供し、第1の値を表す点と第2の値を表す点との間の値に焦点を合わせる及び/又は選択する(例えば、より容易に選択する)能力をユーザに与え、これは、ユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)は、第1のパラメータについての第3の値域の第3の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)と共に表示され、第3の値域は、第3の値を表す第3の値域の第3の表現内の第1の点と、第4の値を表す第3の値域の第3の表現内の第2の点との間の第3の距離を有する。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの第3の値の範囲の第3の表現で第1のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を、第3の値を表す値の範囲の第5の表現内の第1の点と、第4の値を表す値の範囲の第5の表現内の第2の点との間の第3の距離よりも短い(例えば、表示生成構成要素上の)第4の距離を有する値の範囲の第5の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)で(例えば、表示生成構成要素上に)表示する。いくつかの実施形態では、第2のコントロールは、第2のパラメータの値の第5の範囲の第5の表現で表示され、値の第5の範囲は、第5の値を表す第2のパラメータの値の範囲の第5の表現内の第1の点と、第6の値を表す第5の値の範囲の第5の表現内の第2の点との間の第5の距離を有する。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの第5の値の範囲の第5の表現で第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第5の値を表す第2のパラメータの値の範囲の第6の表現内の第1の点と、第6の値を表す第2のパラメータの値の範囲の第6の表現内の第2の点との間に、第5の距離よりも小さい第6の距離を有する値の範囲の第6の表現を有する第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、第1のコントロールは、第1のパラメータの値の第2の範囲の値(例えば、-100~100)のサブセット(例えば、30~60)(例えば、値の第2の範囲の間にある最小値及び最大値を有する)である値の範囲の表現と共に表示される。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの第2の範囲の値のサブセットの表現を有する第1のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの値の第2の範囲の表現を表示する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの第2の範囲の値のサブセットの表現の表示を中止する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの第2の範囲の値の表現と同時に、第2のパラメータの第2の範囲の値の表現(例えば、第1のパラメータの第2の範囲の値のサブセットの表現が表示された間に以前に表示されなかった表現)を表示する。いくつかの実施形態では、第2のコントロールは、第2のパラメータの値の第2の範囲のサブセット(例えば、30~60)である値の範囲の表現と共に表示される。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの第2の範囲の値のサブセットの表現を有する第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第2のパラメータの第2の範囲の値の表現を表示する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のパラメータの第2の値の範囲のサブセットの表現を表示することを中止する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールの第2のサイズ(例えば、上の段落の第1のサイズと同じ)を(例えば、ユーザインタフェース上で)減少させる(例えば、第1のコントロールをズームアウトする、個別のパラメータの現在値を調整するための個別のコントロールの1つ以上の部分を、コントロールが以前に表示されていたサイズよりも減少した、より小さいサイズで表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールのサイズを減少させる。第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを、第3の値を表す第2の点と第4の値を表す第2の点との間に第3の距離よりも小さい第4の距離を有する値の範囲の表現と共に表示することは、第1のパラメータの現在値を調整するための第1のコントロールが、入力を介して第1のパラメータの現在値を変更するためにもはや操作され得ないという視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出したことに応じて、及び入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第2のパラメータ(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)の現在値を調整するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を、ユーザインタフェース上の第1のロケーションからユーザインタフェース(及び/又は第1のメディア処理スタイルの他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)上の第2のロケーション(例えば、第1のロケーションとは異なる)に移動させる。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールを、ユーザインタフェース上の第3のロケーションからユーザインタフェース上の(例えば、第3のロケーションとは異なる)第4のロケーション(及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトの1つ以上)に移動させる。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの第1のパラメータを編集するために入力が第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、第2のパラメータの現在値を調整するための第2のコントロールをユーザインタフェース上の第1のロケーションから第2のロケーションに移動させることは、第1のメディア処理スタイルの第1のパラメータを編集するために入力が第2の選択可能なユーザインタフェースオブジェクトに向けられていなかったという視覚的フィードバックをユーザに提供し、ユーザが必要に応じて起こり得る誤りを訂正することを可能にし、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出したことに応じて、及び入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられているという判定に従って、コンピュータシステムは、第2のパラメータ(及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)の現在値を調整するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することを中止する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第1のパラメータ(例えば、及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)の現在値を調整するための第1のコントロールを表示することを中止する。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに入力が向けられたという判定に従って、第2のパラメータの現在値を調整するための第2のコントロールの表示を中止することは、第1のメディア処理スタイルの第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに入力が向けられなかったという視覚的フィードバックをユーザに提供し、ユーザが必要に応じて起こり得る誤りを訂正することを可能にし、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用してメディアの表現を表示している間、かつ第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する前に、第1のメディア処理スタイル(例えば、634a~634d)に対応する第1の識別子(例えば、636a~636d)(例えば、1つ以上の記号及び/又はテキスト(例えば、「標準」、「鮮やかな」)が表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750g)を検出したことに応じて、かつ第1のパラメータの現在値が変化したという判定に従って(例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の後、の後、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の、第1のメディア処理スタイルの第1のパラメータのデフォルト値(例えば、所定値)(例えば、0)とは異なる値(例えば、数値(例えば、-100-100)、及び/又はパーセンテージ)への(又はである)移動を検出したことに応じて(及び/又は第2のパラメータの現在値が変化したという判定に従って(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の後、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の、第1のメディア処理スタイルの第2のパラメータのデフォルト値とは異なる値への(又はである)移動を検出したことに応じて)、コンピュータシステムは、第3のメディア処理スタイル(例えば、634aa及び/又は634dd)(例えば、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイル、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に予め定義されなかったメディア処理スタイル)に対応する第2の識別子(例えば、636aa及び/又は636dd)(例えば、1つ以上の記号及び/又はテキスト(例えば、「カスタム」、「カスタム-標準」、「カスタムー鮮やかな」))を表示する。いくつかの実施形態では、第2の識別子は、第1の識別子とは異なる(かつ第1の識別子を表示するのをやめる)。いくつかの実施形態では、第2の指示は、第1の識別子の一部(例えば、1つ以上の単語)を含む。いくつかの実施形態では、第2の識別子を表示している間、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた他の入力を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた他の入力を検出したことに応じて、かつ第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータのデフォルト値であり、第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータのデフォルト値であるという判定に従って、コンピュータシステムは、第1の識別子を表示し(例えば、再表示し)、第2の識別子の表示を中止する。いくつかの実施形態では、第1のメディア処理スタイルは第3のメディア処理スタイルとは異なる。いくつかの実施形態では、第1のメディア処理スタイルは、所定のメディア処理スタイル(例えば、コンピュータシステムに向けられた入力を検出したことに応じて作成されないスタイル)であり、第3のメディア処理スタイルは、所定のメディア処理スタイルではない。第1のパラメータの現在値が第1のパラメータのデフォルト値とは異なる値に変化したという判定に従って第3のメディア処理スタイルに対応する第2の識別子を表示することは、第1のメディア処理スタイルの少なくとも1つのパラメータがメディア処理スタイルの少なくとも1つのパラメータのデフォルト値ではないように第1のメディア処理スタイルが編集されたという視覚的フィードバック、及び/又はユーザによってカスタマイズされたカスタムメディア処理スタイルが作成されたという視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、ユーザインタフェースは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)を含む。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)を表示している間に、コンピュータシステムは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)を検出したことに応じて、コンピュータシステムは、(例えば、及び/又は第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータのデフォルト値に設定するため)第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、626d2bによって表される)を、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として表示する(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、626d2bによって表される)(例えば、数値(例えば、-100~100)、パーセンテージ)。(例えば、及び/又は第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第2のパラメータのデフォルト値に設定するため)第1のメディア処理スタイルの第2のパラメータの現在値の表現を、第1のメディア処理スタイルの第2のパラメータの第2のデフォルト値として表示する(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)(例えば、数値(例えば、-100~100)、パーセンテージ)。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のパラメータ及び/又は第2のパラメータの現在値の表現を表示することなく)第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として設定し、第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として設定する。いくつかの実施形態では、第1のパラメータのデフォルト値は、第2のパラメータのデフォルト値とは異なる。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの第1のパラメータの現在値が第1のパラメータのデフォルト値ではない値である、及び/又は第2のメディア処理スタイルの第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータのデフォルト値ではない値であるという判定に従ってのみ表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて(かつ、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、かつ/又は表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間に)、コンピュータシステムは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトと同時に表示され、第1のパラメータの現在値を調整するための第1のコントロール(又は第2のパラメータの現在値を調整するための第2のコントロール)と同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトと同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)を検出したことに応じて、コンピュータシステムは、(例えば、図7W~7Xに関連して上述したように)第1のメディア処理スタイルの第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値へと変化する(例えば、時間と共に徐々に変化する)アニメーションを表示する。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータの第2のデフォルト値に変化するアニメーションを表示する。いくつかの実施形態では、第1のメディア処理スタイル変更の第1のパラメータの現在値のアニメーションは、第1のメディア処理スタイル変更の第2のパラメータの現在値のアニメーションと同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のパラメータについての第1のユーザインタフェースオブジェクトに変化する第1のコントロールのアニメーションを表示する。第1のメディア処理スタイルの第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に変化するアニメーションを表示することは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力が第1のメディア処理スタイルの第1のパラメータの現在値を変化させたというフィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルの第1のパラメータの現在値の表現及び第1のメディア処理スタイルの第1のパラメータの現在値をデフォルト値として表示(及び/又は設定)することは、複数の入力の代わりに1つの入力を介してメディア処理スタイルをリセットする能力をユーザに提供し、これは、動作を実行するために必要な入力の数を低減する。
いくつかの実施形態では、プロンプト(例えば、768)は、第1のメディア処理スタイルの1つ以上のパラメータのうちの少なくとも1つがどのようにリセットされるかの指示(例えば、「暖かいにリセット」、「冷たいにリセット」、「中立にリセット」、「リッチにリセット」、及び/又は「ソフトにリセット」)で表示される(例えば、指示は、特性を含む)(例えば、「暖かさ」パラメータの特性である「暖かい及び/又は冷たい」及び/又は「トーン」パラメータの特性である「ソフト」などのパラメータの特性を示す単語)。第1のメディア処理スタイルの1つ以上のパラメータのうちの少なくとも1つがどのようにリセットされるかの指示を含むプロンプトを表示することは、1つ以上の追加の入力がユーザから受信された場合に、第1のメディア処理スタイルの1つ以上のパラメータが特定の方法で及び/又は特定のスタイルにリセットされるという視覚的フィードバックをユーザに提供し、これは、視覚的フィードバックを改善し、意図しない動作の実行を低減する。
いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)に向けられた入力(例えば、750w及び/又は750w1)を検出する前に、コンピュータシステムは、選択されると、第1の選択されたメディア処理スタイル(634a~634d)が適用された表現(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されるとスタイルセクションユーザインタフェースを表示させるユーザインタフェースオブジェクト)を表示させる(例えば、コンピュータシステムに切り替えを行わせる、又は第1の選択された個別のメディア処理スタイルが適用されずに表現を表示させる、第1のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を表示する。いくつかの実施形態では、第1のスタイルモードユーザインタフェースオブジェクトは、(例えば、方法900及び/又は図6L及び図7Cに関連して上述したスタイルモードユーザインタフェースオブジェクト及び第2のスタイルモードユーザインタフェースオブジェクトに関連して上述した1つ以上の技術を使用して)第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観(例えば、602b)で表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観(例えば、方法900及び/又は図6L及び図7Cに関連して上述したような第1の視覚的態様及び第2の視覚的態様を有する視覚的外観)で表示されている状態から、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に基づく第2の外観(例えば、方法900及び/又は図6L及び図7Cに関連して上述したような第1の視覚的態様及び第2の視覚的態様を有する視覚的外観)で表示されている状態へ移行する第1のスタイルモードユーザインタフェースオブジェクトのアニメーションを表示する。いくつかの実施形態では、アニメーションは、ある期間(例えば、0.01~10秒)にわたって生じる漸進的な遷移である。第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観で表示されている状態から、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に基づく第2の外観で表示されている状態に遷移する第1のスタイルモードユーザインタフェースオブジェクトのアニメーションを表示することは、メディア処理スタイルをリセットすることがどのようにメディア処理スタイルを変更するか、及びメディア処理スタイルが変更されたことに関して、ユーザに視覚的フィードバックを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を表示している間に、第1のコントロールに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の移動を検出したことに応じて、例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出したことに応じて(例えば、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出したことに応じて)、コンピュータシステムは、第1のパラメータの現在値(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を、第1のパラメータの第3の値から第1のパラメータの第4の値に変更する(例えば、第2のパラメータの現在値を変更することなく、第1のパラメータの第3の値の表現の表示を第1のパラメータの第4の値の表現の表示に置き換える)。いくつかの実施形態では、第1のコントロールに向けられた入力は、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力と同じである。いくつかの実施形態では、第3の値は、第4の値とは異なる。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを表示している間、コンピュータシステムは、第1のコントロールに向けられた入力の移動を検出する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、第2のコントロールに向けられた入力の移動を検出したことに応じて(例えば、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出したことに応じて)、コンピュータシステムは、(例えば、第1のパラメータの現在値を変更することなく)第2のパラメータの現在値を第2のパラメータの第3の値から第2のパラメータの第4の値に変更する(例えば、第1のパラメータの第3の値の表現の表示を第1のパラメータの第4の値の表現の表示に置き換える)。いくつかの実施形態では、第1のコントロールに向けられた入力は、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力と同じである。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、コンピュータシステムは、第2のコントロールに向けられた入力の移動を検出する。いくつかの実施形態では、第3の値は、第4の値とは異なる。第1のコントロールに向けられた入力の動きを検出したことに応じて、第1のパラメータの現在値を第1のパラメータの第3の値から第1のパラメータの第4の値に変更することは、入力の移動に基づいて第1のパラメータの現在値が設定される制御をユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを表示している間に、かつ第1のコントロールに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の移動を検出したことに応じて、コンピュータシステムは、(例えば、第1のコントロールに向けられた入力の終了を検出する前及び/又は後に)修正された第1のメディア処理スタイル(例えば、634a~634d)を使用してメディアの第2の表現(例えば、630)を表示する。いくつかの実施形態では、修正された第1のメディア処理スタイル(例えば、634aa及び/又は634dd)を使用するメディアの第2の表現は、第1のメディア処理スタイルを使用するメディアの表現とは異なる。いくつかの実施形態では、第1のメディア処理スタイルを使用するメディアの第2の表現は、第1のパラメータの変更された値(例えば、第4の値)に基づいて表示され、第1のメディア処理スタイルを使用するメディアの表現は、第1のコントロールに向けられた入力が検出される前の値(例えば、第3の値)に基づいて表示される。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、かつ第2のコントロールに向けられた入力のその移動を検出したことに応じて、コンピュータシステムは、(例えば、第2のコントロールに向けられた入力の終了を検出する前及び/又は後に)第1のメディア処理スタイルを使用してメディアの第3の表現を表示し、第1のメディア処理スタイルを使用するメディアの第3の表現は、第1のメディア処理スタイルを使用するメディアの表現及び第1のメディア処理スタイルを使用するメディアの第2の表現とは異なる。第1のコントロールに向けられた入力の移動が検出されたことに応じて、第1のメディア処理スタイルを使用してメディアの第2の表現であって、第1のメディア処理スタイルを使用したメディアの第2の表現が、第1のメディア処理スタイルを使用したメディアの表現とは異なる、第2の表現を表示することは、第1のメディア処理スタイルがメディアの表現に適用される方法に入力がどのように影響を与えたかに関するフィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用してメディアの表現(例えば、630)を表示している間、コンピュータシステムは、メディアをキャプチャするための第1の要求(例えば、650a、650c、650j)を検出する。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディアをキャプチャする。いくつかの実施形態では、修正された第1のメディア処理スタイルを使用してメディアの第2の表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第2のメディアをキャプチャする。いくつかの実施形態では、第1のメディア及び第2のメディアをキャプチャした後、コンピュータシステムは、(例えば、図7A~図7Xに関連して上述したように)第1のメディア処理スタイルを有する第1のメディアの表現(例えば、680c)を表示し、(例えば、図7A~7Xに関連して上述したように)修正された第1のメディア処理スタイルを有する第2のメディアの表現(例えば、680d)を表示する。いくつかの実施形態では、コンピュータシステムは、入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、第1のメディアの表現に向けられた非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)又は入力(移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、第2のメディアの表現に向けられた非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて)、第1のメディアの表現の表示から第2のメディアの表現の表示に遷移させる(又はその逆)。いくつかの実施形態では、第1のメディアの表現及び現在のメディアの表現は、メディアビューアインタフェース(例えば、図6A~図6U)に順次表示される。いくつかの実施形態では、第1のメディアの表現及び第2のメディアの表現は、メディアビューアインタフェース及び/又はメディアグリッド内に(例えば、メディアの複数の他の表現の間で)同時に表示される。
いくつかの実施形態では、ユーザインタフェースは、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクト(例えば、610)を含む。いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)及びメディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクト(例えば、610)を使用してメディアの表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)を(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)検出する。いくつかの実施形態では、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、650a、650c、650j)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルのパラメータの現在値に基づいて)適用された第1のメディア処理スタイルを有する第3のメディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出している間に、及び/又は表現に向けられた入力を検出している間に(例えば、方法900及び図6A~図6Pに関連して上述したように、メディア処理スタイルを切り替える要求として)、コンピュータは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けた入力が検出されるとき(例えば、その直前/直後に)、メディアの表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)よりも多くのメディアの表現及び/又は別のメディア処理スタイルが適用されたメディアの表現(例えば、方法900及び図6A~図6Pに関連して上述した部分)の他の部分よりも多い部分に適用されるメディア処理スタイルが適用されたメディアのキャプチャを開始する。メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて適用される第1のメディア処理スタイルを有するメディアをキャプチャすることは、ユーザが、現在選択されているメディア処理スタイルが適用されるメディアをキャプチャすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表現を表示することの一部として、コンピュータシステムは、異なるタイプの識別されたオブジェクトと比較した1つのタイプの識別されたオブジェクト(例えば、非被写体と比較した被写体(例えば、人物))について、表現の1つ以上のオブジェクト(例えば、630内の人物)(例えば、人物及び/又は人物の顔)(例えば、識別可能なオブジェクト)に対して、1つ以上のオブジェクトを含まない第1の部分の一部に対してと異なるように(例えば、異なるセットの視覚的パラメータ(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータの異なるセットを使用して)第1のメディア処理スタイルを適用する(例えば、表現の第2の部分(例えば、オブジェクトを含まないサブセット)とは異なる視覚的外観で表現の第1の部分(例えば、オブジェクトを含むサブセット)を表示する)。
いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアの表現(例えば、630)に向けられた非移動入力(及び/又は、いくつかの実施形態では、(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて、第1の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、移動入力)を検出する。いくつかの実施形態では、メディアの表現を対象とする第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)の表示を中止する。いくつかの実施形態では、メディアの表現に向けられた第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルを使用してメディアの表現の一部(例えば、メディアの表現に向けられた入力が検出される前に第1のメディア処理スタイルを使用して表示されたメディアの表現の一部)を表示する。いくつかの実施形態では、メディアの表現に向けられた第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルの第2のパラメータの現在値の表現を表示し、第1のメディア処理スタイルの第2のパラメータの現在値の表現の表示を中止する。いくつかの実施形態では、第4のメディア処理スタイルの第1のパラメータの現在値の表現を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を第4のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)に変更するアニメーション(例えば、スライドアニメーション、ディゾルブアニメーション、及び/又はフェードイン/アウトアニメーション)を表示する。いくつかの実施形態では、第4のメディア処理スタイルの第2のパラメータの現在値の表現を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値の表現を第4のメディア処理スタイルの第2のパラメータの現在値の表現に変更するアニメーション(例えば、経時的に漸進的なアニメーション)を表示する。第1のメディア処理スタイルの第1のパラメータの現在値の表現を第4のメディア処理スタイルの第1のパラメータの現在値の表現に変更するアニメーションを表示することは、第1のメディア処理のユーザインタフェースオブジェクトが第4のメディア処理スタイルのユーザインタフェースオブジェクトに変更されているという視覚的フィードバックをユーザに提供し、これは起こり得る誤りを低減する可能性があり、改善された視覚的フィードバックを提供する。メディアの表現に向けられた第1の入力を検出したことに応じて、第4のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現の表示を中止することにより、コンピュータシステムは、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することができ、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を表示している間、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアの表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、メディアの表現に向けられた第2の入力を検出したことに応じて、コンピュータシステムは、第5のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用してメディアの表現の一部(例えば、メディアの表現に向けられた入力が検出される前に第1のメディア処理スタイルを使用して表示されたメディアの表現の一部)を表示する。いくつかの実施形態では、第5のメディア処理スタイルを使用してメディアの表現の一部を表示している間に、第5のメディア処理スタイルを使用してメディアの表現の一部が表現(例えば、630)(及び/又は表示生成構成要素)(表現及び/又は表示生成構成要素の特定の部分(例えば、その中央)に位置する)の閾値量(例えば、25%、30%、40%、50%、51%、60%、又は75%)よりも大きいという判定に従って、コンピュータシステムは、第5のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示することを中止する。いくつかの実施形態では、第5のメディア処理スタイルを使用してメディアの表現の一部を表示している間に、第5のメディア処理スタイルを使用するメディアの表現の一部が表現(及び/又は表示生成構成要素)の閾値量(例えば、25%、30%、40%、50%、51%、60%、又は75%)よりも大きくない(及び/又は表現及び/又は表示生成構成要素の特定の部分(例えば、その中央)に位置する)という判定に従って、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値の表現を表示し続け、第5のメディア処理スタイルの第1のパラメータの現在値の表現を表示することを見合わせる。第5のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、所定の条件が満たされたときに第1のメディア処理スタイルの第1のパラメータの現在値の表現の表示を中止することにより、コンピュータシステムは、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することができ、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)に向けられた入力(例えば、750a、750d、750g、750k、及び/又は750t)を検出したことに応じて(かつ第1のメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)が、第1のメディア処理スタイル(例えば、634a~634d)の1つ以上のパラメータの1つ以上のデフォルト値と異なる(例えば、及び/又は実質的に異なる)という判定に従って)、コンピュータシステムは、第1のメディア処理スタイルと異なる第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)(例えば、第1のメディア処理スタイルに対応する(例えば、第1のメディア処理スタイルとパラメータのセットを共有するが、少なくとも1つの他のパラメータにおいて第1のメディア処理スタイルと異なる第1のメディア処理スタイルの修正バージョンである)カスタムメディア処理スタイル)を、利用可能なメディア処理スタイルのセット(例えば、634a~634d)に追加する。いくつかの実施形態では、ユーザインタフェースは、1つ以上のメディア処理スタイルに対応する1つ以上の指示を含む。いくつかの実施形態では、1つ以上の指示は、第1のメディア処理スタイルに対応する第1の指示を含む。いくつかの実施形態では、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの1つ以上のパラメータに関する少なくとも1つの現在値が第1のメディア処理スタイルの1つ以上のパラメータに関する1つ以上のデフォルト値と異なるという判定に従って、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイル(例えば、第1のメディア処理スタイルに対応するカスタムメディア処理スタイル)に対応する複数の選択可能なユーザインタフェースオブジェクトを表示し、第1のカスタムメディア処理スタイルに対応する第2の指示を1つ以上の指示に追加する(例えば、第2の指示を表示する、第2の指示を1つ以上の指示の一部として(例えば、1つ以上の指示の間に、1つ以上の指示と一直線に)表示する)。いくつかの実施形態では、第1のカスタムメディア処理スタイルを追加することは、(例えば、他のユーザインタフェースにおいて、アプリケーションを終了/終了した後、第1のカスタムメディア処理スタイルが将来の使用のために利用可能に構成されなかった場合に第1のカスタムメディア処理スタイルが使用のために利用可能にならない特定の期間が経過した後)第1のカスタムメディア処理スタイルを将来の使用のために利用可能に構成することを含む。所定の条件が満たされたときに利用可能なメディア処理スタイルのセットに第1のカスタムメディア処理スタイルを追加することにより、ユーザは、スタイルを作り直すための入力を提供することなくカスタマイズされたスタイルを再利用することができ、ユーザがカスタマイズされていないメディア処理スタイルを編集することが防止され、これにより、動作を実行するために必要な入力の数が低減される。
いくつかの実施形態では、利用可能なメディア(例えば、634a~634d、634aa、及び/又は634dd)処理スタイルのセットが第1のカスタムメディア処理スタイルを含んでいる間に、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第1の要求(例えば、750n及び/又は750w)を検出する。いくつかの実施形態では、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第1の要求を検出したことに応じて(かつ、例えば、第1の要求が実施された後、第1のカスタムメディア処理スタイルが(例えば、利用可能なメディア処理スタイルのセットにおいて)1つ以上の他の利用可能なメディア処理スタイルと同じ(又は実質的に同じ)であろうという判定に従って)(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータが、他の利用可能なメディア処理スタイルの1つ以上の1つ以上のパラメータと同じである)、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を利用可能なメディア処理スタイルのセットから削除する(例えば、第2の指示の表示を中止する、及び/又は第2の指示を1つ以上の指示の一部であるとして表示することを中止する)。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第1の入力を検出し、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第1の入力を検出する。いくつかの実施形態では、第1の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルが利用可能なメディア処理スタイルのセット内の1つ以上の他の利用可能なメディア処理スタイルと同じ(又は実質的に同じ)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する第2の指示を削除する。いくつかの実施形態では、第1のカスタムメディア処理スタイルを削除することは、(例えば、他のユーザインタフェースにおいて、アプリケーションを終了/終了した後、第1のカスタムメディア処理スタイルが将来の使用のために利用可能であるように構成されなかった場合に第1のカスタムメディア処理スタイルが使用のために利用可能でない特定の期間が経過した後)第1のカスタムメディア処理スタイルを将来の使用のために利用可能でないように構成することを含む。所定の条件が満たされたときに、利用可能なメディア処理スタイルのセットから第1のカスタムメディア処理スタイルを削除することは、コンピュータシステムが、重複している可能性がある、及び/又は必要とされないスタイルを自動的に削除することを可能にし、これは、動作を実行するために必要とされる入力の数を低減する。
いくつかの実施形態では、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を利用可能なメディア処理スタイルのセット(例えば、634a~634d、634aa、及び/又は634dd)に追加した後、コンピュータシステムは、個別のメディア処理スタイル(例えば、634a及び/又は634d)を使用して表示されるメディアの個別の表現(例えば、630)を含む個別のユーザインタフェースを表示する。
いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a及び/又は634d)を使用して表示されるメディアの個別の表現(例えば、630)を含む個別のユーザインタフェースを表示している間、かつ利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を含む間、コンピュータシステムは、利用可能なメディア処理スタイルのセットからの次の(又は前の)利用可能なメディア処理スタイルを使用してメディアの個別の表現を表示する要求を検出する。いくつかの実施形態では、利用可能なメディア処理スタイルのセットからの次の利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出することの一部として、コンピュータシステムは、(例えば、方法ステップXX-XX-LINK TO CS1に関連して上述したように)個別のユーザインタフェース上の入力を検出する。いくつかの実施形態では、メディアの個別の表現が個別のメディア処理スタイルを使用して表示されている間に、次の(例えば、又は前の)利用可能なメディア処理スタイルを使用してメディアの個別の表現を表示する要求(例えば、750o)を検出したことに応じて、コンピュータシステムは、個別のメディア処理スタイルが第1のメディア処理スタイルであるという判定に従って、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を使用してメディアの個別の表現の少なくとも一部を表示し、個別のメディア処理スタイルが第1のメディア処理スタイルではないという判定に従って、(例えば、図7O~図7Pに関連して上述したように)第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を使用してメディアの個別の表現の少なくとも一部を表示することを見合わせる。いくつかの実施形態では、第1のカスタムメディア処理スタイルを削除した後、コンピュータは、第1のメディア処理スタイルを使用して表示されるメディアの個別の表現を含む個別のユーザインタフェースを表示する。いくつかの実施形態では、第1のメディア処理スタイルを使用して表示されるメディアの個別の表現を含むユーザインタフェースを表示している間に、かつ利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルではない間に、コンピュータシステムは、次の利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出する。いくつかの実施形態では、次に利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第1のカスタムメディア処理スタイルを使用してメディアの表現の少なくとも一部を表示する。いくつかの実施形態では、1つ以上の指示は、第6のメディア処理スタイルに対応する第3の指示を含む。いくつかの実施形態では、1つ以上の指示は、第2の指示が第1の指示に隣接し(例えば、隣、より近く、右、左、上、及び/又は下)、第3の指示に隣接しないように表示される。第1のカスタムメディア処理スタイルを使用してメディアの表現の少なくとも一部を表示することは(例えば、規定された条件が満たされるとき)、第1のカスタム写真スタイルが第1のメディア処理スタイルについてのカスタマイズされたスタイルであり、他のメディア処理スタイルではないというフィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を含む間、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第2の要求(例えば、750a、750d、750g、750k、及び/又は750t)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第2の要求を検出したことに応じて(例えば、第1のカスタムメディア処理スタイルが、第2の要求を実行した後に、1つ以上の他の利用可能なメディア処理スタイルと同じでない(又は実質的に同じでない)という判定に従って)、コンピュータシステムは、(例えば、入力750a及び/又は入力750tに関連して上述したように)第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新する(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2によって表される)(及び(例えば、追加のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに含めることなく)第1のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに含めることを継続する)。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化した(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる)(例えば、第2の入力及び/又は第1のコントロールに向けられた1つ以上の入力を介して変化した)という判定に従って、コンピュータシステムは、1つ以上の指示に第4の指示を追加せず(例えば、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力が検出される前に表示されたのと同じ数の指示を継続する)、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて、第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化したという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する1つ以上の指示の一部として第2の表示を含み続ける(例えば、第2の指示を表示し続ける)。第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第2の要求を検出したことに応じて、第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新することは、利用可能なメディア処理スタイルのセットを通してナビゲートするために必要とされる入力の数を低減し、1つ以上のパラメータが更新された後に第1のカスタムメディア処理スタイルを再構成するために必要とされる入力の数を低減し、1つ以上の動作を実行するために必要とされる入力の数を低減する。
いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルを含む間に、コンピュータシステムは、(例えば、入力750a及び/又は入力750tに関連して上述したように)第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求(例えば、750a及び/又は750t)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて(かつ、例えば、第3の要求を実行した後の第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイルと同じでない(又は実質的に同じでない)という判定に従って)、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータ(及び/又は第1のメディア処理スタイルの1つ以上のパラメータ)を更新することなく(例えば、入力750a及び/又は入力750tに関連して上述したように)(例えば、第1のメディア処理スタイルに対応する)第2のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに追加する。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、かつ第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出する)。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化した(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる)(例えば、第2の入力及び/又は第1のコントロールに向けられた1つ以上の入力を介して変化した)という判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルとは異なる第2の個別のメディア処理スタイルに対応する1つ以上の指示に第5の指示を追加し(例えば、第2の指示を表示し続け)、(例えば、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新することを見合わせている間、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新することなく)第1のカスタムメディアスタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第2のカスタムメディア処理スタイルの第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化していないという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する1つ以上の指示の一部として第2の指示を含み続ける(例えば、第2の指示を表示し続ける)。いくつかの実施形態では、第1のカスタムメディア処理スタイル及び第2のカスタムメディア処理スタイルは両方とも、利用可能なメディア処理スタイルのセット内の第1のメディア処理スタイルと第2のメディア処理スタイルとの間にある。第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて、第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新することなく、利用可能なメディア処理スタイルのセットに第2のカスタムメディア処理スタイルを追加することは、第1のカスタムメディア処理スタイルを再構成するために必要とされる入力の数を低減し、これは、1つ以上の動作を実行するために必要とされる入力の数を低減し、写真スタイルを繰り返し再構成する必要性を低減するための追加のオプションをユーザに提供する。
いくつかの実施形態では、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)及び第2のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)は、同じ個別のテキスト識別子(例えば、636aa及び/又は636dd)(例えば、説明又は名前(例えば、鮮やかな暖かい、鮮やかな冷たい、暖かい、冷たい、中立、ソフト暖かい、ソフト冷たい、鮮やかな、及び/又はソフト))を有する。いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースを表示している間に、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)がメディアの表現に適用されているという判定に従って、コンピュータは、同じ個別のテキスト識別子を、第1のカスタムメディア処理スタイルのパラメータの指示(例えば、626a及び/又は626d)と同時に表示する。いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースを表示している間に、かつ第2のカスタムメディア処理スタイルがメディアの表現に適用されているという判定に従って、コンピュータシステムは、同じ個別のテキスト識別子(例えば、636aa及び/又は636dd)を、第2のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)のパラメータの指示(例えば、626a及び/又は626b)と同時に表示する。いくつかの実施形態では、(例えば、図7C、7D、及び7Mに関連して上述したように)第1のカスタムメディア処理スタイルのパラメータの指示は、第2のカスタムメディア処理スタイルのパラメータのインジケータとは異なる(例えば、異なる値である)。特定のメディア処理スタイル(例えば、別のメディア処理スタイルと同じ識別子を有するメディア処理スタイル)についてのパラメータの指示と同時に同じ個別の識別子を表示することは、どのメディア処理スタイルが適用されているか(例えば、及び/又は同じ識別子を有するメディア処理スタイルがどのように適用されているかに関する差異)をユーザに識別させる視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、(例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、及び/又は750t)を検出したことに応じて、かつ第1のメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる(例えば、及び/又は実質的に異なる)という判定に従って、(例えば、図7C及び図7Fに関連して上述したように)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の1つ以上のパラメータの少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値との間の第1の差が第1の差(例えば、正及び/又は負の量(例えば、-100から100の間の値)の差)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)についての第1のテキスト識別子(例えば、636aa及び/又は636dd)(例えば、鮮やかな-暖かい、鮮やかな-冷たい、暖かい、冷たい、中立、ソフト-暖かい、ソフト-冷たい、鮮やかな、及び/又はソフトなどの記述又は名前)を表示し(例えば、第1の識別子は1つ以上のパラメータ及び/又は第1の差に基づく)、(例えば、図7C~7Fに関連して上述したように)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の1つ以上のパラメータの少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値との間の差が、第1の差と異なる(異なる値である)第2の差(例えば、正及び/又は負の量(例えば、-100から100の間の値)の差)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)についての第2のテキスト識別子(例えば、鮮やかな-暖かい、鮮やかな-冷たい、暖かい、冷たい、中立、ソフト-暖かい、ソフト-冷たい、鮮やかな、及び/又はソフトなどの記述又は名前)を表示する。いくつかの実施形態では、第2のテキスト識別子(例えば、636aa及び/又は636dd)は、(例えば、図7C及び7Fに関連して上述したように)第1のテキスト識別子(例えば、636aa及び/又は636dd)とは異なる。第1のメディア処理スタイルの1つ以上のパラメータについての少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータについての1つ以上のデフォルト値との間の差に基づいて識別子を表示することは、メディア処理スタイルの変更バージョンがメディア処理スタイルのデフォルトバージョンとどのように異なるかをユーザに知らせる視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)は、(例えば、図7W、7W1、及び/又は7Xに関連して上述したように)第1のテキスト識別子及び第2のテキスト識別子とは異なる第3のテキスト識別子を有する。いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルを含む間に、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求(例えば、750n、750w及び/又は750w1)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて、及び第1の要求が実施された後に第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイル(例えば、利用可能なメディア処理スタイルのセットにおける)(例えば、第1のメディア処理スタイル)と同じ(又は実質的に同じ)である(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータが、1つ以上の他の利用可能なメディア処理スタイルの1つ以上のパラメータと同じである)という判定に従って、(例えば、第1のカスタムメディア処理スタイルをリセットする要求を検出したことに応じて)(例えば、第1のメディア処理スタイルの1つ以上のパラメータをリセットするために選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて)、コンピュータシステムは、(例えば、図7W、7W1、及び/又は7Xに関連して上述したように)(例えば、第1の識別子及び第2の識別子を表示することなく)第3のテキスト識別子(例えば、636a~636d、636aa、及び/又は636dd)を表示する。いくつかの実施形態では、カスタムメディア処理スタイルがリセットされると、コンピュータシステムは、スタイル名を元の名前に戻すように変更する。第3の識別子(例えば、メディア処理スタイルが変更された元のメディア処理スタイルの識別子)を表示することは、メディア処理スタイルを作成したメディア処理スタイルをユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)は、第1のメディア処理スタイルを編集する要求(例えば、650b)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間)表示される。いくつかの実施形態では、複数の選択可能なユーザインタフェースオブジェクトを表示する前に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディア処理スタイルを編集する要求(例えば、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されているかを編集するための要求)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出することの一部として、コンピュータシステムは、(例えば、方法900及び図6A~図6Cに関連して上述したように)メディアの表現上の移動入力(例えば、及び/又は、いくつかの実施形態では、プレスアンドホールド入力、ピンチ入力などの非移動入力)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出することの一部として、コンピュータシステムは、(例えば、方法900及び図6A~図6Cに関連して上述したように)第1のメディア処理スタイルの表現を表示するためのユーザインタフェースオブジェクト上のタップ入力(及び/又はプレスアンドホールド入力、ピンチ入力などの非タップ入力)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出したことに応じて(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間)、コンピュータシステムは、複数の選択可能なユーザインタフェースオブジェクトを同時に表示する。いくつかの実施形態では、個別のカスタマイズされたスタイルのパラメータが、利用可能なメディア処理スタイルのセット内の別のメディア処理スタイルと一致する場合であっても、1つのメディア処理スタイルについての個別のカスタマイズされたスタイルは、表示される、及び/又は利用可能なメディア処理スタイルのセット内に含まれる。
いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースは、選択されると、第2の選択されたメディア処理スタイルが適用された状態で表現を表示させる(例えば、コンピュータシステムをトグルさせる)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されると、スタイル選択ユーザインタフェースを表示させるユーザインタフェースオブジェクト)(例えば、又は第2の選択されたメディア処理スタイルを適用せずに、表示される表現を表示させる)。いくつかの実施形態では、コンピュータシステムは、(例えば、第1のパラメータの現在値を調整するための第1のコントロール又は第2のパラメータの現在値を調整するための第2のコントロールが表示されている間に)個別の入力(例えば、750a、750d、750g、750k、750n、750r、750t、750w、及び/又は750w1)例えば、移動入力(例えば、スワイプジェスチャ及び/又はドラッグジェスチャ))(及び/又はいくつかの実施形態では、非移動入力(例えば、タップ入力、プレスアンドホールドジェスチャ、及び/又は音声入力)を検出したことに応じて)を検出する。いくつかの実施形態では、個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、コンピュータシステムは、(例えば、方法900に関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む線(例えば、時計回り及び/又は反時計回りの方向に示される)を変更し、線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある))(例えば、図6L、7C、及び/又は7Mに関連して上述したように)(例えば、個別の入力が検出される前に表示されなかった外観で第2のスタイルモードユーザインタフェースオブジェクトを表示する)。個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することは、入力がメディア処理スタイルがメディアの表現にどのように適用されているかについての変更を引き起こしたコトをユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観は、(例えば、図6L、図7C、及び/又は図7Mに関連して上述したように)第1のパラメータの現在値が修正されるにつれて徐々に変更される。いくつかの実施形態では、個別の入力は、第1の大きさ(例えば、速度及び/又は加速度)を有する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの外観は、第1の大きさに基づく第2の大きさで変更される。いくつかの実施形態では、個別の入力がより速く(例えば、又は代替的に、より遅く)移動させられる及び/又は加速されると、第2のスタイルモードユーザインタフェースオブジェクトの外観は、より速い(例えば、又は代替的に、より遅い)速度で移動させられる及び/又は加速される。個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を徐々に変更することは、ユーザインタフェース要素を突然変更するときに引き起こされ得る視覚的混乱を低減しながら、入力がメディア処理スタイルがメディアの表現にどのように適用されているかの変更を引き起こしたことをユーザに通知する視覚的フィードバックを提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することの一部として、個別の入力が第1の方向例えば、上/下/右/左方向)であるという判定に従って、コンピュータシステムは、(第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の視覚的態様(例えば、602bの周囲の線及び/又は602bの色)(例えば、少なくとも一部分の色、陰影、及び/又は色合い)(いくつかの実施形態では、その部分は、第2のメディア処理スタイルの境界(例えば、それを囲む線)を含む)を(例えば、図6F及び図6Lに関連して説明したように)第1の方式で更新する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することの一部として、個別の入力が第1の方向とは異なる第2の方向(例えば、上/下/右/左方向)であるという判定に従って、コンピュータシステムは、(例えば、図6F及び図6Lに関連して説明したように)第1の方式とは異なる第2の方式で第1の視覚的態様を更新する。いくつかの実施形態では、第1の方式は、第2の方式の反対ではない。いくつかの実施形態では、第1の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第1の視覚的態様の長さ及び/又はサイズを(例えば、時計回り方向に)増加させ(又は代替として、減少させ)、第2の方式で第1の視覚的側面を更新することの一部として、コンピュータシステムは、第1の視覚的態様の長さ及び/又はサイズを(例えば、反時計回り方向に)減少させる(又は代替として、増加させる)。いくつかの実施形態では、第1の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトから、より多くの第1の色(例えば、赤色及び/又は黒色)を追加し、及び/又はより多くの第2の色(例えば、青色及び/又は白色)を削除し、第2の色は、第1の色とは異なる。いくつかの実施形態では、第2の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトから、より多くの第2の色(例えば、赤色及び/又は黒色)を追加し、及び/又はより多くの第1の色(例えば、青色及び/又は白色)を削除する。個別の入力の方向に基づくように第1の視覚的態様を更新することは、第1の入力がメディア処理スタイルのパラメータをどのように変更しているかについてユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観を変更することの一部として、コンピュータシステムは、(例えば、図7C~7Fの602bによって示されるような)開口部を有する開放形状である視覚的要素で第2のスタイルモードユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、個別の入力が第1のパラメータの第2の現在値(例えば、626a1及び/又は626a2)を第1のパラメータの最大値(例えば、100、150、200、256、及び/又は300)に設定したという判定に従って、(例えば、図7C~7Fに関して上述したように)開口部(例えば、間隙)は、開放形状の第1の側(例えば、形状の中点、中心、及び/又は原点に対する側(例えば、左側)に存在する(例えば、開放形状の第2の側に開口部を有さない)。いくつかの実施形態では、個別の入力が、第1のパラメータの第2の現在値を、第1のパラメータの最大値とは異なる第1のパラメータの最小値(例えば、100、150、200、256、及び/又は300)に設定したという判定に従って、開口部は、例えば、図7C~図7Fの602bによって示されるように、第1の側(例えば、開放形状の第1の側に開口部を有さない)とは異なる、開放形状の第2の側(例えば、形状の中点、中心、及び/又は原点に対する側)(例えば、右側)に存在する(第1の開放形状の第2の側に開口部を有さない)。形状が、第2の現在値が第1のパラメータの最小値であるか最大値であるかに基づいて異なる側に表示される開口部を有する、開放形状である視覚的要素を表示することは、第1のパラメータの最小値又は最大値を示すポジションに到達する前に視覚的要素が進行した方向(例えば、時計回り方向及び/又は反時計回り方向)に関する視覚的フィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2スタイルモードユーザインタフェースオブジェクト(602b)の外観を変更することの一部として、コンピュータシステムは、(例えば、第1のメディア処理スタイルの第1パラメータの値が第2のメディア処理スタイルの第1パラメータの値と異なるという判定に基づいて、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更することなく)第2スタイルモードユーザインタフェースオブジェクトの第3の視覚的態様(例えば、602b及び/又は602bの線の色(例えば、図6F、図6L、図7C、図7D、及び/又は図7Mに関連して上述したような)(例えば、少なくとも一部の色、陰影、及び/又は色合い)(いくつかの実施形態では、第2のメディア処理スタイルの境界(例えば、それを囲む線)を含む部分))の表示を変更する。
いくつかの実施形態では、個別の入力を検出したことに応じて、かつ個別の入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)が第1のパラメータ(例えば、626a1c及び/又は626a2c)の現在値を調整するための第1のコントロールに向けられているという判定に従って、コンピュータシステムは、(例えば、方法900及び/又は図6F及び図6Lに関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクトの第2の外観(例えば、602bを囲む色及び/又は線)(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線であって、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある線))を変更する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第2の外観を変更することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第4の視覚的態様(例えば、第2のメディア処理スタイルの少なくとも一部(例えば、第2のスタイルモードユーザインタフェースオブジェクトの周りにある、隣接する、及び/又は取り囲む境界線及び/又は線)のサイズ、長さ、及び/又は塗りつぶしの表示を変更する。いくつかの実施形態では、第4の視覚的態様(例えば、境界及び/又は線(例えば、又はその逆)は、第3の視覚的態様(例えば、色(例えば、又はその逆))とは異なる。特定のパラメータの値が変更されたかどうかに基づいて第2のスタイルモードユーザインタフェースオブジェクトの特定の視覚的要素の表示を変更することは、メディア処理スタイルに対してどのパラメータが変更されたか(及びどのパラメータ(単数又は複数)が変更されなかったか)に関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
方法1000(例えば、図10A~10B)に関して上述したプロセスの詳細は、本明細書に記載する方法にも同様に当てはまることに留意されたい。例えば、方法1000は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900は、1つ以上のメディア処理スタイルを選択するために使用することができ、方法1000は、方法900を使用して選択されたメディアを編集するために使用することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本技術の原理、及びそれらの実際の用途を最も良く説明するために、実施形態が選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。
上述のように、本技術の一態様は、ユーザにとって有益な可能性のあるメディア処理スタイル又は任意の他のメディア編集ツールに関するユーザへの配信を改善するために、種々のソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの場合には、この収集されたデータが、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを考察する。そのような個人情報データとしては、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康若しくはフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、生年月日、又は任意の他の識別情報若しくは個人情報を挙げることができる。
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、ユーザにとって有用なメディア処理スタイルに使用することができる。したがって、そのような個人情報データを使用することにより、ユーザは、配信されたメディア処理スタイル及び/又はユーザが最初に利用可能なメディア処理スタイルの計算された制御を有することが可能になる。更に、ユーザに利益をもたらす個人情報データに関する他の使用も本開示によって意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、又は、ウェルネスの目標を追求する技術を使用している個人への、積極的なフィードバックとして使用することもできる。
本開示は、そのような個人情報データの収集、分析、開示、送信、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変更されるにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。その上、そのようなエンティティは、そのような個人情報データへのアクセスを保護及び安全化し、個人情報データへのアクセス権を有する他者が、それらのプライバシーポリシー及び手順を忠実に守ることを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更に、そのようなエンティティは、広く受け入れられているプライバシーポリシー及び慣行に対する自身の遵守を証明するために、サードパーティによる評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はそれへのアクセスは、医療保険の相互運用性と説明責任に関する法律(HIPAA)などの、連邦法及び/又は州法に準拠し得る。その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国において、異なる個人データのタイプに関して異なるプライバシー慣行が保たれるべきである。
前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素が提供され得ることを意図している。例えば、メディア処理スタイルをユーザに提供する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成されることができる。別の実施例では、ユーザは、自分のパーソナルデバイス上でキャプチャしたメディアを含む自分のカスタマイズされたメディア処理スタイルに関する日付を共有しないことを選択することができる。更に別の実施例では、ユーザは、キャプチャされたメディアが維持される期間を制限するか、又はキャプチャされたメディアのアクセスを完全に禁止するかを選択することができる。「オプトイン」及び「オプトアウト」のオプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを意図している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
更には、本開示の意図は、個人情報データを、非意図的若しくは許可のないアクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなると削除することにより、リスクを最小化することができる。追加的に、特定の健康関連アプリケーションにおいて適用可能な場合、ユーザのプライバシーを保護するために、データの匿名化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、場所データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって集約すること)及び/又は他の方法によって、容易にすることができる。
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを想到する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部が欠如することにより、動作不可能にされるものではない。例えば、メディア処理スタイルは、ユーザに関連付けられたデバイスによって要求されたコンテンツなどの非個人情報データ又は必要最小限の量の個人情報、利用可能な他の非個人情報、又は公的に利用可能な情報に基づいてユーザに配信することができる。
(関連出願の相互参照)
本出願は、2021年6月1日出願の「UいER INTERFACEs FOR MANAGING MEDIA STYLES」と題する米国特許仮出願第63/195,679号、2021年9月13日出願の「USER INTERFACES FOR MANAGING MEDIA STYLES」と題する米国特許出願第63/243,633号、及び2022年4月14日出願の「USER INTERFACES FOR MANAGING MEDIA STYLES」と題する米国特許出願第17/721,039号に対する優先権を主張する。これらの出願の内容は、全体が、参照により本明細書に組み込まれる。
本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための技術に関する。
スマートフォン及び他のパーソナル電子デバイスのユーザは、思い出を安全に守り、友人と共有するために、より頻繁にメディアをキャプチャし、記憶し、編集する。いくつかの既存の技術により、ユーザは画像又はビデオをキャプチャすることができた。ユーザは、例えば、メディアをキャプチャし、記憶し、編集することによって、そのようなメディアを管理することができる。
しかしながら、電子デバイス(例えば、コンピュータシステムを含む)を使用してメディアの視覚的コンテンツに適用されるメディアスタイルを管理するためのいくつかの技術は、概して、煩雑かつ非効率的である。例えば、いくつかの既存の技術では、複数回のキー押圧又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。この後者の考慮事項は、バッテリ動作式デバイスにおいて特に重要である。
したがって、本技術は、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための、より高速でより効率的な方法及びインタフェースを電子デバイスに提供する。そのような方法及びインタフェースは、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための他の方法を任意選択的に補完又は置換する。そのような方法及びインタフェースは、ユーザにかかる認識的負担を低減し、より効率的なヒューマン-マシンインタフェースを作成する。バッテリ動作コンピューティングデバイスについて、そのような方法及びインタフェースは、電力を節約し、バッテリ充電までの時間を延ばし、不要、無関係、及び/又は反復受信される入力の数を減少させる。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムにおいて実行される方法が記載される。本方法は、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示することと、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出することと、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することを含む、方法であって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現を含むスタイル選択ユーザインタフェースであって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表現の第1の部分と表現の第2の部分が表示される、スタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む非一時的コンピュータ可読記憶媒体であって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現を含むスタイル選択ユーザインタフェースであって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表現の第1の部分と表現の第2の部分が表示される、スタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む一時的コンピュータ可読記憶媒体あって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分がメディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を含むスタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する命令を含むコンピュータシステムであって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示するための手段と、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出する手段と、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する手段とを含むコンピュータシステムであって、表現の第1の部分を表示する手段は、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力の第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する手段と、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示する手段と、を含む。
いくつかの実施形態によれば、コンピュータプログラム製品が記載される。コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備える。1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示し、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、1つ以上の入力デバイスを介して、表現に向けられた入力を検出し、表現に向けられた入力を検出したことに応じて、かつ入力が第1の方向であるという判定に従って、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示する、命令を含む、コンピュータプログラム製品あって、表現の第1の部分を表示することは、表現に向けられた入力の第1の部分であって、第1の入力の大きさを有する入力第1の部分を検出したことに応じて、表現の第2の部分と、表現の第1の部分と表現の第2の部分との間にある表現の第3の部分とが第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することと、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、かつ表現に向けられた入力の第2の部分であって、第1の入力の大きさよりも大きい第2の入力の大きさを有する入力の第2の部分を検出したことに応じて、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示することと、を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムにおいて実行される方法が記載される。本方法は、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示することと、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示することと、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、第1のパラメータの現在値を調整するための第1のコントロールを表示することと、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。非一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。一時的コンピュータ可読記憶媒体は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される表現を、メディアの表現を含むユーザインタフェースに表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。
いくつかの実施形態によれば、表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムが記載される。コンピュータシステムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示する手段と、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示する手段と、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する手段と、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する手段と、を備える。
いくつかの実施形態によれば、コンピュータプログラム製品が記載される。コンピュータプログラム製品は、表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備える。1つ以上のプログラムは、表示生成構成要素を介して、メディアの表現であって、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むユーザインタフェースを表示し、第1のメディア処理スタイルを使用してメディアの表現を表示している間、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、第1のメディア処理スタイルの第1のパラメータとは異なる第2のパラメータを編集するための、第1のメディア処理スタイルの第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、1つ以上の入力デバイスを介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示する、命令を含む。これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
これらの機能を実行する実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるために構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
したがって、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための、より速く、より効率的な方法及びインタフェースがデバイスに提供され、それにより、そのようなデバイスの有効性、効率、及びユーザ満足度が増す。そのような方法及びインタフェースは、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための他の方法を補完又は置換することができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。
いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。
いくつかの実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す図である。
いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。
いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、ディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、パーソナル電子デバイスを示す。
いくつかの実施形態に係る、パーソナル電子デバイスを示すブロック図である。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。
いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。 いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、むしろ例示的な実施形態の説明として提供されることを認識されたい。
メディア処理スタイルを選択し、メディア処理スタイルを編集するために本明細書で説明される方法など、メディアの視覚的コンテンツに適用されるメディアスタイルを管理するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。そのような技術は、メディアを編集したいと思うユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、そのような技術は、普通なら冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減することができる。
以下、図1A~図1B、図2、図3、図4A~図4B、及び図5A~図5Bは、メディア処理スタイルを管理する技術を実行するための例示的なデバイスの説明を提供する。
図6A~図6Yは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。図7A~図7Xは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。図8A~図8Cは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。図9は、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。図10A~10Bは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。図6A~図6Y、図7A~7X、及び図8A~図8Cのユーザインタフェースは、図9及び図10A~10Bの処理を含む、以下に説明する処理を示すために用いられる。
後述のプロセスは、改善された視覚的なフィードバックをユーザに提供すること、操作を実行するために必要な入力の数を減らすこと、表示される追加のコントロールでユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供すること、条件のセットが満たされたときに更なるユーザ入力を必要とせずに操作を実行すること、及び/又は、他の技術を含む、様々な技術により、(例えば、ユーザがデバイスを操作/対話する際に適切な入力を行うのを助け、ユーザの誤りを減らすことによって)デバイスの操作性を高め、ユーザとデバイスのインタフェースを効率化するものである。これらの技術はまた、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用量を低減し、デバイスのバッテリ寿命を改善する。
更に、1つ以上のステップが満たされている1つ以上の条件を条件とする本明細書に記載の方法では、記載の方法は、繰り返しの過程にわたって、本方法のステップが条件とする条件の全てが本方法の異なる繰り返しで満たされるように、複数の繰り返しで繰り返されることができることを理解されたい。例えば、ある方法が、条件が満たされた場合に第1のステップを実行し、条件が満たされなかった場合に第2のステップを実行することを必要とする場合、当業者であれば、条件が満たされ、満たされなくなるまで、請求項に記載のステップが、特定の順序で繰り返されることを理解するであろう。したがって、満たされた1つ以上の条件に依存する1つ以上のステップで説明される方法は、方法に記載された各条件が満たされるまで繰り返される方法として書き換えられることができる。しかしながら、これは、システム又はコンピュータ可読媒体が、対応する1つ以上の条件の充足に基づいて条件付き動作を実行する命令を含み、したがって、方法のステップが条件付きである全ての条件が満たされるまで、方法のステップを明示的に繰り返すことなく偶発性が満たされたか否かを判定することができる、システム又はコンピュータ可読媒体の請求項には必要とされない。当業者はまた、条件付きステップを有する方法と同様に、システム又はコンピュータ可読記憶媒体が、条件付きステップの全てが実行されたことを確実にするために必要な回数だけ方法のステップを繰り返すことができることを理解するであろう。
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
「~の場合(if)」という用語は、任意選択的に、文脈に従って、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応じて(in response to determining)」若しくは「~を検出したことに応じて(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の条件又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に従って、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の条件又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の条件又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップコンピュータ又はタブレットコンピュータなどの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。いくつかの実施形態では、電子デバイスは、表示生成構成要素と通信している(例えば、有線通信を介して、無線通信を介して)コンピュータシステムである。表示生成構成要素は、CRTディスプレイを介した表示、LEDディスプレイを介した表示、又は画像投影を介した表示などの視覚的な出力を提供するように構成されている。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムと一体化される。いくつかの実施形態では、表示生成構成要素は、コンピュータシステムとは別個である。本明細書で使用するとき、「表示する」コンテンツは、コンテンツを視覚的に生成するために、有線又は無線接続で、データ(例えば、画像データ又はビデオデータ)を、一体型又は外部の表示生成構成要素に送信することによって、コンテンツ(例えば、ディスプレイコントローラ156によってレンダリング又はデコードされたビデオデータ)を表示させることを含む。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、通常、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーション毎に、及び/又は個別のアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透明なユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求において使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値が、接触の推定される力を判定するために組み合わされる(例えば、加重平均される)。同様に、スタイラスの感圧性先端部が、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変更、接触に近接するタッチ感知面の電気容量及び/若しくはその変更、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変更が、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力の代替測定値が、強度閾値を上回っているか否かを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触力又は圧力の代理測定値は、力又は圧力の推定値に変換され、力又は圧力の推定値が、強度閾値を上回っているか否かを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを表示する実装面積が限られている低減されたサイズのデバイス上で、ユーザが他の方法ではアクセス不可能であり得る追加のデバイス機能にユーザがアクセスすること(例えば、タッチ感知ディスプレイ上で)、及び/又は、ユーザ入力を受信すること(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的コントロールを介して)が可能となる。
本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前のポジションに対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変更に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。場合によっては、ユーザの動作により物理的に押圧された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の実施例として、タッチ感知面の移動は、タッチ感知面の平滑度に変更がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)及び/又は命令セットを動作させる又は実行して、デバイス100のための様々な機能を実施し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上に実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency、無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラ電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、モバイル通信用グローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution,Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE)、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、IEEE802.11n、及び/若しくはIEEE802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンション用のセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取り出され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光学センサコントローラ158、深度カメラコントローラ169、強度センサコントローラ159、触覚フィードバックコントローラ161、及び、他の入力デバイス若しくはコントロールデバイス用の1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。いくつかの実施形態では、電子デバイスは、1つ以上の入力デバイスと通信する(例えば、有線通信を介した無線通信を介して)コンピュータシステムである。いくつかの実施形態では、1つ以上の入力デバイスは、タッチ感知面(例えば、タッチ感知ディスプレイの一部としてのトラックパッド)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、入力としてユーザのジェスチャ(例えば、ハンドジェスチャ)を追跡するためなど、1つ以上のカメラセンサ(例えば、1つ以上の光学センサ164及び/又は1つ以上の深度カメラセンサ175)を含む。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムと一体化される。いくつかの実施形態では、1つ以上の入力デバイスは、コンピュータシステムとは別個である。
全体が参照により本明細書に組み込まれる、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押圧は、任意選択的に、タッチスクリーン112のロックを解放し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをロック解除するプロセスを開始する。プッシュボタン(例えば、206)のより長い押圧は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚的出力を表示する。この視覚的出力は、グラフィック、テキスト、アイコン、動画、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚的出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は、(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる移動又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体が参照により本明細書に組み込まれる、米国特許第6,323,846号(Westermanら)、同第6,570,557号(Westermanら)、及び/若しくは同第6,677,932号(Westerman)、並びに/又は米国特許出願公開第2002/0015024(A1)号に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚的出力を表示するのに対して、タッチ感知タッチパッドは視覚的出力を提供しない。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、以下の出願、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」で説明されている。これらの出願は全て、全体が参照により本明細書に組み込まれる。
タッチスクリーン112は、任意選択的に、100dpiを超える動画解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiの動画解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適したオブジェクト又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に使用して動作するように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど正確でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルのポジション又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッドを含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚的出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンによって形成されるタッチ感知面の拡張部である。
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状況インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光学センサ164を含む。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光学センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光学センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、任意選択的に、静止画像又は動画をキャプチャする。いくつかの実施形態では、光学センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対側のデバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又は動画の取得のためのビューファインダとして使用することが可能である。いくつかの実施形態では、ユーザが他のビデオ会議参加者をタッチスクリーンディスプレイ上で見ている間、ユーザの画像が、任意選択的に、テレビ会議のために取得されるように、光学センサはデバイスの前面に配置される。いくつかの実施形態では、光学センサ164のポジションは、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光学センサ164が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100は、任意選択的に、1つ以上の深度カメラセンサ175もまた含む。図1Aは、I/Oサブシステム106内の深度カメラコントローラ169に結合された深度カメラセンサを示す。深度カメラセンサ175は、環境からデータを受信して、視点(例えば、深度カメラセンサ)からのシーン内のオブジェクト(例えば、顔面)の3次元モデルを作成する。いくつかの実施形態では、撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、深度カメラセンサ175は、任意選択的に、撮像モジュール143によってキャプチャされた画像の異なる部分の深度マップを判定するために使用される。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間、任意選択的に、深度情報を有するユーザの画像をテレビ会議のために取得し、また、深度マップデータを有する自撮り画像をキャプチャするために、デバイス100の前面に深度カメラセンサが配置されている。いくつかの実施形態では、深度カメラセンサ175は、デバイスの背面に、又はデバイス100の背面及び前面に配置される。いくつかの実施形態では、深度カメラセンサ175のポジションは、ユーザによって(例えば、デバイス筐体内でレンズ及びセンサを回転させることによって)変更することができ、したがって深度カメラセンサ175が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又は動画の取得にも使用される。
デバイス100はまた、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗ひずみゲージ、容量性力センサ、電気力センサ、圧電力センサ、光学力センサ、容量性タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体が参照により本明細書に組み込まれる、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で記載されているように機能する。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに置かれた場合(例えば、ユーザが電話をかけている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触知フィードバック生成命令を触覚フィードバックモジュール133から受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と並置される、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に移動させることによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置される。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体が参照により本明細書に組み込まれる、米国特許出願公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許出願公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイに表示される。デバイス100は、加速度計(単数又は複数)168に加えて、磁気計並びにデバイス100のロケーション及び配向(例えば、縦方向又は横方向)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機を任意選択的に含む。
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示されるように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスのロケーション及び/又は姿勢に関するロケーション情報のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS、又はVxWorksなどの組込み型オペレーティングシステム)は、全般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに結合するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは同様であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を(ディスプレイコントローラ156と連携して)検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指ダウンイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が中止したか否かを判定すること(例えば、指アップイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変更)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するために(例えば、ユーザがアイコン上で「クリック」したか否かを判定するために)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくともサブセットは、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変更することなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく、広範囲の予め定義された閾値のうちのいずれかに設定することができる。加えて、いくつかの実装形態では、デバイスのユーザに、(例えば、個々の強度閾値を調整すること、及び/又は複数の強度閾値をシステムレベルのクリック「強度」パラメータによって一度に調整することによって)強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じポジション(又は実質的に同じポジション)(例えば、アイコンのポジション)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的な影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的プロパティ)を変更する構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリング及び表示する様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、動画、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
触覚フィードバックモジュール133は、触知出力生成器(単数又は複数)167によって使用される命令を生成するための様々なソフトウェア構成要素を含み、ユーザのデバイス100との相互作用に応じて、デバイス100上の1つ以上のロケーションでの触知出力を生成する。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスのロケーションを判定し、様々なアプリケーション内で使用するためにこの情報を提供する(例えば、ロケーションベースのダイアリングで使用するために電話138へ、ピクチャ/ビデオメタデータとしてカメラ143へ、及び気象ウィジェット、ローカルイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は動画用のカメラモジュール143、
●画像管理モジュール144、
●動画プレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダーモジュール148、
●任意選択的に、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●動画プレーヤモジュール及び音楽プレーヤモジュールを一体化した動画及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は、
●オンライン動画モジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、任意選択的に、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するために用いられ、それには、アドレス帳に名前(単数又は複数)を追加すること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含む。アドレス帳又は連絡先リストを管理するために使用される。
電話モジュール138は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、任意選択的に、電話番号に対応する一連の文字の入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、個別の電話番号のダイヤル、通話の実行、並びに通話終了時の接続解除及び通話停止のために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
テレビ会議モジュール139は、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、ユーザの命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
電子メールクライアントモジュール140は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に応じて電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又は動画画像を有する電子メールの作成及び送信を非常に容易にする。
インスタントメッセージングモジュール141は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージに対応する一連の文字の入力、以前に入力された文字の修正、(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)個別のインスタントメッセージの送信、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信される及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるようなグラフィック、写真、オーディオファイル、動画ファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、実行可能命令を含み、実行可能命令は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼の目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信する。
カメラモジュール143は、タッチスクリーン112、ディスプレイコントローラ156、光学センサ(単数又は複数)164、光学センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、静止画像若しくは(動画ストリームを含む)動画のキャプチャ及びメモリ102内への記憶、静止画像若しくは動画の特性の修正、又はメモリ102からの静止画像若しくは動画を削除するための実行可能な命令を含む。
画像管理モジュール144は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連携して、静止画像及び/若しくは動画の配置、修正(例えば、編集)、又はその他の操作、ラベル付け、削除、(例えば、デジタルスライドショー若しくはアルバムにおける)提示、及び記憶のための実行可能な命令を含む。
ブラウザモジュール147は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ウェブページ又はその一部、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含む、ユーザの命令に従ってインターネットをブラウジングするための実行可能な命令を含む。
カレンダーモジュール148は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザの命令に従って、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダーアイテム、to-doリストなど)を作成、表示、修正、及び記憶するための実行可能な命令を含む。
ウィジェットモジュール149は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されたミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
ウィジェットクリエータモジュール150は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
検索モジュール151は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)と一致するメモリ102内の文字、音楽、サウンド、画像、動画、及び/又は他のファイルを検索するための実行可能な命令を含む。
動画及び音楽プレーヤモジュール152は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、MP3又はAACファイルなどの1つ以上のファイルフォーマットで記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びに動画を(例えば、タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。
メモモジュール153は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ユーザの命令に従ってメモ、to-doリストなどを作成及び管理するための実行可能な命令を含む。
地図モジュール154は、RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、任意選択的に、ユーザの命令に従って、地図及び地図に関連付けられたデータ(例えば、運転の道順、特定のロケーション又はその付近の店舗及び他の見どころに関するデータ、並びに他のロケーションベースのデータ)を受信、表示、修正、及び記憶するために使用される。
オンライン動画モジュール155は、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、ユーザが特定のオンライン動画へのアクセス、特定のオンライン動画のブラウジング、(例えば、ストリーミング及び/又はダウンロードによる)受信、(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上の)再生、特定のオンライン動画へのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイルフォーマットのオンライン動画の他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンライン動画へのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンライン動画アプリケーションについての追加の説明は、その内容の全体が参照により本明細書に組み込まれる、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」を参照されたい。
上記で識別したモジュール及びアプリケーションは各々、前述した1つ以上の機能及び本出願に記載した方法(例えば、本明細書に記載したコンピュータにより実行される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、それぞれのソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成される。例えば、動画プレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aの動画及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける既定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを介して実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される既定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソート部170(例えば、オペレーティングシステム126内)と、個別のアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。
イベントソート部170は、イベント情報を受信し、イベント情報を配信するアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中であるときにタッチ感知ディスプレイ112に表示される現在のアプリケーションビュー(単数又は複数)を示すアプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソート部170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を判定するためにイベントソート部170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを可能にする状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、タッチ感知ディスプレイ112でのマルチタッチジェスチャの一部としてのユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
いくつかの実施形態では、イベントソート部170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示しているときに、サブイベントが1つ以上のビュー内のどこで起きたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(個別のアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて判定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するとき、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを識別する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成する一連のサブイベントにおける第1のサブイベント)が発生する最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって識別されると、ヒットビューは、通常、ヒットビューとして識別されたタッチ又は入力ソースと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)が特定の一連のサブイベントを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみが特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的ロケーションを含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、特定の一連のサブイベントを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、個別のイベント受信部182によって取り出されるイベント情報をイベントキューに記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。あるいは、アプリケーション136-1がイベントソート部170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部である。
いくつかの実施形態では、アプリケーション136-1は、各々がアプリケーションのユーザインタフェースの個別のビュー内で発生するタッチイベントを処理する命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、個別のアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット、又は、アプリケーション136-1がメソッド及び他のプロパティを継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、個別のイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソート部170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上が、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、個別のアプリケーションビュー191に含まれる。
個別のイベント認識部180は、イベントソート部170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントのロケーションなどの追加情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの配向から別の配向への(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の配向(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば、既定の一連のサブイベント)の定義を含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの移動、タッチのキャンセル、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。
いくつかの実施形態では、イベント定義187は、個別のユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、ヒットテストを実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、個別のイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベント処理部を選択する。
いくつかの実施形態では、個別のイベント187の定義は、一連のサブイベントがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。
個別のイベント認識部180は、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判定した場合、個別のイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、個別のイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように相互作用するか、又はイベント認識部が互いにどのように相互作用することが可能となるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、個別のイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、個別のイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、個別のヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなく、サブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定のプロセスを実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又は動画プレーヤモジュールで使用される動画ファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新しいユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトのポジションを更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含む又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、個別のアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、それらの全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の移動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、デバイス100と接触した指の、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、ローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択的に含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的にデバイス100上で実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112に表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、既定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、既定の時間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替の実施形態では、デバイス100は、マイクロフォン113を介して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力もまた受け入れる。デバイス100は、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167もまた含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、通常、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は、ディスプレイ340を含む入出力(I/O)インタフェース330を含み、ディスプレイ340は、通常、タッチスクリーンディスプレイである。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350並びにタッチパッド355と、デバイス300上に触知出力を生成する(例えば、図1Aを参照して前述した触知出力生成器(単数又は複数)167に類似している)触知出力生成器357と、センサ359(例えば、光、加速度、近接、タッチ感知、及び/又は図1Aを参照して前述した、接触強度センサ(単数又は複数)165に類似している接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU(単数又は複数)310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びデータ構造に類似したプログラム、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
図3の上記で識別した要素は各々、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で識別したモジュールは各々、前述した機能を実行する命令セットに対応する。上記で識別したモジュール又はコンピュータプログラム(例えば、命令セット又は命令を含む)は、別個のソフトウェアプログラム((例えば、命令を含む)コンピュータプログラムなど)、手順、又はモジュールとして実装される必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットが、任意選択的に組み合わされ、又は他の方法で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で識別したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
次に、任意選択的に、例えばポータブル多機能デバイス100に実装されるユーザインタフェースの実施形態に注意を向ける。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラ信号及びWi-Fi信号などの無線通信(単数又は複数)用の信号強度インジケータ(単数又は複数)402、
●時刻404、
●Bluetoothインジケータ405、
●バッテリ状況インジケータ406、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称される動画及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダー」とラベル付けされた、カレンダーモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンライン動画」とラベル付けされた、オンライン動画モジュール155のアイコン432、
○「株価」とラベル付けされた、株価ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136の設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、動画及び音楽プレーヤモジュール152のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、個別のアプリケーションアイコンに関するラベルは、個別のアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対して触知出力を生成する1つ以上の触知出力生成器357を含む。
以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の一次軸(例えば、図4Bの453)に対応する一次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれのロケーションに対応するロケーション(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの移動)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられる一方、いくつかの実施形態では、指入力のうちの1つ以上が別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに、)マウスクリックであって、その後に(例えば、接触の移動の代わりに)スワイプの経路に沿ったカーソルの移動を伴うマウスクリックによって置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャのロケーション上に位置している間、(例えば、接触を検出して、それに続いて接触の検出を中止する代わりに)マウスクリックによって置き換えられる。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及び300(例えば、図1A~図4B)に関して説明された機能のうちのいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504を有する。あるいは、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチ(複数)に、その強度に基づいて応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
タッチ強度を検出し処理する例示的な技術は、例えば、それぞれ全体が参照により本明細書に組み込まれる関連出願である、国際公開第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際公開第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」を参照されたい。
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的であり得る。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、眼鏡類、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、ウォッチのバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明した構成要素のうちのいくつか又は全てを含むことができる。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(near field communication、NFC)、セルラ、及び/又は他の無線通信技術を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530と接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば、回転可能な入力デバイスであるか、又は押下可能かつ回転可能な入力デバイスである。いくつかの実施例では、入力機構508は、任意選択的にボタンである。
いくつかの実施例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はそれらの組み合わせなどの様々なセンサを含み、それらは全て、I/Oセクション514に動作可能に接続することができる。
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶する1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス900及びプロセス1000(図9及び図10A~図10B)を含む、以下で説明される技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して、使用されるコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体であり得る。いくつかの実施例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの実施例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それらに限定されるものではないが、磁気記憶装置、光学記憶装置、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの永続性ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
本明細書で使用されるとき、「アフォーダンス」という用語は、任意選択的にデバイス100、300、及び/又は500(図1A、図3、及び図5A~図5B)のディスプレイスクリーンに表示される、ユーザ相互作用グラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)は各々、任意選択的に、アフォーダンスを構成する。
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが相互作用しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他のロケーションマーカーを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上に位置している間、入力(例えば、押圧入力)がタッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で検出されたとき、特定のユーザインタフェース要素は、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接相互作用を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)のロケーションで入力(例えば、接触による押圧入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。いくつかの実装形態では、(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによって)タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域に動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る具体的な形態に関わらず、フォーカスセレクタは、概して、ユーザが意図するユーザインタフェースとの相互作用を(例えば、ユーザがそれを通じて相互作用することを意図しているユーザインタフェースの要素をデバイスに示すことによって)通信するためにユーザによって制御されるユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、個別のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その個別のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲において使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する所定の時間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたか否かを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この実施例では、第1の閾値を超えない特性強度を有する接触は第1の動作をもたらし、第1の強度閾値を上回るが第2の強度閾値を超えない特性強度を有する接触は第2の動作をもたらし、第2の閾値を超える特性強度を有する接触は第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、個別の動作を実行するべきか、それとも個別の動作を実行するのを見合わせるべきか)を判定するために使用される。
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
図6A~図6Yは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルにアクセスするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図6Aは、ディスプレイの上部からディスプレイの底部まで延在するライブプレビュー630を含む、カメラユーザインタフェースを表示するコンピュータシステム600を示す。いくつかの実施形態では、ライブプレビュー630は、カメラ表示領域604を有するディスプレイの部分など、ディスプレイの一部のみに延在する。いくつかの実施形態では、コンピュータシステム600は、デバイス100、デバイス300、及び/又はデバイス500の1つ以上の構成要素を含む。
ライブプレビュー630は、コンピュータシステム600の1つ以上のカメラの視野内にある特定のシーン(例えば、図6Aにおいて山の前で花の隣に立っている人物)を示す。ライブプレビュー630は、コンピュータシステム600の1つ以上のカメラの少なくとも第1のカメラの(例えば、部分的な)視野(「FOV」)の表現である。ライブプレビュー630は、FOVにおいて検出された画像に基づいている。いくつかの実施形態では、コンピュータシステム600は、複数のカメラセンサを使用して画像をキャプチャし、それらを組み合わせてライブプレビュー630を表示する。いくつかの実施形態では、コンピュータシステム600は、単一のカメラセンサを使用して画像をキャプチャして、ライブプレビュー630を表示する。
図6Aのカメラユーザインタフェースは、インジケータ領域602及びコントロール領域606を含む。インジケータ領域602及びコントロール領域606は、インジケータ及びコントロールがライブプレビュー630と同時に表示されることができるように、ライブプレビュー630上に重ね合わされる。カメラ表示領域604は、インジケータ領域602とコントロール領域606との間に位置し、インジケータ又はコントロール(例えば、アフォーダンス)と実質的に重ならない。
図6Aに示されるように、インジケータ領域602は、フラッシュインジケータ602a、メディア処理スタイルインジケータ602b、アニメーション画像インジケータ602c、及び生画像インジケータ602eなどのインジケータを含む。フラッシュインジケータ602aは、フラッシュがオン、オフ、又は別のモード(例えば、自動モード)であるかどうかを示す。図6Aにおいて、フラッシュインジケータ602aは、フラッシュがオフであることを示す。メディア処理スタイルインジケータ602bは、コンピュータシステム600が、コンピュータシステム600の1つ以上のカメラによってキャプチャされた視覚的コンテンツ(例えば、データ)に適用されるメディア処理スタイルを制御するためのメディア処理スタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを表示しているかどうかを示す。図6Aでは、メディア処理スタイルインジケータ602bは非アクティブ状態で表示されており、これは、メディア処理スタイルを制御するための複数の選択可能なユーザインタフェースオブジェクトが表示されていないことを示す。いくつかの実施形態では、メディア処理スタイルは、メディア処理パラメータのセットを有する(例えば、メディア処理パラメータのセットを定義する、及び/又はメディア処理パラメータのセットによって定義される)。いくつかの実施形態では、パラメータのうちの1つ以上は、コンピュータシステム600の1つ以上のカメラによってキャプチャされる視覚的コンテンツを変更するためにコンピュータシステム600が使用することができる視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)を表す。いくつかの実施形態では、各パラメータは、個別のパラメータを有する特定のメディア処理スタイルがメディアの視覚的コンテンツに適用されるときに、コンピュータシステム600が視覚的コンテンツをどのように変更するかに影響を与える値に関連付けられる(又は値を有する)。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、事前に定義され、コンピュータシステム600のユーザによって作成されない(例えば、コンピュータシステム600のユーザがメディア処理スタイルを定義することなく、コンピュータシステム上に事前にインストールされる)。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、コンピュータシステム600のユーザによってカスタマイズ、修正、及び/又は作成される。いくつかの実施形態では、各メディア処理スタイルは、同じタイプのパラメータ(例えば、同じタイプの視覚的特性に対応するパラメータ)を有する。いくつかの実施形態では、メディア処理スタイルのうちの1つ以上は、同じタイプのパラメータを有するが、1つ以上のメディア処理スタイルに対応するタイプのパラメータのうちの1つ以上の異なる値を有する。
アニメーション画像インジケータ602cは、(例えば、メディアをキャプチャする要求を検出したことに応じて、)単一の画像又は複数の画像をキャプチャするようにカメラが構成されているかどうかを示す。いくつかの実施形態では、インジケータ領域602は、ライブプレビュー630上に重ね合わされ、任意選択的に着色された(例えば、灰色及び/又は半透明)オーバーレイを含む。生画像キャプチャインジケータ602eは、コンピュータシステム600が生画像メディアフォーマットでメディアを記憶及び/又はキャプチャするように構成されているかどうかを示す。図6Aでは、生画像キャプチャインジケータ602eが非アクティブ状態で表示されており、これは、コンピュータシステム600が非生画像フォーマット(例えば、JPEGフォーマット及び/又はHEICフォーマット)でメディアを記憶及びキャプチャするように構成されていることを示す。いくつかの実施形態では、生画像フォーマットで記憶されたメディアのファイルサイズは、非生画像フォーマットで記憶された同じメディアのファイルサイズより大きい。いくつかの実施形態では、生画像フォーマットで記憶されたメディアは、非生画像フォーマットで記憶された同じメディアよりも多くの情報を含む。いくつかの実施形態では、このより多くの情報は、生画像フォーマットで記憶されたメディアが、非生画像フォーマットで記憶されたメディアよりも多くの方法でキャプチャ後に編集されることを可能にする。いくつかの実施形態では(図6V~図6Yに関連して以下で更に説明するように)、コンピュータシステム600は、(例えば、図6Xに示すように)生画像キャプチャインジケータ602eがアクティブ状態で表示されているとき、及び/又はコンピュータシステム600が生画像フォーマットでメディアを記憶及びキャプチャするように構成されているとき、メディア処理スタイルインジケータ602bを表示することを中止する。いくつかの実施形態では、コンピュータシステム600は、生画像キャプチャインジケータ602eがアクティブ状態で表示されるとき、メディア処理スタイルインジケータ602bを非アクティブ状態で表示する。
図6Aに示すように、カメラ表示領域604は、ライブプレビュー630及びズームコントロール622を含む。ズームコントロール622は、0.5×ズームコントロール622a、1×ズームコントロール622b、及び2×ズームコントロール622cを含む。図6Aでは、1×ズームコントロール622bが選択され、これは、1×ズームレベルでライブプレビュー630が表されることを示す。
図6Aに示すように、コントロール領域606は、シャッターコントロール610、カメラスイッチャコントロール614、メディアコレクション612の表現、及びカメラモードコントロール620を含む。シャッターアフォーダンス610は、アクティブ化されると、コンピュータシステム600に、ライブプレビュー630の現在の状態及びカメラアプリケーションの現在の状態に基づいて、1つ以上のカメラセンサを使用して、メディア(例えば、写真)をキャプチャさせる。キャプチャされたメディアは、コンピュータシステム600にローカルに記憶される、及び/又は記憶のためにリモートサーバに送信される。カメラスイッチャアフォーダンス614は、アクティブ化されると、コンピュータシステム600に、背面カメラセンサと前面カメラセンサとの間を切り替えることなどによって、ライブプレビュー630内の異なるカメラの視野を示すように切り替えさせる。図6Aに示すメディアコレクション612の表現は、コンピュータシステム600によって直近にキャプチャされたメディア(画像、ビデオ)の表現である。いくつかの実施形態では、メディアコレクション612上の入力を検出したことに応じて、コンピュータシステム600は、(後述する)図6S~6Uに示すユーザインタフェースと同様のユーザインタフェースを表示する。
図6Aに示すように、カメラモードコントロール620は、スローモーションモードコントロール620a、ビデオモードコントロール620b、写真モードコントロール620c、ポートレートモードコントロール620d、及びパノラマモードコントロール620eを含む。図6Aに示すように、写真モードコントロール620cが選択されており、写真モードコントロール620cが太字で示されている。写真モードコントロール620cが選択されると、コンピュータシステム600は写真キャプチャモードで動作しており、コンピュータシステム600がシャッターコントロール610に向けられた入力を検出したことに応じて、写真メディア(例えば、静止写真)のキャプチャを開始する(例えば、及び/又はキャプチャする)。コンピュータシステム600によってキャプチャされる写真メディアは、シャッターコントロール610への入力が検出されたとき(又はその後)に表示されるライブプレビュー630を表す。いくつかの実施形態では、スローモーションモードコントロール620aに向けられた入力を検出したことに応じて、コンピュータシステム600は、スローモーションメディアキャプチャモードで動作し、メディアがキャプチャされた速度よりも遅い速度で再生されるメディア(例えば、スローモーション効果が適用されたビデオ、スローモーションビデオ)のキャプチャを開始する。いくつかの実施形態では、ビデオモードコントロール620bに向けられた入力を検出したことに応じて、コンピュータシステム600は、ビデオキャプチャモードで動作し、ビデオメディア(例えば、ビデオ)のキャプチャを開始する。いくつかの実施形態では、ポートレートモードコントロール620dに向けられた入力を検出したことに応じて、コンピュータシステム600はポートレートモードで動作し、ポートレートメディア(例えば、静止写真、シミュレートされたぼけ又はシミュレートされた被写界深度効果が適用された静止写真)のキャプチャを開始する。いくつかの実施形態では、パノラマモードコントロール620eに向けられた入力を検出したことに応じて、コンピュータシステム600はパノラマモードで動作し、パノラマメディア(例えばパノラマ写真)のキャプチャを開始する。いくつかの実施形態では、カメラユーザインタフェース上に表示されるインジケータ及び/又はコントロールは、選択されたモード(例えば、及び/又はコンピュータシステム600が選択されたカメラモードに基づいて動作するように構成されるモード)に基づく。
図6Aでは、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630を表示しており、これは、水平線のパターンを重ね合わせたライブプレビュー630によって示されている。コンピュータシステム600は、メディアの表現(例えば、ライブプレビュー630及び/又は図6S~6Uなどのメディアの以前にキャプチャされた表現)のそれぞれの部分にわたって、図に示されるパターン(例えば、特定の方向(例えば、水平、垂直、斜め)の線のセット)を必ずしも表示しないことを理解されたい。例えば、図6Aでは、コンピュータシステム600は、ライブプレビュー630を表示するときに、水平線のセットを必ずしも表示しない。しかしながら、図示されるパターンは、特定のメディア処理スタイル(例えば、図6Aの標準スタイル634a)を使用して表示されているメディアの表現の特定の部分の象徴である。上述したように、特定のメディア処理スタイルがメディアの視覚的コンテンツに適用されるとき、メディア処理スタイルを使用して表示されるメディアの表現の視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)は、メディア処理スタイルを使用して表示されないメディアの表現の視覚的特性とは異なって見える。
図6Aでは、(例えば、図6B及び図6I~図6Jに関連して更に説明するように)標準スタイル634aが現在選択されているメディア処理スタイルであり、コンピュータシステム600が(例えば、図8A~図8Cに関連して更に説明するように)メディア処理スタイルアプリケーションモードで動作するように構成されているため、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630を表示する。いくつかの実施形態では、別のメディア処理スタイルが現在選択されているメディア処理スタイルである場合、コンピュータシステム600は、図6Aの他のメディア処理スタイルを使用してライブプレビュー630を表示する。いくつかの実施形態では、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作するように構成されていないとき、コンピュータシステム600は(例えば、図8A~図8Cに関連して更に説明するように)メディア処理スタイルインジケータ602bを表示しない、及び/又はメディア(例えば、ライブプレビュー630及び/又は以前にキャプチャされたメディア)の表現にメディア処理スタイルを適用しない。図6Aでは、コンピュータシステム600は、シャッターコントロール610上の(例えば、シャッターコントロール610に向けられた、及び/又はシャッターコントロール610に対応するロケーションにおける)タップ入力650aを検出する。
図6Bでは、タップ入力650aを検出したことに応じて、コンピュータシステム600は、FOVで表されるメディアのキャプチャを開始し、キャプチャされたメディアの表現(例えば、図6Aのライブプレビュー630)を含むようにメディアコレクション612を更新する。特に、図6Bのメディアコントロール612内の表現(「図6Bの表現」)は、図6Aのメディアコントロール612内の表現(例えば、「図6Aの表現」)とは異なって見える。図6Bの表現には、標準スタイル634a(例えば、水平線)が適用されており、図6Aの表現には、標準スタイル634aが適用されていない。図6Bのメディアコレクション612内の表現は、コンピュータシステム600が標準スタイル634aを使用してライブプレビュー630を表示していたため、及び/又はタップ入力650aが検出されたときにキャプチャされたメディアに適用される現在選択されているメディア処理スタイルが標準スタイル634aであったため、標準スタイル634aが適用されている。一方、図6Aのメディアコレクション612内の表現は、標準スタイル634aが適用されていない。いくつかの実施形態では、これは、ライブプレビュー630が標準スタイル634aを使用して表示されていた間、及び/又は図6Aの表現に対応するメディアをキャプチャする要求がキャプチャされたときに標準スタイル634aが現在選択されているメディア処理スタイルであった間、図6Aのメディアコレクション612内の表現によって表されるメディアがキャプチャされなかったからである。いくつかの実施形態では、図6Bの表現を表示するために、コンピュータシステム600は、(例えば、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作していないときに発生し得るキャプチャメディアの視覚的特性の通常及び/又はデフォルト(例えば、非ユーザ修正)変更に加えて)図6Bの表現に対応するメディアの視覚的特性を変更する。いくつかの実施形態では、図6Aの表現は、(例えば、コンピュータシステム600がメディア処理スタイルアプリケーションモードで動作していないときに起こり得る、及び/又はFOV内の1つ以上の要素(例えば、照明、影)に基づいて起こり得る、キャプチャされたメディアの視覚的特性の通常及び/又はデフォルトの変更に加えて)図6Aの表現によって表されるメディアの視覚的特性を変更することによって表示されない。図6Bでは、コンピュータシステム600は、メディア処理スタイルインジケータ602b上のタップ入力650bを検出する。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルを制御するためのメディア処理スタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを表示する。特に、コンピュータシステム600は、異なるメディア処理スタイルを使用してライブプレビュー630の異なる部分を表示する。図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の中央の部分(「中間セクション」)を表示し続け、標準スタイル634aを使用して中間セクションの左側にあるライブプレビュー630の部分(「左セクション」)及び中間セクションの右側にあるライブプレビュー630の部分(「右セクション」)を表示することを中止する。例示のみを目的として、図6Cは、(例えば、図6Cにおいてコンピュータシステム600によって任意選択的に表示される)左境界642a及び右境界642bを示す。本明細書で使用される場合、説明を容易にするために、左セクションは、左境界642aの左側のライブプレビュー630の部分とすることができ、中間セクションは、左境界642aと右境界642bとの間のライブプレビュー630の部分とすることができ、右セクションは、右境界642bの右側のライブプレビュー630の部分とすることができる。しかしながら、これらのそれぞれのセクションは、説明を容易にするために参照され、コンピュータシステム600は、1つ以上のメディア処理スタイルを、メディアの表現の任意の数の部分/セクション、並びにメディアの表現の多くの異なるサイズ、形状、及び/又は構成された部分/セクションに適用することができる。
図6Cに示すように、タップ入力650bを検出したことに応じて、左セクション及び右セクションは、メディア処理スタイルを使用せずに(例えば、パターンを使用せずに)、及び/又はタップ入力650bが検出される前に表示されなかった異なるメディア処理スタイルを使用せずに表示される(例えば、図6Cの左セクションは、図6Bの左セクションと同じように示される)。タップ入力650bを検出したことに応じて、コンピュータシステムは、これらのセクションの上に灰色のオーバーレイを表示することによって、右セクション及び左セクションの視覚的突出を低減した。したがって、図6Cに示すように、右セクション及び左セクションは、インジケータ領域602及びコントロール領域606に視覚的にマージされており、これらも灰色のオーバーレイで表示されている。図6Cに示すように、右セクションは、オブジェクトの境界/フレームの一部である視覚的要素660bを含む。視覚的要素660bは、標準スタイル634aとは異なる別のメディア処理スタイルがライブプレビュー630に適用され得ることを示す。ここでは、コンピュータシステム600が、特定の方向(例えば、後述する図6Dの移動入力(例えば、スワイプ入力、ドラッグ入力)650dの方向)の入力(例えば、ページングドット638によって示され、後述する)を検出したことに応じて、1つ以上の他のメディア処理スタイルを選択できると判定したため、視覚的要素660bが右セクションに表示されている。加えて、コンピュータシステム600が、別の方向(例えば、後述する図6Dの移動入力650dと反対の方向)の入力(例えば、ページングドット638によって示され、後述する)を検出したことに応じて、1つ以上の他のメディア処理スタイルを選択することができないと判定したため、視覚的要素は左セクションに表示されていない。図6Cに示すように、コンピュータシステム600は、中間セクションと右セクションとの間に仕切り640も表示した。仕切り640は、適用されるメディア処理スタイルなしで、及び/又は仕切り640の視覚的突出を低減/増大させる視覚的要素なしで表示される。いくつかの実施形態では、仕切り640は、異なるメディア処理スタイルが適用された部分及び/又は視覚的要素が含まれた部分の間に表示される。いくつかの実施形態では、仕切り640は、メディア処理スタイルが適用されたライブプレビュー630の個別の部分を、メディア処理スタイルが適用されていないライブプレビュー630の別の部分と線引きする、及び/又は画定するために使用される。いくつかの実施形態では、仕切り640は、ライブプレビュー630などのメディアの表現に対する2つの隣接する及び/又は異なるメディア処理スタイルのアプリケーション間でのみ表示される。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、標準スタイル634aが現在選択されているメディア処理スタイルであることを示す標準スタイル識別子636a(例えば、「標準」)も表示する。図6Cに示すように、カメラ表示領域604内のライブプレビュー630の大部分は、現在選択されているメディア処理スタイル(例えば、標準スタイル634a)を使用して表示される。いくつかの実施形態では、カメラ表示領域604内のライブプレビュー630の大部分は、現在選択されているメディア処理スタイルを使用して表示されない。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600はまた、標準ページングドット638a、鮮やかなページングドット638b、高級ページングドット638c、及びヴィンテージページングドット638dを含むページングドット638を表示する。ここでは、メディアの表現の中間セクションが標準メディア処理スタイルを使用して表示されるため、標準ページングドット638aが選択されているものとして表示される(例えば、開放ページングドットによって表される)。いくつかの実施形態では、メディアの表現(例えば、ライブプレビュー630)のより大きな部分が、任意の他のメディア処理スタイルではなく標準スタイル634aを使用して表示されるため、標準ページングドット638aが選択されているものとして表示される。
更に、図6Cに示すように、各ページングドット(例えば、ページングドット638)は、利用可能なメディア処理スタイルのセット内のメディア処理スタイルに対応する。利用可能なメディア処理スタイルのセットは、コンピュータシステム600がメディアの表現の一部を表示するために使用することができるメディア処理スタイルである。したがって、図6Cでは、コンピュータシステム600は、少なくとも4つの利用可能なメディア処理スタイルを使用してメディアの表現の一部を表示することができる。いくつかの実施形態では、ページングドットがページングドット638に追加されると、コンピュータシステム600は、追加されたページングドットに対応する(例えば、それによって表される)メディア処理スタイルを、利用可能なメディア処理スタイルのセットに追加する。いくつかの実施形態では、ページングドットがページングドット638から削除されると、コンピュータシステム600は、削除されたメディア処理スタイルに対応する(例えば、それによって表される)メディア処理スタイルを利用可能なメディア処理スタイルのセットから削除する。いくつかの実施形態では、コンピュータシステム600は、メディアの表現を表示するために使用され得るいくつかのメディア処理スタイル、及び/又はメディアの表現を表示するために使用され得る現在のメディア処理スタイルを表すために、1つ以上の他の指示(例えば、ページングドット以外)を表示する。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、ズームコントロール622を表示することを中止し、図6Bにおいてズームコントロール622が以前に表示されていたロケーションに標準スタイルコントロール626aを表示する。(例えば、タップ入力750sが検出されたことに応じて、図7Sに関連して以下で説明する)標準スタイルコントロール626aは、コントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2を含む。いくつかの実施形態では、暖かさパラメータは、メディアアイテムの色温度バイアス(例えば、メディアアイテム内の色が、青、緑、及び/又は紫などの寒色に向かって、及び/又は赤、黄、及び/又はオレンジなどの暖色に向かってシフトされるかどうか)を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの彩度を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの画像の明るい領域と暗い領域との間の差(例えば、光度、コントラスト、輝度、及び/又は影)を制御する。いくつかの実施形態では、トーンパラメータは、メディアアイテムの彩度を制御する。いくつかの実施形態では、トーンパラメータは、画像の彩度及び明るい領域と暗い領域との間の差を制御する(例えば、一方の方向において彩度及び明るい領域と暗い領域との間の差を増加させ、他方の方向において彩度及び明るい領域と暗い領域との間の差を減少させる)。いくつかの実施形態では、コンピュータシステム600は、シーン内の要素(例えば、人、動物、ペット、木、花、鳥、建物、空、風景、山、衣服、皮膚、日没、及び/又は水)を認識しており、トーンパラメータに対する調整は、シーンの異なる要素に対して異なる効果を有し、その結果、トーンパラメータの調整は、画像の明るい領域と暗い領域との間で異なる程度の調整、及び/又はシーン内の異なる要素に対して異なる彩度を引き起こす(例えば、人又はペットの彩度を高めるよりも、空又は山又は風景の彩度を高める)。例えば、トーンパラメータが増加されるとき、人の肌に適用される彩度の量は、人の衣服に適用される彩度の量よりも小さい(任意選択で、人の肌に適用される彩度増加の量は、0又は0に近い)、及び/又は人の衣服に適用される彩度の量は、人の後ろの風景又は日没に適用される彩度の量よりも小さい。
トーンパラメータコントロール626a1は、トーンパラメータ識別子626a1a、現在のトーン値626a1b、及びトーン値範囲インジケータ626a1cを含む。トーンパラメータ識別子626a1aは、トーンパラメータコントロール626a1aによって制御されるパラメータ(例えば、トーンパラメータ)のタイプを示す。現在のトーン値626a1bは、標準スタイル634aのトーンパラメータの現在値を示す。トーン値範囲インジケータ626a1cは、トーンパラメータの現在値を含む値の範囲の一部である。同様に、暖かさパラメータコントロール626a2は、暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cを含む。暖かさパラメータ識別子626a2aは、暖かさパラメータコントロール626a2aによって制御されるパラメータ(例えば、暖かさパラメータ)のタイプを示す。暖かさトーン値626a2bは、標準スタイル634aの暖かさパラメータの現在値である。暖かさ値範囲インジケータ626a2cは、暖かさパラメータの暖かさ値を含む値の範囲の一部である。注目すべきことに、現在のトーン値626a1b及び現在の暖かさ値626a2bはそれぞれ、標準スタイル634aについてのトーンパラメータ及び標準スタイル634aについての暖かさパラメータのデフォルト値(例えば、「0」)である。いくつかの実施形態では、メディア処理スタイルの個別のパラメータのデフォルト値は、予め定義され、ユーザ入力なしに設定される値である。
図6Cに示すように、タップ入力650bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を更新する。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bをアクティブ状態に更新し、これは、メディア処理スタイルユーザインタフェース及び/又はメディア処理スタイルを制御するための選択可能なユーザインタフェースオブジェクトが表示されていることを示す。いくつかの実施形態では、コンピュータシステム600は、メディア処理スタイルインジケータ602bを、色の変更、スラッシュ(例えば、フラッシュインジケータ602a上のスラッシュ)の削除、強調表示、及び/又はメディア処理スタイルインジケータ602bのサイズの縮小/拡大など、メディア処理スタイルアプリケーションモードがアクティブ状態にあることを示す他の方法で更新する。いくつかの実施形態では、コンピュータシステム600は、メディア処理スタイルインジケータ602bを更新して、現在選択されているメディア処理スタイルを示す。したがって、いくつかの実施形態では、コンピュータシステム600は、新しいメディア処理スタイルが現在のメディア処理スタイルになったときにメディア処理スタイルインジケータ602bの外観を更新する。いくつかの実施形態では、図6Cのメディア処理スタイルインジケータ602b上のタップ入力を検出したことに応じて、コンピュータシステムは、図6Aのユーザインタフェースを再表示する。いくつかの実施形態では、アニメーション画像インジケータ602c上のタップ入力を検出したことに応じて、コンピュータシステム600は、図6Aのユーザインタフェースを表示する。図6Cでは、コンピュータシステム600は、シャッターコントロール610上のタップ入力650cを検出する。
図6Dに示すように、タップ入力650cを検出したことに応じて、コンピュータシステム600は、FOVで表されるメディアのキャプチャを開始し、キャプチャされたメディアの表現(例えば、図6Cのライブプレビュー630)(「図6Dの表現」)を含むようにメディアコレクション612を更新する。図6Dのキャプチャされたメディアの表現は、標準スタイル634aが適用されており(例えば、水平線のセットを含む)、標準スタイル634aが適用された(例えば、水平線のセットがない)図6Bの表現と同じである。図6Bの表現及び図6Dの表現は同じであるが、図6Bの表現は、ライブプレビュー630の全体が標準スタイル634aを使用して表示されている間にキャプチャされたものであり、図6Dの表現は、中間セクションのみが標準スタイル634aを使用して表示されているときにキャプチャされたものである。図6Dでは、標準スタイル634aが、図6Dの表現の右、中央、及び左のセクションに適用されているが、ライブプレビュー630の右及び左のセクションは、(例えば、タップ入力650cが検出されたことに応じて)標準スタイル634aを使用して表示されていない。図6Dにおいて、標準スタイル634aは、図6Cのライブプレビュー630を表示するために使用されたFOV内の視覚的コンテンツに適用されたものよりも、キャプチャされたメディアの視覚的コンテンツのより大きな部分(及び/又は全て)に適用される。図6Dにおいて、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第1の部分を検出する。移動入力650d(例えば、移動入力650dの任意の部分)は、ライブプレビュー630の任意のロケーションで検出され得ることを理解されたい。いくつかの実施形態では、移動入力650dの部分は、左セクション、視覚的要素660b、及び/又は特定のメディア処理スタイル(例えば、図6Eに関連して後述するように、標準スタイル634a、鮮やかなスタイル634b、及び/又は視覚的要素660bを含む)上で検出されない。
図6Eに示すように、左方向の移動入力650dの第1の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の一部(例えば、中間セクションの左部分及び左セクションを含む)を表示し、鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、中間セクションの右部分及び右セクションを含む)を表示する。図6Eでは、鮮やかなスタイル634bは、上向きの斜線(例えば、北東方向に移動する線)のセットによって示される。図6Dに戻ると、コンピュータシステム600は、図6Dの鮮やかなスタイル634bを使用してライブプレビュー630の一部を表示しなかった。図6Eに示されるように、標準スタイル634aは、これらのメディア処理スタイルがライブプレビュー630が異なる方法でどのように表示されるかに影響を与えることを示すために、鮮やかなスタイル634bとは異なる線のセットによって示される。標準スタイル634aを使用して表示されるライブプレビュー630の部分及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズは、移動入力650dの第1の部分の移動特性(例えば、速度、方向、加速度、及び/又は時間を含む)の大きさに基づく。いくつかの実施形態では、図6Dの移動入力650dの部分よりも大きい大きさを有する移動入力650dの部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用して表示される図6Eのライブプレビュー630の部分よりも小さい標準スタイル634aを使用するライブプレビュー630の部分を表示し、鮮やかなスタイル634bを使用して表示される図6Eのライブプレビュー630の部分よりも大きい鮮やかなスタイル634bを使用するライブプレビュー630の部分を表示する。いくつかの実施形態では、図6Dの移動入力650dの部分よりも小さい大きさを有する移動入力650dの部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用して表示される図6Eのライブプレビュー630の部分よりも大きい標準スタイル634aを使用してライブプレビュー630の部分を表示し、鮮やかなスタイル634bを使用して表示される図6Eのライブプレビュー630の部分よりも小さい鮮やかなスタイル634bを使用してライブプレビュー630の部分を表示する。したがって、いくつかの実施形態では、個別のメディア処理スタイルを使用して表示されるライブプレビュー630の量は、移動入力の大きさに基づく。いくつかの実施形態では、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを移動入力650dで移動させる。いくつかの実施形態では、図6Eの鮮やかなスタイル634bを使用してライブプレビュー630の一部を表示することの一部として、コンピュータシステム600は、視覚的要素660bを表示することを中止する。いくつかの実施形態では、視覚的要素660bの表示を中止することの一部として、コンピュータシステム600は、図6Eの鮮やかなスタイル634bを使用して、視覚的要素660bがライブプレビュー630の部分の少なくともサブセットに遷移するアニメーション(例えば、フェードアニメーション、ディゾルブアニメーション)を表示する。いくつかの実施形態では、移動入力650dを検出したことに応じて(例えば、入力の任意の移動が検出される前に)、コンピュータシステム600は、図6Eの鮮やかなスタイル634bを使用して、ライブプレビュー630の部分の少なくともサブセットに遷移する視覚的要素660bのアニメーションを表示する。いくつかの実施形態では、移動入力650dを検出している間に、コンピュータシステム600は、シャッターコントロール610上のタップ入力を検出し、シャッターコントロール610上のタップ入力を検出したことに応じて、(例えば、図6Eでは標準スタイル634aが現在選択されているため)標準スタイル634aが適用されたメディアをキャプチャする。図6Eでは、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第2の部分を検出する。
図6Fに示すように、左方向の移動入力650dの第2の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを左に(例えば、移動入力650dの第2の部分の方向に)移動させる。図6Fに示すように、左方向の入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、標準スタイル634aを使用してライブプレビュー630の一部(例えば、図6E及び左セクションと比較して中間セクションの縮小部分を含む)を表示し、鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、図6E及び右セクションと比較して中間セクションの拡大部分を含む)を表示する。したがって、移動入力650dの第2の部分に基づいて、図6Fの標準スタイル634aを使用して表示されるライブプレビュー630の部分のサイズは、図6Eの標準スタイル634aを使用して表示されるライブプレビュー630の部分のサイズよりも小さい。更に、移動入力650dの第2の部分に基づいて、図6Fの鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズは、図6Eの鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分のサイズよりも大きい。コンピュータシステム600が標準スタイル634a及び鮮やかなスタイル634bのアプリケーションを左に移動させるにつれて、コンピュータシステム600は、(例えば、入力650dの移動に基づいて、及び/又はそれと一致して)標準スタイル634aを使用して表示されるライブプレビュー630の部分と鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分との間に仕切り640を維持しながら仕切り640を移動させる。
図6Fでは、移動入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、標準スタイル識別子636aを表示することを中止し、鮮やかなスタイル識別子636b(例えば、「鮮やかな」)を(例えば、標準スタイル識別子636aが以前に表示されたロケーションに)表示する。加えて、コンピュータシステム600はまた、ページングドット638を更新して、鮮やかなページングドット638b(例えば、中空/開放ページングドット)が選択され、標準ページングドット638aが選択されない(例えば、中実/閉鎖ページングドット)ことを示す。ここで、コンピュータシステム600は、標準スタイル634aを使用して表示されるライブプレビュー630の部分よりもライブプレビュー630の大きな部分(又は同等の部分)が鮮やかなスタイル634bを使用して表示されると決定されているため、鮮やかなスタイル識別子636bを表示し、鮮やかなページングドット638bを選択されているものとして表示する。この決定のために、コンピュータシステム600は、鮮やかなスタイル634bを現在選択されているメディア処理スタイルとして設定し、標準スタイルコントロール626aを鮮やかなスタイルコントロール626bで置き換える。図6Fに示すように、鮮やかなスタイルコントロール626bは、コントロール628、(例えば、鮮やかなスタイル634bのトーンパラメータを制御するための)トーンパラメータコントロール626b1、及び(例えば、鮮やかなスタイル634bの暖かさパラメータを制御するため)暖かさパラメータコントロール626b2を含み、これらは、(例えば、図6Cのコントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2にそれぞれ関連して)上述したものと同様の技術を使用して表示される。現在のトーン値626b1bは、鮮やかなスタイル634bのトーンパラメータのデフォルト値(例えば、「80」)であり、現在の暖かさ値626b2bは、鮮やかなスタイル634bの暖かさパラメータのデフォルト値(例えば、「0」)である。特に、標準スタイル634aのためのトーンパラメータのデフォルト値は、鮮やかなスタイル634bのためのトーンパラメータのデフォルト値とは異なる。同様に、トーン値範囲インジケータ626a1cは、現在のトーン値626a1b及び現在のトーン値626b1bが異なるため(例えば、個別の現在値がトーンパラメータのスケールの異なる範囲に位置付けられるため)、トーン値範囲インジケータ626b1cとは異なる。いくつかの実施形態では、それぞれのメディア処理スタイルの特定のタイプのパラメータのデフォルト値の差は、異なるメディア処理スタイルの定義につながる。
図6Eを再び参照すると、コンピュータシステム600は、図6Eにおいて、ライブプレビュー630の、標準スタイル634aを使用して表示されるライブレビュー630の部分よりも大きな部分(又は等しい部分)が、鮮やかなスタイル634bを使用して表示されると判定されなかったため(例えば、及び/又はライブプレビュー630の、鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分よりも大きな部分(又は等しい部分)が、標準スタイル634aを使用して表示されると判定されたため)、標準スタイルコントロール626a及び標準スタイル識別子636aを表示し続け、選択された標準ページングドット638aを表示し続ける。図6Fに戻ると、いくつかの実施形態では、コンピュータシステム600は、鮮やかなスタイル634bがライブプレビュー630の特定の部分(例えば、ライブプレビュー630及び/又はコンピュータシステム600のディスプレイの中心/付近の部分)を使用して表示され、及び/又は鮮やかなスタイル634bがライブプレビュー630の境界ロケーション(例えば、ライブプレビュー630及び/又はコンピュータシステム600のディスプレイの中心/付近)に現在表示されているため、鮮やかなスタイルコントロール626b及び鮮やかなスタイル識別子636bを表示し、鮮やかなページングドット638bを選択されているものとして表示する。図6Fでは、コンピュータシステム600は、ライブプレビュー630上の右方向の移動入力650dの第3の部分を検出する。移動入力650dの第3の部分は、移動入力650dの第1の部分及び第2の部分の反対方向に移動するものとして検出される。
図6Fに示すように、移動入力650dの第2の部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を変更する。図6Fでは、メディア処理スタイルインジケータ602bの外観は、現在選択されているメディア処理スタイルが標準スタイル634a(例えば、図6E)から鮮やかなスタイル634b(例えば、図6F)に変化しており、鮮やかなスタイル634bが標準スタイル634aのパラメータの値とは異なるパラメータの値(例えば、トーンパラメータ)を有するので、変化する。図6Fに示されるように、コンピュータシステム600は、メディア処理スタイルインジケータ602bの周囲を時計回り方向に移動する線を表示する(例えば、メディア処理スタイルインジケータ602bの周囲(及び/又は境界)の上部の中央付近に開始点を有する)。線は、トーンパラメータの現在値(例えば、図6Fの「80」)を表すように表示される。図6Fに示されるように、線は、トーンパラメータの現在値と、トーンパラメータを設定可能な最小値(例えば、「-100」)及び/又は最大値(例えば、100)との間の関係に基づいて、メディア処理スタイルインジケータ602bの周囲を移動する。したがって、図6Fに示すように、現在値(例えば、「80」)が例示的な最大値(例えば、「100」)の80パーセントであるため、線は、メディア処理スタイルの周囲のおよそ80パーセントを移動する。図6Eを再び参照すると、図6Eにおけるトーンパラメータの現在値(例えば、「0」)が、トーンパラメータが設定され得る最小/最大値の0パーセントであったため、メディア処理スタイルインジケータ602bは、メディア処理スタイルインジケータ602bの周囲を移動する線を含まない。いくつかの実施形態では、現在値が異なる値である場合、線は、メディア処理スタイルインジケータ602bの周囲を移動する、及び/又は異なる量(例えば、より多い又は少ない)の周囲を占める。
図6Fに示すように、トーンパラメータの現在値が正である、及び/又は中央値(例えば、「0」)を上回るので、線は、メディア処理スタイルインジケータ602bの周囲を時計回り方向に移動する。いくつかの実施形態では、トーンパラメータの現在値が負であるか、又は中央値(例えば、「0」)を下回るとき、線は、反時計回り方向にメディア処理スタイルインジケータ602bの周囲を移動する。したがって、いくつかの実施形態では、線がメディア処理スタイルインジケータ602bの周囲を移動する方向は、トーンパラメータの値が正である(又は中央値を上回る)か、負である(又は中央値を下回る)かを示す。いくつかの実施形態では、コンピュータシステム600は、トーンパラメータ(又は別のパラメータ)の現在値が変化したときに、メディア処理スタイルインジケータ602bの一部の色及び/又はメディア処理スタイルインジケータ602bの一部のサイズを変化させるなど、メディア処理スタイルインジケータ602bの1つ以上の他の視覚的態様(例えば、周囲の線以外)を変化させる。いくつかの実施形態では、視覚的態様が変化する漸進的なアニメーションが、コンピュータシステム600によって表示される。いくつかの実施形態では、アニメーションは、個別のパラメータの以前の値に対応するポジションから個別のパラメータの現在値に対応するポジションまで時計回り又は反時計回り方向に移動する、メディア処理スタイルインジケータ602bの周囲の線を含む。
図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて(例えば、かつ移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bを使用して(例えば、個別に使用して)表示されるライブプレビューの部分を、移動入力650dの第3の部分の大きさに基づいて右に移動させる。図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、図6C~図6Eに関連して上述したような1つ以上の技術を使用して、個別のメディア処理スタイル及び/又は1つ以上のユーザインタフェースオブジェクト(例えば、標準スタイル識別子636a、選択された標準ページングドット638a、標準スタイルコントロール626a)を使用してライブプレビュー630の様々な部分を表示する。図6Gにおいて、コンピュータシステム600は、ライブプレビュー630上の左方向の移動入力650dの第4の部分を検出する。図6Gに示すように、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの周囲の線を削除することによって、メディア処理スタイルインジケータ602bの外観を変更する。図6Gにおけるトーン周囲の現在値が0であり、かつ/又は図6Gにおけるトーン周囲の現在値が、トーンパラメータを設定することができる最小/最大値の0パーセントであるので、メディア処理スタイルインジケータ602bの周囲の線が削除される。いくつかの実施形態では、移動入力650dの第3の部分を検出したことに応じて、コンピュータシステム600は、(例えば、図6Gに示されるように)メディア処理スタイルインジケータ602bの周囲に線がもはや表示されなくなるまで、(例えば、メディア処理スタイルインジケータ602bの上部及び中心ポジションに向かって)反時計回り方向に縮小する(例えば、図6Fに表示される)メディア処理スタイルインジケータ602bの周囲の線のアニメーションを表示する。
図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて(例えば、移動入力650dを検出し続けている間)、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分を、移動入力650dの第3の部分の大きさに基づいて左に移動させる。移動入力650dの第4の部分が移動入力650dの第3の部分よりも大きい大きさを有していたので、コンピュータシステム600は、(例えば、図6G~図6Hにおいて)移動入力650dの第3の部分を検出したことに応じて、(例えば、図6F~図6Gにおいて)標準スタイル634a及び鮮やかなスタイル634bのアプリケーションが移動入力650dの第4の部分を検出したことに応じて変換された距離よりも大きい距離にわたって、標準スタイル634a及び鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分を変換する。図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル634bを使用してライブプレビュー630の大きな部分を表示し、標準スタイル634aを使用してライブプレビュー630のより小さな部分を表示する。図6Hに示すように、移動入力650dの第4の部分を検出したことに応じて、コンピュータシステム600はまた、図6Fに関連して上述したような1つ以上の技術を使用して、1つ以上のユーザインタフェースオブジェクト(例えば、鮮やかなスタイル識別子636b、選択された鮮やかなページングドット638b、鮮やかなスタイルコントロール626b)を表示する。図6Hでは、コンピュータシステム600は、(例えば、移動入力650dが図6Hに示されているポジションにおいて)移動入力650dの終了(例えば、リフトオフ)を検出する。
図6Iに示されるように、移動入力650dの終了を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル634bを使用して中間セクションを表示する。ここで、コンピュータシステム600は、移動入力650dの終了が検出されたとき(及び/又はその前(例えば、直前)及び/又はその後(例えば、直後))に、別のメディア処理スタイル(例えば、標準スタイル634a)を使用して表示された部分よりも、ライブプレビュー630のより大きな部分が鮮やかなスタイル634bを使用して表示されたと判定されたために、鮮やかなスタイル634bを使用して中間セクションを表示する。したがって、図6Iでは、コンピュータシステム600は、この決定に基づいて、鮮やかなスタイル634bを現在選択されているメディア処理スタイルにしている。いくつかの実施形態では、コンピュータシステム600は、移動入力650dの終了が検出されたときに別のメディア処理スタイル(例えば、鮮やかなスタイル634b)を使用して表示された部分よりも大きな部分のライブプレビュー630が標準スタイル634aを使用して表示されたと判定されたときに、標準スタイル634aを使用して中間セクションを表示する。いくつかの実施形態では、コンピュータシステム600は、標準スタイル634a及び鮮やかなスタイル634bのそれぞれが図6Hに表示されているポジションから標準スタイル634a及び鮮やかなスタイル634bのそれぞれが図6Iに表示されているポジションまでディスプレイ全体にわたって平行移動する(例えば、素早くスナップする)標準スタイル634a及び鮮やかなスタイル634bのアプリケーションのアニメーション(例えば、スナップアニメーション)を表示する。
図6Iに示すように、移動入力650dの終了を検出したことに応じて(例えば、移動入力650dの終了が検出されたときに別のメディア処理スタイルを使用して表示された部分よりも、ライブプレビュー630のより大きな部分が鮮やかなスタイル634bを使用して表示されたと判定されたため)、コンピュータシステム600は、標準スタイル634aを使用して左セクションを表示するために、標準スタイル634aのアプリケーションを左に移動させる。加えて、コンピュータシステム600はまた、高級スタイル634cを使用して右セクションを表示する。図6Iでは、高級スタイル634cは、下向きに傾斜する線(例えば、左から右に走査するときに南東方向に移動する線)のセットによって示される。いくつかの実施形態では、コンピュータシステム600は、高級スタイル634cが移動入力(例えば、図6K~図6Lに関連して以下で説明されるような移動入力650k1などの移動入力)を介して選択され得るという決定がなされるため、高級スタイル634cを使用して右セクションを表示する。
図6Jに示すように、移動入力650dの終了を検出した後に、コンピュータシステム600は、左セクションの上に視覚的要素660aを表示し、右セクションの上に視覚的要素660bを表示し、左セクション及び右セクションの視覚的突出を低減する。いくつかの実施形態では、左セクションの上に視覚的要素660a及び右セクションの上に視覚的要素660bを表示することの一部として、コンピュータシステム600は、標準スタイル634a及び高級スタイル634cがフェードアウトする(及び/又は視覚的要素660a及び/又は視覚的要素660bにディゾルブする)アニメーションを表示する。図6Jでは、コンピュータシステム600は、シャッターコントロール610上のタップ入力650jを検出する。
図6Kに示すように、タップ入力650jを検出したことに応じて、コンピュータシステム600は、FOVによって表されるメディアのキャプチャを開始し、キャプチャされたメディア(例えば、図6Jのライブプレビュー630)の表現を含むようにメディアコレクション612を更新する。図6Kのキャプチャされたメディアの表現(「図6Kの表現」)は、図6Bの表現及び図6Dの表現とは異なる、鮮やかなスタイル634bが適用されている(例えば、左から右に走査するときに上向きの斜線のセットを含む)。更に、キャプチャされたメディアの表現の右、中央、及び左のセクションに鮮やかなスタイル634bが適用されているが、ライブプレビュー630の右及び左のセクションは、(例えば、タップ入力650jが検出されたとき/検出されている間)鮮やかなスタイル634bを使用して表示されていない。図6Kでは、鮮やかなスタイル634bは、ライブプレビュー630を表示するために使用されたFOV内の視覚的コンテンツに適用されたものよりも、キャプチャされたメディアの視覚的コンテンツのより大きな部分(及び/又は全て)に適用される。いくつかの実施形態では、シャッターコントロール610上のタップ入力の検出及び移動入力650dを検出したことに応じて、コンピュータシステム600はメディアをキャプチャし、キャプチャされたメディアの表示された表現は、(例えば、シャッターコントロール上のタップ入力が検出されたときに別のメディア処理スタイルがライブプレビュー630のより小さい部分に適用されたかどうかにかかわらず)(例えば、シャッターコントロール上のタップ入力が検出されたときに別のメディア処理スタイルがライブプレビュー630のより小さい部分に適用されたかどうかにかかわらず、他のメディア処理スタイルがメディアの表現に適用されることなく)シャッターコントロール610上のタップ入力が検出されたときにライブプレビュー630の最大部分に適用されたメディア処理スタイルを有する。図6Kでは、コンピュータシステム600は、左方向(例えば、図6Dの移動入力650dの第1の部分と同じ方向)の移動入力650k1、又は右方向(例えば、図6Dの移動入力650dの反対方向)の移動入力650k2を検出する。
図6Lに示すように、(例えば、移動入力650k1を検出し続けている間に)移動入力650k1を検出したことに応じて、コンピュータシステム600は、(例えば、図6C~図6Fに関連して上述した1つ以上の技術を使用して)鮮やかなスタイル634bを使用してライブプレビュー630の一部(例えば、中間セクションの左部分を含む)を表示し、高級スタイル634cを使用してライブプレビュー630の一部(例えば、図6Kの鮮やかなスタイル634bを使用して表示された中間セクションの右部分及び右部分を含む)を表示する。図6Lでは、移動入力650k1を検出したことに応じて、コンピュータシステム600は、鮮やかなスタイル識別子636b(例えば、「鮮やかな」)を表示することを中止し、高級スタイル識別子636c(例えば、「高級」)を(例えば、鮮やかなスタイル識別子636bが以前に表示されていたロケーションに)表示する。加えて、コンピュータシステム600はまた、ページングドット638を更新して、高級ページングドット638c(例えば、中空/開放ページングドット)が選択されていること、及び鮮やかなページングドット638bが選択されていない(例えば、中実/閉鎖ページングドット)ことを示す。ここで、コンピュータシステム600は高級スタイル識別子636cを表示し、高級ページングドット638cが選択されているものとして表示するが、これは、鮮やかなスタイル634bを使用して表示されるライブプレビュー630の部分よりも大きな部分(又は等しい部分)のライブプレビュー630が高級スタイル634cを使用して表示される、及び/又は高級スタイル634cが現在選択されているメディア処理スタイルとして設定されるべきである(例えば、図6H~図6Iの移動入力650dの検出に関連して上述したような1つ以上の技術を使用して)と決定されているからである。この決定のために、コンピュータシステム600はまた、図6Lに示すように、鮮やかなスタイルコントロール626bを高級スタイルコントロール626cで置き換える。高級スタイルコントロール626cは、コントロール628、(例えば、高級スタイル634cのトーンパラメータを制御するための)トーンパラメータコントロール626c1、及び(例えば、高級スタイル634cの暖かさパラメータを制御するための)暖かさパラメータコントロール626c2を含み、これらは、(例えば、図6Cのコントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2にそれぞれ関連して)上述したものと同様の技術を使用して表示される。現在のトーン値626c1bは、高級スタイル634cのトーンパラメータのデフォルト値(例えば、「50」)であり、現在の暖かさ値626c2bは、高級スタイル634cの暖かさパラメータのデフォルト値(例えば、「70」)である。特に、高級スタイル634cのトーンパラメータ及び暖かさパラメータのデフォルト値は、標準スタイル634a(例えば、図6Cに示すようなトーン:0、暖かさ:0)及び鮮やかなスタイル634b(例えば、図6Fに示すようなトーン:80、暖かさ:0)のトーン及び暖かさのデフォルト値とは異なる。これは、既定の高級スタイル634cが既定の標準スタイル634a及び鮮やかなスタイル634bとは異なることを意味する。いくつかの実施形態では、図6Kにおける右方向の移動入力650k2に応じて、コンピュータシステム600は、図6D~6Hのユーザインタフェースのうちの1つを表示する(例えば、表示されるユーザインタフェースは、移動入力650k2の大きさに依存する)。図6Lでは、コンピュータシステム600は、(例えば、移動入力650k1が図6Kに示されているポジションにおいて)移動入力650k1の終了(例えば、リフトオフ)を検出する。
図6Lに示すように、移動入力650k1を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を変更する。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bの2つの視覚的態様を変更する。図6Lでは、コンピュータシステム600は、個別の視覚的態様に対する変更が個別のパラメータの変更(又は現在値)を表すように、メディア処理スタイルインジケータ602bの2つの視覚的態様を変更する。図6Lは、コンピュータシステム600が、トーンパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの周囲の線を変更し、暖かさパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの色を変更することを示すが、図6Lでメディア処理スタイルインジケータ602bが変更される方法は、単なる例示である。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータ、トーンパラメータ、及び/又は異なるパラメータの現在値に基づいて、メディア処理スタイルインジケータ602bの異なる視覚的態様を変更する。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの現在値の変更に基づいてメディア処理スタイルインジケータ602bの周囲の線を変更し、及び/又はトーンパラメータの現在値に基づいてメディア処理スタイルインジケータ602bの色を変更する。
図6Lに示すように、図6Lのトーンパラメータの現在値(例えば、「50」)は、図6Kのトーンパラメータの以前の値(例えば、「80」)より小さいため、コンピュータシステム600は、(例えば、図6F~図6Gに関連して上述したような1つ以上の技術を使用して)メディア処理スタイルインジケータ602bの周囲の線(例えば、第1の視覚的態様)を更新して、メディア処理スタイルインジケータ602bの周囲のより少ない部分を占めるようにする(例えば、線を反時計回り方向に縮小する)。しかしながら、図6Lのトーンパラメータの現在値(例えば、50)は、図6Kにおけるトーンパラメータの以前の値(例えば、「80」)と同様に正であるため、コンピュータシステム600は、時計回り方向に移動する(例えば、ラインが移動するように見えるように配向される)ように、メディア処理スタイルインジケータ602bの周囲に線を表示し続ける。図6Lに示すように、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色(例えば、第2の視覚的態様)を変更する。ここで、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色を変更して、暖かさパラメータの以前の値(例えば、「0」)とは異なる暖かさパラメータの現在値(例えば、「70」)を表す。図6Lに示すように、図6Lのメディア処理スタイルインジケータ602bの色は、図6Kのメディア処理スタイルインジケータ602bの色よりも濃い灰色である。暖かさパラメータの現在値が増加するにつれて、コンピュータシステム600は、より濃い灰色をメディア処理スタイルインジケータ602bの色に追加し、濃灰色の量は、暖かさパラメータの現在値(例えば、「70」)と暖かさパラメータの最大値(例えば、「100」)及び/又は最小値とのパーセンテージにほぼ等しい。したがって、図6Lに示すように、コンピュータシステム600は、メディア処理スタイルインジケータ602bを、最大量の70パーセントの濃灰色を有するものとして表示する。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの値が増加及び/又は減少するにつれて、メディア処理スタイルインジケータ602bの色を暗くする。いくつかの実施形態では、コンピュータシステム600は、現在値が中央値(例えば、「0」)を超えて増加するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を増加させる。いくつかの実施形態では、コンピュータシステム600は、値が中央値(例えば、「0」)に向かって(例えば、最大値と中央値との間で)減少するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を減少させる。いくつかの実施形態では、コンピュータシステム600は、現在値が中央値(例えば、「0」)未満に減少するにつれて、メディア処理スタイルインジケータ602bの色を構成する第2の色(例えば、青色)の量を増加させる。いくつかの実施形態では、コンピュータシステム600は、値が中央値(例えば、「0」)(例えば、最小値と中央値との間)に向かって増加するにつれて、メディア処理スタイルインジケータ602bの色を構成する第1の色(例えば、赤色)の量を減少させる。いくつかの実施形態では、コンピュータシステム600は、暖かさパラメータの現在値の変化に基づいて、メディア処理スタイルインジケータ602bの周囲の線の色を変化させる。
図6Mに示されるように、移動入力650k1の終了を検出したことに応じて、コンピュータシステム600は、高級スタイル634cを使用して中間セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示し、ヴィンテージスタイル634dを使用して右セクションを表示する。コンピュータシステム600は、(例えば、図6H~図6Iの移動入力650dの終了の検出に関連して上述した1つ以上の技術を使用して)高級スタイル634cが現在選択されているメディア処理スタイルとして設定されるべきであると決定されているため、高級スタイル634cを使用して中間セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示し、ヴィンテージスタイル634dを使用して右セクションを表示する。図6Mでは、コンピュータシステム600は、モード及び設定トグル616上のタップ入力650mを検出する。
図6Nに示すように、タップ入力650mを検出したことに応じて、コンピュータシステム600は、高級スタイル識別子636c及びページングドット638の表示を中止し、ズームコントロール622を(例えば、高級スタイル識別子636c及びページングドット638のうちの1つ以上が以前に表示されていたロケーションに)表示する。図6Nに示すように、タップ入力650mを検出したことに応じて、コンピュータシステムは、高級スタイルコントロール626cの表示を中止し、カメラモードコントロール620を(例えば、図6Mにおいて高級スタイルコントロール626cが以前に表示されていたロケーションに)表示する。タップ入力650mを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの表示を非アクティブ状態に更新する。したがって、タップ入力650mを検出したことに応じて、コンピュータシステム600は、(例えば、入力が検出されなかった間にスタイルがコンピュータシステム600の中間セクションに表示されたときに図6Mで選択された)高級スタイル634cを使用して表現の一部を表示し続ける。しかしながら、コンピュータシステム600は、タップ入力650mを検出したことに応じて、高級スタイル634cとは異なるメディア処理スタイルを使用して、及び/又は視覚的要素を使用して、右セクション及び左セクションを表示することを中止する。いくつかの実施形態では、コンピュータシステム600は、図6Nでは、ライブプレビュー630上の移動入力が、異なるメディア処理スタイルを使用してライブプレビュー630の部分を表示させない(例えば、どのメディア処理スタイルが使用されるかの変更を引き起こさない)ため、高級スタイル634cとは異なるメディア処理スタイルを使用して、及び/又は視覚的要素を使用して、右セクション及び左セクションを表示することを中止する。図6Nでは、コンピュータシステムは、カメラモードコントロール620上の左方向への移動入力650n1、又はライブプレビュー630上の左方向への移動入力650n2を検出する。
図6Oでは、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600は、写真キャプチャモードでの動作からポートレートキャプチャモードでの動作に遷移する。図6Oに示すように、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600は、カメラモードコントロール620を左に移動させ、選択されているものとしてポートレートモードコントロール620d(例えば、太字ポートレートモードコントロール620d)を表示する。ポートレートモードで動作している間、コンピュータシステム600は、(例えば、6Mで選択された)高級スタイル634cを使用してライブプレビュー630の少なくとも一部の表示を維持する。したがって、コンピュータシステム600が他のタイプのメディア(例えば、写真メディア、ビデオメディア、及び/又はポートレートメディア、パノラマメディア)をキャプチャするように構成されている間に、メディア処理スタイルをメディアの表現(例えば、ライブプレビュー630)に適用することができる。いくつかの実施形態では、メディア処理スタイルインジケータ602bがアクティブ状態で表示されている間(及び/又はスタイルユーザインタフェースオブジェクトが表示されている間)に移動入力650n2を検出したことに応じて、コンピュータシステム600は、異なるキャプチャモードで動作するように遷移しない(例えば、コンピュータシステム600は、移動入力650n2が検出される前にコンピュータシステム600が動作していたのと同じキャプチャモードで動作し続ける)。いくつかの実施形態では、メディア処理スタイルインジケータ602bが非アクティブ状態にある間に移動入力650n2を検出したことに応じて、コンピュータシステム600は、(例えば、図6N~図6Oに示すように)異なるキャプチャモードで動作するように遷移する。いくつかの実施形態では、コンピュータシステム600は、入力650n1が検出されたことに応じて、メディア処理スタイルインジケータ602bがアクティブ状態であるか非アクティブ状態であるかにかかわらず、ポートレートキャプチャモードでの動作に遷移する。したがって、いくつかの実施形態では、コンピュータシステム600は、移動入力のロケーション、及びコンピュータシステムが現在スタイルユーザインタフェースオブジェクトのセットを表示しているかどうかに基づいて、移動入力に異なって応答することができる。図6Oに示すように、移動入力650n1又は650n2を検出したことに応じて、コンピュータシステム600はまた、図6Nにおいてコンピュータシステム600が写真キャプチャモードで動作していた間に表示されなかった、インジケータ領域602におけるポートレートキャプチャモードのためのインジケータ(例えば、絞り値インジケータ602d)と、コントロール領域606におけるポートレートモードのためのコントロール(例えば、照明効果コントロール678、ズームコントロール622b)とを表示する。更に、移動入力650n1及び650n2を検出したことに応じて、コンピュータシステム600は、インジケータ領域602内の写真キャプチャモード用のインジケータ(例えば、アニメーション画像インジケータ602c)の表示を中止し、コンピュータシステム600が図6Nにおいてポートレートモードで動作していたときに表示されていたコントロール領域606内の写真モード用のコントロール(例えば、ズームコントロール622a及びズームコントロール622c)を表示する。いくつかの実施形態では、ライブプレビュー630上の図6Nにおける移動入力を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルを制御するためのスタイルユーザインタフェース及び/又は複数の選択可能なユーザインタフェースオブジェクトを表示していないため、(例えば、移動入力650n1又は650n2に関して上述したものと同様の技術を使用して)ポートレートキャプチャモードでの動作から異なるキャプチャモードでの動作へ遷移する。いくつかの実施形態では、(例えば、移動入力650n1又は移動入力650n2の同様のロケーションにおける)移動入力を検出したことに応じて、コンピュータシステム600は、ポートレートキャプチャモードでの動作から異なるキャプチャモードでの動作に遷移し、現在選択されているスタイル(例えば、6Mで選択された高級スタイル634c)を使用してライブプレビュー630の少なくとも一部の表示を維持する(又は維持し続ける)。いくつかの実施形態では、移動入力650n1又は移動入力650n2が特定の大きさ(例えば、より大きい大きさ)を有したこと、及び/又は移動入力650n1又は移動入力650n2とは異なるものであったことを検出したことに応じて、コンピュータシステム600は、写真モードでの動作から、ポートレートモード(例えば、パノラマモード及び/又はビデオモード)とは異なるモードで動作するように遷移し、現在選択されているスタイル(例えば、6Mで選択された高級スタイル634c)を使用してライブプレビュー630の少なくとも一部の表示を維持する(又は維持し続ける)。いくつかの実施形態では、メディアをキャプチャする要求を検出したことに応じて、コンピュータシステム600は、ポートレートメディアをキャプチャし、現在選択されているメディア処理スタイル(例えば、高級スタイル634c)をキャプチャされたポートレートメディアに適用する。したがって、いくつかの実施形態では、コンピュータシステム600は、現在選択されているメディア処理スタイルを異なるタイプのメディア(例えば、図6Oのポートレートメディア及び図6Cの写真メディア)に適用することができる。図6Oでは、コンピュータシステムは、メディア処理スタイルインジケータ602b上のタップ入力650oを検出する。
図6Pに示すように、タップ入力650oを検出したことに応じて、コンピュータシステム600は、(例えば、図6Mに関連して上述したような1つ以上の技術を使用して)ポートレートモードで動作し続けている間、高級スタイル識別子636c、ページングドット638、高級スタイルコントロール626c、並びに視覚的要素660a及び660bを含む1つ以上のスタイルのユーザインタフェースオブジェクトを再表示する。いくつかの実施形態では、ライブプレビュー630上で移動入力を検出したことに応じて、コンピュータシステム600は、ポートレートモードで動作し続けている間、異なるメディア処理スタイルを使用して(例えば、図6C~6Pに関連して上述した1つ以上の技術を使用して)ライブプレビュー630の異なる部分を表示する。したがって、いくつかの実施形態では、コンピュータシステム600が異なるキャプチャモードで動作している間に、異なるメディア処理スタイルを選択することができる。いくつかの実施形態では、シャッターコントロール610上のタップ入力を検出したことに応じて、コンピュータシステム600は、ポートレートメディアをキャプチャし、ポートレートメディアの表現は、(例えば、スタイル634cが図6Pで選択されているので)高級スタイル634cとして表示される。いくつかの実施形態では、fストップインジケータ602d上の入力を検出したことに応じて、コンピュータシステム600は、図6Oのユーザインタフェースを再表示する(例えば、スタイルユーザインタフェース及び/又はメディア処理スタイルを制御するための複数の選択可能なユーザインタフェースオブジェクトを表示することを中止する)。図6Pでは、コンピュータシステム600は、メディアコレクション612上の入力650pを検出する。
図6Qに示すように、タップ入力650pを検出したことに応じて、コンピュータシステム600は、コントロール領域670、メディアビューア領域672、及びコントロール領域674を含むメディアビューアユーザインタフェースを表示する。コントロール領域670は、バックコントロール670a、現在時刻670b、及びメディアギャラリーコントロール670cを含む。コントロール領域674は、複数のコントロールと、サムネイル表現676a~676dを含むメディア676のサムネイル表現とを含む。サムネイル表現676a~676dは、図6A~6Qにおいてメディアコレクション612の一部として以前に表示されたものである。メディアビューア領域672は、メディア表現680dを含む。図6Qに示すように、メディア表現680dは、入力650jを検出したことに応じてキャプチャされたメディアの表現である。図6Qに示されるように、メディア表現680dは、メディア表現680dに対応するメディアがキャプチャされたときに現在選択されているメディア処理スタイルであった鮮やかなスタイル634bを使用して表示される。図6Qでは、コンピュータシステム600は、バックコントロール670a上の入力650qを検出する。
図6Rに示すように、タップ入力650qを検出したことに応じて、コンピュータシステム600は、図6Oのユーザインタフェースを再表示し、図6Rのライブプレビュー630が高級スタイル634cを使用して表示される。図6Rでは、ライブプレビュー630は、コンピュータシステム600がカメラアプリケーションから離れてメディアビューアアプリケーションにナビゲートしていても、コンピュータシステム600が現在選択されているメディア処理スタイルとして高級スタイル634cを維持しているので、高級スタイル634cを使用して表示される。したがって、いくつかの実施形態では、コンピュータシステム600は、カメラアプリケーションを使用するセッション間に、現在選択されているメディア処理スタイルを維持する。いくつかの実施形態では、コンピュータシステム600は、(例えば、図7A~図7Xにおいて後述するように)新しいメディア処理スタイルが選択されるまで、及び/又は高級スタイル634cが修正されるまで、高級スタイル634cを現在選択されているメディア処理スタイルとして維持する。いくつかの実施形態では、タップ入力650qを検出したことに応じて、コンピュータシステム600は、図6Oの代わりに図6Qのユーザインタフェースを再表示し、メディア処理スタイルを制御するためのスタイルユーザインタフェース及び/又は選択可能なユーザインタフェースオブジェクトを示す。図6Rでは、コンピュータシステム600は、メディアコレクション612上の入力650rを検出する。
図6Sに示すように、タップ入力650rを検出したことに応じて、コンピュータシステム600は、メディア表現680dを含む図6Qのユーザインタフェースを再表示する。図6Sに示すように、コンピュータシステム600は、メディア表現680d上の移動入力650sを検出する。図6Tに示すように、移動入力650sを検出したことに応じて、コンピュータシステム600は、メディア表現680dをメディア表現680cで置き換える。メディア表現680cは、標準スタイル634aが図6Cにおいて現在選択されているメディア処理スタイルであったときに入力650cを検出したことに応じてキャプチャされたメディアの表現であるので、標準スタイル634aを使用して表示される。いくつかの実施形態では、メディアビューアユーザインタフェースは、メディア表現680c及びメディア表現680dによって表されるメディアなど、既にキャプチャされているメディアに適用されるメディア処理スタイルを変更する1つ以上のオプションを含む。したがって、いくつかの実施形態では、コンピュータシステムは、異なるメディア処理スタイルが現在選択されている処理スタイルであったときに、最初にキャプチャされなかった以前にキャプチャされたメディアに異なるメディア処理スタイルを適用する。図6Tでは、コンピュータシステム600は、メディアギャラリーコントロール670c上のタップ入力650tを検出する。
図6Uに示すように、タップ入力650tを検出したことに応じて、コンピュータシステム600は、メディアギャラリーユーザインタフェースを表示する。ギャラリーユーザインタフェースは、バックコントロール686と、メディア処理スタイル(例えば、標準スタイル634a(例えば、水平線を含むパターンによって表される)、バイブレーションスタイル634b(例えば、上向き斜線を含むパターンによって表される)、高級スタイル634c(例えば、下向き斜線を含むパターンによって表される)、及びヴィンテージスタイル634d(例えば、垂直線を含むパターンによって表される))を使用してキャプチャされたメディアの表現とを含む。いくつかの実施形態では、メディアギャラリーユーザインタフェースに含まれるメディアの表現によって表されるメディアは、異なるタイプのメディア(例えば、静止写真メディア、ポートレートメディア、ビデオメディア、パノラマメディア、スローモーションメディアなど)である。いくつかの実施形態では、メディアギャラリーユーザインタフェースに含まれるメディアの表現によって表されるメディアは、異なるメディア処理スタイルが選択されている間、及び/又はコンピュータシステム600が異なるキャプチャモードで動作するように構成されている間にキャプチャされた。図6Uでは、コンピュータシステム600は、バックコントロール686上の入力650uを検出する。
図6Vに示すように、タップ入力650uを検出したことに応じて、コンピュータシステム600は、(例えば、図6Uの)メディアギャラリーユーザインタフェースを表示することを中止し、図6Rのカメラユーザインタフェースを再表示し、図6Rのライブプレビュー630は、高級スタイル634cを使用して表示される。図6Vでは、コンピュータシステム600は、生画像キャプチャインジケータ602e上のタップ入力650vを検出する。図6Wに示すように、タップ入力650vを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bを表示することを中止し、ライブプレビュー630の一部にメディア処理スタイルを適用することを中止する。図6Wに示すように、タップ入力650vを検出したことに応じて、コンピュータシステム600は、生画像キャプチャインジケータ602eを、メディア処理スタイルインジケータ602bが以前に表示されていたロケーションまで左にスライドさせる。図6Wでは、タップ入力650vを検出したことに応じて、コンピュータシステム600は、非生画像メディアフォーマットでメディアを記憶及び/又はキャプチャするように構成されている状態から生画像フォーマットに遷移し、生画像キャプチャコントロール602eをアクティブであるとして表示する。いくつかの実施形態では(上述したように)、コンピュータシステム600は、選択されたメディア処理スタイルを生画像フォーマットで記憶されたメディアに適用しない。したがって、いくつかの実施形態では、コンピュータシステム600は、キャプチャされたメディアにメディア処理スタイルを適用するようにも構成されている間、生画像フォーマットでメディアを記憶及び/又はキャプチャするように構成することができない。図6Wでは、コンピュータシステム600は、カメラユーザインタフェース上のロケーション(例えば、1つ以上のカメラモードアフォーダンス620の上及び/又は下)で上向きスワイプ入力650wを検出する。
図6Xに示すように、上向きスワイプ入力650wを検出したことに応じて、コンピュータシステム600は、図6Wのカメラモードコントロール620をカメラ設定コントロール688に置き換える。カメラ設定コントロール688は、選択されたときにコンピュータシステム600にフラッシュモードを調整する(例えば、フラッシュモードをオン及び/又はオフにする)ための1つ以上のオプションを表示させるフラッシュ設定コントロール668aと、メディア処理スタイルコントロール688bと、選択されたときにコンピュータシステム600に露出補正値を調整する1つ以上のオプション(例えば、スライダ)を表示させる露出補正コントロール688fと、選択されたときにコンピュータシステム600にタイマの持続時間を調整するための1つ以上のオプションを表示させるタイマコントロール688gと、選択されたときにコンピュータシステム600にメディアに適用されるフィルタを調整するための1つ以上のオプションを表示させるフィルタコントロール688hと、選択されたときにコンピュータシステム600に絞り値を調整するための1つ以上のオプションを表示させる絞り値コントロール688iとを含む。特に、図6Xに表示されるカメラ設定コントロールは、コンピュータシステム600がポートレートモードで動作している間に利用可能なカメラ設定の一部を反映する(例えば、図6Wにおいて「ポートレート」が太字で示されるように)。いくつかの実施形態では、コンピュータシステム600が異なるカメラモードで動作している間に上方向スワイプ入力650wを検出したことに応じて、1つ以上の他のカメラ設定コントロール及び/又は1つ以上の同じカメラ設定コントロールが表示される。図6Xでは、コンピュータシステム600は、メディア処理スタイルコントロール688b上のタップ入力650x1を検出する。
図6Yに示すように、タップ入力650×1を検出したことに応じて、コンピュータシステム600は、生画像キャプチャコントロール602eを非アクティブであるとして表示し(及び/又はコンピュータシステムは非生画像メディアをキャプチャするように構成され、生画像メディアをキャプチャするように構成されない)、図6Lのカメラユーザインタフェースを再適用及び再表示し、(例えば、ライブプレビュー630の1つ以上の他の部分が他のメディア処理スタイルで表示されると共に)図6Rのライブプレビュー630の一部が高級スタイル634cを使用して表示され、高級スタイルコントロール626cが表示される。いくつかの実施形態では、タップ入力650×1を検出したことに応じて、コンピュータシステム600は、図6Rのカメラユーザインタフェースを再表示し、図6Rのライブプレビュー630は、高級スタイル634cを使用して表示される。いくつかの実施形態では、図6Xの生画像キャプチャコントロール602e上のタップ入力650×2を検出したことに応じて、コンピュータシステム600は、図6Lのカメラユーザインタフェースを再表示するか、又は図6Rのカメラユーザインタフェースを再表示する。いくつかの実施形態では、図6Xの生画像キャプチャコントロール602e上でタップ入力650×2を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の一部にメディア処理スタイルを適用しない(例えば、メディア処理スタイルを適用せずに図6Xのライブプレビュー630の表示を継続する)一方で、生画像キャプチャコントロール602eを非アクティブである(及び/又はコンピュータシステムが非生画像メディアをキャプチャするように構成され、生画像メディアをキャプチャするように構成されない)ものとして表示する。
図7A~図7Xは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図7Aは、(例えば、図6Cに関連して上述したような1つ以上の技術を用いて)カメラユーザインタフェースを表示するコンピュータシステム600を示す。特に、コンピュータシステム600は、メディア処理スタイルインジケータ602bをアクティブ状態で表示しており、中間セクションは標準スタイル634aを使用し、右セクション及び左セクションはメディア処理スタイルを使用せずに(例えば、図6Cに関連して上述した1つ以上の技術を使用して)表示している。更に、コンピュータシステム600は、(例えば、図6Cに関連して上述したような1つ以上の技術を使用して)視覚的要素660b、選択されている標準ページングドット638aを有するページングドット638、並びにコントロール628、トーンパラメータコントロール626a1、及び暖かさパラメータコントロール626a2を含む標準スタイルコントロール626aを有する右セクションを表示している。図7Aに示すように、コンピュータシステム600はまた、(例えば、図6Cに関連して上述した1つ以上の技術を使用して)トーンパラメータ識別子626a1a、現在のトーン値626a1b、及びトーン値範囲インジケータ626a1cを含むトーンパラメータコントロール626a1、並びに暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cを含む暖かさパラメータコントロール626a2を表示している。図7Aでは、コンピュータシステム600は、トーンパラメータコントロール626a1上の移動入力750aの一部を検出する。
図7Bに示されるように、図7Aにおける移動入力750aの部分を検出したことに応じて(例えば、移動入力750aを検出し続けている間)、コンピュータシステム600は、トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。特に、図7Bでは、コンピュータシステム600は、トーンパラメータコントロール626a1及び/又はトーン値範囲インジケータ626a1cを(例えば、図7Bにおいてトーンパラメータコントロール626a1が表示されたポジションを横切って及び/又はラインに沿って)一直線に拡張する。トーンパラメータコントロール626a1を拡張するとき、コンピュータシステム600は、図7Bのトーン値範囲インジケータ626a1cの目盛りが図7Aのトーン値範囲インジケータ626a1cの目盛りよりも大きく、更に離れるように、トーン値範囲インジケータ626a1cのサイズを増加させる。更に、図7Bの階調値範囲インジケータ626a1cの目盛りは、図7Aの階調値範囲インジケータ626a1cのチェックマークよりも多くの値を表す(例えば、図7Bの階調値範囲インジケータ626a1cは、図7Aの階調値範囲インジケータ626a1cよりも多くの目盛りを有する)。言い換えれば、図7Aにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1及び/又はトーン値範囲インジケータ626a1cにズームインする(これは、いくつかの実施形態では、ユーザがトーンパラメータコントロール626a1の値を変更することをより容易にする)。図7Bに示すように、図7Aにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、図7Aの現在のトーン値626a1bが表示されたディスプレイ上のポジションとは異なるディスプレイ上のポジションに、図7Bの現在のトーン値626a1b(例えば、「0」)を表示する。コンピュータシステム600は、図7Bの現在のトーン値626a1bを移動させているが、コンピュータシステム600は、(例えば、図7Aの現在のトーン値626a1bが表示されていたように)トーン値範囲インジケータ626a1cの中央ポジションに図7Bの現在のトーン値626a1bを表示し続ける。更に、図7Aで移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータ識別子626a1aをコントロール領域606の右側に移動させる。図7Bでは、コンピュータシステム600は、(例えば、移動750aを検出し続けている間)トーン値範囲インジケータ626a1c上の移動入力750aの別の部分を検出する。コンピュータシステム600は、左方向の移動入力750の部分を検出する。いくつかの実施形態では、図7Aで検出された移動入力750aの部分はタップ入力であり、図7Bで検出された移動入力750aの部分は移動入力である(例えば、いくつかの実施形態では、ユーザは、タップしてコントロールを拡張し、次いで、コントロールのパラメータの現在値を調整するための入力を提供することができる)。いくつかの実施形態では、図7Aで検出された移動入力750aの部分及び図7Bで検出された移動入力750aの部分は、独立して検出される別個の入力である。いくつかの実施形態では、図7Aで検出された移動入力750a(例えば、タップ入力)の部分が受信されたことに応じて、コンピュータシステム600は、図7Aで検出された移動入力750aの部分が検出され続けるかどうかにかかわらず、トーンパラメータコントロール626a1を拡張する。いくつかの実施形態では、タップ入力である移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を拡張し、閾値期間(例えば、5、20、30、40、75秒)内に、拡張されたトーンパラメータコントロール626a1上及び/又はカメラユーザインタフェース上で追加の入力が検出されない場合、暖かさパラメータコントロール626b1を再表示する。
図7Cに示すように、(例えば、左方向に移動している)図7Bにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、トーン値範囲インジケータ626a1cの目盛りを左に移動させ(例えば、図7Bにおいて検出された移動入力750aの大きさに基づいて)、現在のトーン値626a1bを「0」(例えば、図7B)から「100」(例えば、図7C)に更新する。(例えば、左方向に移動している)図7Bで検出された移動入力750aの部分の移動特性(例えば、速さ、加速度、及び/又は速度)に基づいて現在のトーン値626a1bを「0」(例えば、図7B)から「100」(例えば、図7C)に更新する間に、コンピュータシステム600は、メディア処理スタイルインジケータ602bの外観を更新する。図7Cでは、コンピュータシステム600は、図7Bにおいて検出された移動入力750aの部分の移動特性に基づいて、メディア処理スタイルインジケータ602bの周囲の線のサイズを時計回り方向に増加させることによって、メディア処理スタイルインジケータ602bの外観を更新する。注目すべきことに、現在値(例えば、「100」)は、トーンパラメータを設定することができる最大値であるが、コンピュータシステム600の線は、メディア処理スタイルインジケータ602bの周囲を完全には囲まない。線は、トーンパラメータが最大値に設定されている間にラインがメディア処理スタイルインジケータ602bの周囲を時計回り方向に(例えば、正の値を示すために)移動したことを示すために、メディア処理スタイルインジケータ602bの周囲を完全には囲んでいない(例えば、メディア処理スタイルインジケータ602bの周囲の上部付近に間隙を有して表示される)。いくつかの実施形態では、トーンパラメータの現在値がトーンパラメータの最小値(例えば、「-100」)に設定されているとき、コンピュータシステム600は、メディア処理スタイルインジケータ602bの上部の他方の側に間隙を表示して(例えば、線の開始を示す垂直線が図7Cの線の左部分に接続され、間隙が垂直線と図7Cの線の右部分との間にある)、トーンパラメータの現在値がトーンパラメータの最小値に設定されている間に、線がメディア処理スタイルインジケータ602bの周りを反時計回り方向に移動したことを示す(例えば、負の値を示す)。
現在のトーン値626a1b及びメディア処理スタイルインジケータ602bを更新することに加えて、コンピュータシステム600は、標準スタイル識別子636aをカスタム標準スタイル識別子636aaで置き換え、ページングドット638内の標準ページングドット638aの左側にカスタム標準ページングドット638aaを追加する。言い換えれば、図7Cでは、コンピュータシステム600は、現在のトーン値626a1bをデフォルト値(「0」)から修正値(「100」)に更新することに応じて、標準スタイル634aのカスタムバージョンを利用可能なスタイルのセットに追加する。図7Cに示すように、標準スタイル識別子636aaは、図7Cにおける現在のトーン値626a1bが標準スタイル634aのデフォルトトーン値(図7Bでは「0」)よりも大きいので、「リッチなコントラスト」という単語を含む。したがって、コンピュータシステム600は、カスタムメディア処理スタイルのパラメータが、メディア処理スタイルのデフォルトパラメータとどのように異なるかに基づいて、カスタムメディア処理スタイルの名前を決定することができる。したがって、図7Cでは、コンピュータシステム600は、標準スタイル634aのトーンパラメータのデフォルト値を更新せず(例えば、図7Cに示すように)、代わりに、更新値を有する標準スタイル634aの修正バージョンを作成する。したがって、いくつかの実施形態では、ユーザは、後で標準スタイル634aの修正バージョン(例えば、カスタム標準スタイル634aa)にアクセスすることができる。
図7Cに示されるように、図7Bにおける移動入力750aの部分を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の中間セクションを更新し、その結果、中間セクションは、図7Bの標準スタイル634aを使用する代わりに、図7Cのカスタム標準スタイル634aaを使用して表示される。コンピュータシステム600は、図7Cのカスタム標準スタイル634aaを、標準スタイル634aのトーン(例えば、「0」)よりも増加した量のトーン(例えば、「100」)で表示して、標準メディア処理スタイルのトーンパラメータの値を変化を反映していることを理解されたい。例示のみを目的として、カスタム標準スタイル634aa(例えば、図7C)は、カスタム標準スタイル634aaが標準スタイル634aの修正バージョンであることを示すために、標準スタイル634a(例えば、図7B)と同じパターン(例えば、水平線)で示されている。しかしながら、カスタム標準スタイル634aaの線は、カスタム標準スタイル634aaが標準スタイル634aと異なることを示すために、図7Bの標準スタイル634aの線のように実線ではなく点線で示されている。図7Cでは、コンピュータシステム600は、図7Cにおいて移動入力750aを依然として検出しているので、コンピュータシステム600は、トーンパラメータコントロール626a1の拡張バージョンを表示し続ける。いくつかの実施形態では、コンピュータシステム600は、コンピュータシステム600が図7Bにおいて移動入力750aを検出し続けるかどうかにかかわらず、トーンパラメータコントロール626a1の拡張バージョンを表示し続ける。図7Cでは、コンピュータシステム600は、移動入力750aの終了(例えば、リフトオフ)を検出する。
図7Dに示すように、移動入力750aの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を縮小し(例えば、サイズを縮小し)、暖かさパラメータコントロール626a2を再表示する。図7Dに示すように、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、図7Bで表示されたのと同じポジション及び同じサイズで表示される。図7Dでは、コンピュータシステム600は、移動入力750aが検出される前に表示されていた暖かさパラメータコントロール626a2(例えば、図7Bの暖かさパラメータコントロール626a2)と同じバージョンを表示する。したがって、(例えば、図7Bと図7Dとを比較すると)暖かさパラメータ識別子626a2a、現在の暖かさ値626a2b、及び暖かさ値範囲インジケータ626a2cの表示は変化していない。しかしながら、トーンパラメータコントロール626a1は、移動入力750aを検出したことに応じて更新されたため、コンピュータシステム600は、トーンパラメータコントロール626a1の更新バージョンを表示し、図7Dの現在のトーン値626a1bは、図7Bの現在のトーン値626a1bとは異なり、図7Dのトーン値範囲インジケータ626a1cは、図7Bのトーン値範囲インジケータ626a1cとは異なる。特に、図7Dでは、トーン値範囲インジケータ626a1cは、現在のトーン値626a1b(例えば、「100」)がトーン値範囲インジケータ626a1cのスケールに関連するため、現在のトーン値60a1b(例えば、「100」)を表すセットの拡大目盛り(例えば、5)を含む(例えば、中央目盛りの右側の全ての目盛りは、「100」が、トーン値範囲インジケーション626a1cのスケール上の0より上の範囲(例えば、0~100)の100%を占める値であることを示すように拡大され、完全に埋められる)。図7Bに戻ると、トーン値範囲インジケータ626a1cは、図7Bの現在のトーン値626a1bが「0」であり、トーン値範囲インジケーション626a1cのスケール上で0より下又は上の任意の範囲を占有する値ではなかったため、拡大された及び/又は充填された目盛りを含まなかった。図7Dに戻ると、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、(例えば、表示されたままであるカスタム標準スタイル識別子636aaによって示されるような)カスタム標準スタイル634aaの個別のパラメータの現在値(例えば、626a1b、626a2b)を表すことを理解されたい。したがって、メディア処理スタイルについての1つ以上のコントロールを使用して、メディア処理スタイルの1つ以上のパラメータを調整することもできる。
図7Dに示すように、移動入力750aの終了を検出したことに応じて、コンピュータシステム600はリセットコントロール722を表示する。ここで、コンピュータシステムは、メディア処理スタイルのパラメータの値がメディア処理スタイルのデフォルト値ではないので(例えば、現在のトーン値626a1bが標準スタイル634aのデフォルト値「0」から「100」に変更されているので)、リセットコントロール722を表示する。図7Dでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の移動入力750dの一部を検出する。
図7Eに示すように、図7Dにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を表示することを中止し、(例えば、図7B~図7Cのトーンパラメータコントロール626a1の拡張に関連して上述した1つ以上の技術を使用して)暖かさパラメータコントロール626a2を拡張する。特に図7Eでは、コンピュータシステム600は、暖かさパラメータコントロール626a2及び/又は暖かさ値範囲インジケータ626a2cを一直線に拡張する。暖かさパラメータコントロール626a2を拡張するとき、コンピュータシステム600は、図7Eの暖かさ値範囲インジケータ626a2cの目盛りが、図7Aの暖かさ値範囲インジケータ626a2cの目盛りより大きく、更に離れるように、暖かさ値範囲インジケータ626a2cのサイズを増加させる。更に、図7Eの暖かさ値範囲インジケータ626a2cの目盛りは、図7Aの暖かさ値範囲インジケータ626a2cの目盛りよりも多くの値を表す(例えば、図7Eの暖かさ値範囲インジケータ626a2cは、図7Aの暖かさ値範囲インジケータ626a2cよりも多くの目盛りを有する)。言い換えれば、図7Dにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、暖かさパラメータコントロール626a2及び/又は暖かさ値範囲インジケータ626a2cにズームインする(これは、いくつかの実施形態では、ユーザが暖かさパラメータコントロール626a2の値を変更することをより容易にする)。図7Eに示すように、図7Dでの移動入力750dを検出したことに応じて、コンピュータシステム600は、図7Aの現在の暖かさ値626a2bが表示されたディスプレイ上のポジションとは異なるディスプレイ上のポジションに、図7Eの現在の暖かさ値626a2b(例えば、「0」)を表示する。コンピュータシステム600は、図7Eの現在の暖かさ値626a2bを移動させているが、コンピュータシステム600は、(例えば、図7Aの現在の暖かさ値626a2bが表示されていたように)暖かさ値範囲インジケータ626a2cの中央ポジションに図7Eの現在の暖かさ値626a2bを表示し続ける。更に、移動入力750dを検出したことに応じて、コンピュータシステム600は、暖かさパラメータ識別子626a2aをコンピュータシステム600の右側に移動させる。図7Eでは、コンピュータシステム600は、(例えば、移動750dを検出し続けている間)暖かさ値範囲インジケータ626a2c上の右方向の移動入力750dの別の部分を検出する。
図7Fに示すように、図7Eにおける移動入力750dの部分(例えば、右方向に移動している)を検出したことに応じて、コンピュータシステム600は、(例えば、図7Eにおいて検出された移動入力750dの大きさに基づいて)暖かさ値範囲インジケータ626a2cの目盛りを右に移動させ、現在の暖かさ値626a2bを「0」(例えば、図7E)から「-75」(例えば、図7F)に更新する。図7Fに示すように、図7Eにおいて移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、メディア処理スタイルインジケータ602bの色を変更することによって(例えば、図6Lに関連して上述した1つ以上の技術を使用して)、メディア処理スタイルインジケータ602bの外観を更新する。図7Fでは、コンピュータシステム600は、図7Eにおける移動入力750dの部分の移動に基づいて、メディア処理スタイルインジケータ602bの色の薄灰色の量を増加させる。ここで、コンピュータシステム600は、暖かさコントロールの現在値が減少しているので、(例えば、図6Lに関連して上述したような濃灰色の量を増加させることとは対照的に)薄灰色の量を増加させる。図7Fに示すように、コンピュータシステム600は、カスタム標準スタイル識別子636aaと、カスタム標準スタイル634aaを使用して表示される中間セクションとを表示し続ける。図7Fでは、コンピュータシステム600は、カスタム標準スタイル識別子636aaを表示し続ける。しかしながら、図7Fでは、コンピュータシステム600は、カスタム標準スタイル識別子636aaを更新して、「リッチなコントラスト」の代わりに「リッチなコントラスト冷たい」という単語を含める。ここで、「冷たい」がカスタム標準スタイル識別子636aaに追加されるのは、図7Eにおいて移動入力750dの部分を検出したことに応じて暖かさパラメータの現在値が減少したこと、及び/又は暖かさパラメータの現在値(例えば、「-75」)が標準スタイル634a(例えば、カスタム標準スタイル634aaが作成された)の暖かさパラメータのデフォルト値未満であることによる。図7Fでは、コンピュータシステム600は、利用可能なスタイルのセットに新しいカスタム標準メディア処理スタイル(例えば、図7Eに示されるカスタム標準スタイル636aaとは異なるカスタム標準メディア処理スタイル)を追加する代わりに、カスタム標準スタイル識別子636aaのパラメータを編集しているため、コンピュータシステム600は、カスタム標準スタイル識別子634aaを表示し続ける。したがって、図7Fでは、現在の暖かさ値626a2bが標準スタイル634a(例えば、図6Bに示す)のデフォルト値から変更されているが、(例えば、ページングドット638によって示されるような)利用可能なスタイルのセットの数は同じままである。カスタム標準スタイル634aaを使用して中間セクションを表示するとき、コンピュータシステム600は、カスタム標準メディア処理スタイルに関する暖かさの変化及び/又は暖かさパラメータの値の変化を反映するように中間セクションを更新する。例示のみを目的として、カスタム標準スタイル634aa(例えば、図7F)は、カスタム標準スタイル634aaが標準スタイル634aの修正バージョンであることを示すために、標準スタイル634a(例えば、図7B)と同じパターン(例えば、水平線)で示されている。しかしながら、図7Fのカスタム標準スタイル634aaの線(例えば、破線)は、図7Bの標準スタイル634aの線(例えば、実線)及び図7Eのカスタム標準スタイル634aaの線(例えば、点線)とは異なり、図7Fのカスタム標準スタイル634aaが図7Bの標準スタイル634a及び図7Eのカスタム標準スタイル634aaと異なることを示す。いくつかの実施形態では、図7Eにおける移動入力750dの部分を検出したことに応じて、コンピュータシステム600は、図7Eのカスタム標準スタイル634aaを更新せず、追加のカスタム標準メディア処理スタイルを追加する。いくつかの実施形態では、追加のカスタム標準メディア処理スタイルを表示するとき、コンピュータシステム600は、カスタム標準ページングドット638aaの左及び/又は右に追加のカスタム標準メディア処理スタイルのページングドットを表示し、カスタム標準スタイル識別子636aaを追加のカスタム標準メディア処理スタイルのスタイル識別子で置き換える。いくつかの実施形態では、コンピュータシステム600は、追加のカスタム標準メディア処理スタイルを、標準メディア処理スタイルのうちの1つ以上に隣接するポジションで利用可能なスタイルのセットに追加し、及び/又は追加のカスタム標準メディア処理スタイルを他の標準メディア処理スタイルとグループ化する。図7Fでは、コンピュータシステム600は、暖かさ値範囲インジケータ626a2c上の移動入力750dの終了を検出する。
図7Gに示すように、移動入力750dの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を再表示し、暖かさパラメータコントロール626a2を縮小する(例えば、図7Dに関連して上述した1つ以上の技術を使用して)。暖かさパラメータコントロール626a2は、移動入力750dを検出したことに応じて更新されたため、コンピュータシステム600は、暖かさパラメータコントロール626a2の更新バージョンを表示し、図7Gの現在の暖かさ値626a2bは、図7Dの現在の暖かさ値626a2bとは異なり、図7Gの暖かさ値範囲インジケータ626a2cは、図7Dの暖かさ値範囲インジケータ626a2cとは異なる。特に、図7Gでは、暖かさ値範囲インジケータ626a2cは、現在の暖かさ値626a2b(例えば、「-75」)が暖かさ値範囲インジケータ626a2cのスケールに関連するため、現在の暖かさ値626a2b(例えば、「-75」)を表す1セットの拡大目盛り(例えば、4)を含む(例えば、中央目盛りの左側の目盛りの75%(例えば、現在の暖かさ値626a2bが負の値であるため)が、「-75」が暖かさ値範囲インジケーション626a2cのスケール上の0より下の範囲(例えば、-100~0)の75%を占める値であることを示すために拡大されて埋められる)。いくつかの実施形態では、図7Gのシャッターコントロール610上の入力(例えば、タップジェスチャ)を検出したことに応じて、コンピュータシステム600は、メディアをキャプチャし、(例えば、メディアの表現を表示するときに)図7Gのカスタム標準スタイル634aa(標準スタイル634aではない)をメディアに適用する。図7Gでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の移動入力750gの一部を検出する。
図7Hに示されるように、図7Gにおける移動入力750gの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Dのトーンパラメータコントロール626a1の拡張に関連して上述したような1つ以上の技術を用いて)トーンパラメータコントロール626a1を表示することを中止し、暖かさパラメータコントロール626a2を拡張する。図7Hでは、コンピュータシステム600は、暖かさパラメータコントロール626a2上の左方向の移動入力750gの別の部分を検出する。
図7Iに示すように、図7Hにおいて移動入力750gの部分(例えば、左方向に移動している)を検出したことに応じて、コンピュータシステム600は、(例えば、図7Hにおいて検出された移動入力750gの部分の大きさに基づいて)暖かさ値範囲インジケータ626a2cの目盛りを左に移動させ、現在の暖かさ値626a2bを「-75」(例えば、図7H)から「0」(例えば、図7I)に更新する。図7Iに示すように、コンピュータシステム600は、コンピュータシステム600が図7Dのカスタム標準スタイル634aa、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602b(例えば、「図7Dの点線」)を使用して中間セクションを表示するのと同じ方法で、図7Iのカスタム標準スタイル634aa、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602b(例えば、「図7Iの点線」)を使用して中間セクションを表示する。図7D及び図7Iでは、コンピュータシステム600は、図7Iの現在の暖かさ値626a2bが図7Dの現在の暖かさ値626a2bと同じ値であり、図7Iにおける現在のトーン値626a2b(例えば、図7Jに示されるような)が図7Dの現在のトーン値626a2bと同じであるため、中間セクション、カスタム標準スタイル識別子636aa、及びメディア処理スタイルインジケータ602bを同じように表示する。図7Iでは、コンピュータシステム600は、暖かさ値範囲インジケータ626a2c上の移動入力750gの終了を検出する。
図7Iに示すように、移動入力750gの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を再表示し、暖かさパラメータコントロール626a2を縮小する(例えば、図7D及び7Iに関連して上述した1つ以上の技術を使用して)。いくつかの実施形態では、図7Iにおけるシャッターコントロール610上の入力(例えば、タップジェスチャ)を検出したことに応じて、コンピュータシステム600は、メディアをキャプチャし、(例えば、メディアの表現を表示するときに)図7Iのカスタム標準スタイル634aa(図7Hの標準スタイル634a及び/又はカスタム標準スタイル634aaではない)をメディアに適用する。図7Jでは、コンピュータシステム600は、ライブプレビュー630上の左方向への移動入力750jを検出する。
図7Kに示すように、移動入力750jを検出したことに応じて、コンピュータシステム600は、(例えば、図6E~図6Iの移動入力650dの検出に関連して上述した1つ以上の技術を使用して)メディア処理スタイルの利用可能なセットを左に変換し、標準スタイル634aを使用して中間セクションを表示し、カスタム標準スタイル634aaを使用して右セクションを表示し、鮮やかなスタイル634bを使用して左セクションを表示する。特に、図7Kでは、コンピュータシステム600は、標準スタイル634aが、(例えば、コンピュータシステム600が、図7Iにおいて使用して中間セクションを以前に表示した)利用可能なメディア処理スタイルのセット内のカスタム標準スタイル634aaの後に配置されているため、標準スタイル634aを使用して中間セクションを表示する。同様に、コンピュータシステム600は、鮮やかなスタイル634bが利用可能なメディア処理スタイルのセットにおいて標準スタイル634aの後に配置されるので、鮮やかなスタイル634bを使用して右セクションを表示する。したがって、図7I及び7Kでは、カスタムメディア処理スタイル上で入力を検出して、利用可能なメディア処理スタイルのセット内の他のメディア処理スタイルを使用してライブプレビュー630の一部を表示することができる。図7Kに示すように、移動入力750jを検出したことに応じて、コンピュータシステム600は、図7Jのカスタム標準スタイル識別子636aaを標準スタイル識別子636aaで置き換える。更に、移動入力750jを検出したことに応じて、コンピュータシステム600は、現在のトーン値626b1bが標準スタイル634aのデフォルト値(例えば、「0」)に設定され、現在のトーン暖かさ626b2bが標準スタイル634aのデフォルト値(例えば、「0」)に設定されるように(例えば、カスタム標準スタイル634aaのそれぞれの現在値を表示することを中止するように)、標準スタイルコントロール626aを更新する。図7Kでは、コンピュータシステム600はまた、標準スタイル634aの現在値(例えば、現在のトーン値626b1b及び現在の暖かさ値626b2bが「0」である)が表示される(例えば、標準スタイル634aのデフォルト値が表示される)ため、リセットコントロール722を表示することを中止する。いくつかの実施形態では、右方向の移動入力を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaを使用して中間セクションを再表示する。図7Kでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750kの一部を検出する。
図7Lに示すように、(例えば、標準スタイル634aが選択されている間、及び/又は標準スタイル634aを使用して中間セクションが表示されている間に)図7Kにおいて移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述したような1つ以上の技術を使用して)トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。図7Lでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の左方向の移動入力750kの別の部分を検出する。
図7Mに示すように、図7Lにおいて移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Cに関連して上述した1つ以上の技術を使用して)(例えば、図7Lにおいて検出された移動入力750kの大きさに基づいて)トーン値範囲インジケータ626a1cの目盛りを左に移動させ、現在のトーン値626a1bを「0」(例えば、図7L)から「50」(例えば、図7M)に更新する。現在のトーン値626a1bを更新することに加えて、コンピュータシステム600は、標準スタイル識別子636aをカスタム標準スタイル識別子636aaで置き換え、カスタム標準ページングドット638aaを選択されているものとして表示し、標準ページングドット638aを選択されていないものとして表示する。特に、図7Mでは、コンピュータシステム600は、カスタム標準スタイル634aaのトーンパラメータの現在値を更新し、標準スタイル634aのトーンパラメータの現在値を更新しない。したがって、図7Mでは、コンピュータシステム600は、標準スタイル634aがどのように定義されるかを変更しない(及び/又は標準スタイル634aの現在値を変更する)。図7Mでは、図7Lにおける移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaを使用して中間セクションを表示する。図7Cのカスタム標準スタイル634aaは、(例えば、図7Mの現在のトーン値626a1bが、図7Jに示される現在のトーン値626a1bの以前の値よりも低いため)減少した量のトーンを有する。例示のみを目的として、図7Mのカスタム標準スタイル634aaの線(例えば、十字)は、カスタム標準スタイル634aaの1つ以上のパラメータが変化したことを示すために、図7Jのカスタム標準スタイル634aaの線(例えば、点線)とは異なる。
図7Mに示すように、図7Lにおける移動入力750kの部分を検出したことに応じて、コンピュータシステム600は、図7Mにおけるトーンパラメータの現在値(例えば、「50」)に基づいて、メディア処理スタイルインジケータ602bの外観を更新する。したがって、図6Lに関連して上述したようなもう1つの技術を使用して、メディア処理スタイルインジケータ602bの周囲の線は、メディア処理スタイルインジケータ602bの周囲の約半分になるように更新される。図7Mに示すように、カスタム標準スタイル識別子636aaは、図7Dのカスタム標準スタイル識別子636aaに関連して上述したのと同様の理由で、単語「リッチなコントラスト」を含む。図7Dと図7Mとを比較すると、コンピュータシステム600は、図7Dのトーンパラメータの現在値が図7Mのトーンパラメータの現在値よりも高かったが、同じ単語(「リッチなコントラスト」)を有するカスタム標準スタイル識別子636aaを表示する。いくつかの実施形態では、コンピュータシステム600は、(例えば、図7Dのトーンパラメータの現在値の現在値が図7Mのトーンパラメータの現在値より高い、及び/又は図7Dのトーンパラメータの現在値の現在値が、ある量(例えば、「75」)を超えるトーンパラメータのデフォルト値より高いため)「リッチ」の代わりに単語「よりリッチ」を含む図7Mのカスタム標準スタイル識別子636aaを表示する。いくつかの実施形態では、コンピュータシステム600は、トーンパラメータの現在値がデフォルト値未満であるとき、単語「ソフト」及び/又は「よりソフト」と共にカスタム標準スタイル識別子636aaを表示する。図7Mでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750kの終了を検出する。
図7Nに示すように、移動入力750kの終了を検出したことに応じて、コンピュータシステム600は、トーンパラメータコントロール626a1を縮小し、暖かさパラメータコントロール626a2を再表示する。ここで、トーンパラメータコントロール626a1及び暖かさパラメータコントロール626a2は、(例えば、移動入力750kを検出したことに応じて、カスタム標準スタイル634aaが選択され、及び/又はカスタム標準スタイル634aaを使用して中間セクションが表示されたため)カスタム標準スタイル634aaについてのトーンパラメータ及び暖かさパラメータの現在値を示す(例えば、現在のトーン値626a1bが「50」であり、現在の暖かさ値626a2bが「0」である)。図7Nでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750nを検出する。
図7Oに示すように、図7Nにおいて移動入力750nを検出したことに応じて(例えば、カスタム標準スタイル634aaが選択されている間、及び/又はカスタム標準スタイル634aaを使用して中間セクションが表示されている間)、コンピュータシステム600は、(例えば、図7Bに関連して上述したような1つ以上の技術を使用して)トーンパラメータコントロール626a1を拡張し、暖かさパラメータコントロール626a2を表示することを中止する。図7Oでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の右方向の移動入力750nの別の部分を検出する。
図7Pに示すように、図7Oで移動入力750nの部分を検出したことに応じて、コンピュータシステム600は、(例えば、図7Cに関連して上述したような1つ以上の技術を使用して)(例えば、図7Oで検出された移動入力750nの大きさに基づいて)トーン値範囲インジケータ626a1cの目盛りを右に移動させ、現在のトーン値626a1bを「50」(例えば、図7O)から「0」(例えば、図7P)に更新する。トーン値626a1bを更新することに加えて、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除する。現在のトーン値626a1b及び現在の暖かさ値626a2bの両方が標準メディア処理スタイルについてのそれぞれのデフォルト値に設定されていたので、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除する。更に、カスタム標準スタイル634aaが利用可能なメディア処理スタイルのセットから削除されているので、コンピュータシステム600は、カスタム標準スタイル識別子636aaを標準スタイル識別子636aで置き換え、カスタム標準ページングドット638aaをページングドット638から削除する。したがって、標準スタイル識別子636aを表示している間、コンピュータシステム600は、標準スタイル634aを使用して中間セクションを表示する。したがって、コンピュータシステム600は、個別のメディア処理スタイルのためのカスタムメディア処理が、メディア処理スタイルの利用可能なセット内のメディア処理スタイルのうちの1つ以上のためのデフォルト値にリセットされる(例えば、及び/又はもはや異なっていない)とき、カスタムメディア処理スタイルを削除することができる。いくつかの実施形態では、図7Oにおける移動入力750nの部分を検出したことに応じて、コンピュータシステム600は、カスタム標準スタイル634aaのトーンパラメータを更新し、利用可能なメディア処理スタイルのセットからカスタム標準スタイル634aaを削除しない。図7Pでは、コンピュータシステム600は、トーン値範囲インジケータ626a1c上の移動入力750nの終了を検出する。
図7Qに示すように、移動入力750nの終了を検出したことに応じて、コンピュータシステム600は、(例えば、図7A及び7Cに関連して上述した1つ以上の技術を使用して)トーンパラメータコントロール626a1を縮小し、暖かさパラメータコントロール626a2を再表示する。図7Qでは、コンピュータシステム600は、ライブプレビュー630上の移動入力750qを検出する。
図7Rに示すように、移動入力750qを検出したことに応じて、コンピュータシステム600は、(例えば、図6E~図6Iの移動入力650dの検出に関連して上述した1つ以上の技術を使用して)メディア処理スタイルの利用可能なセットを左に変換し、ヴィンテージスタイル634dを使用して中間セクションを表示し、高級スタイル634cを使用して左セクションを表示する。ヴィンテージスタイル634dが利用可能なメディア処理スタイルのセット内の最後のメディア処理スタイル(例えば、右の最後)であるため、コンピュータシステム600は、メディア処理スタイルを使用せずに右セクションを表示する。図7Rに示されるように、移動入力750qを検出したことに応じて、コンピュータシステム600は、図7Qの標準スタイル識別子636aをヴィンテージスタイル識別子636dに置き換える。更に、移動入力750qを検出したことに応じて、コンピュータシステム600は、標準スタイルコントロール626aをヴィンテージスタイルコントロール626dに置き換える。ヴィンテージスタイルコントロール626dは、トーンパラメータコントロール626d1及び暖かさパラメータコントロール626d2を含み、現在のトーン値626d1b(例えば、「10」)及び現在の暖かさ値626d2b(例えば、「50」)は、ヴィンテージスタイル634dの個別のパラメータのデフォルト値である(例えば、利用可能なメディア処理スタイルのセットにおける他のメディア処理スタイルのデフォルト値とは異なる)。図7Rでは、コンピュータシステム600は、暖かさパラメータコントロール626d2上のタップ入力750rを検出する。
図7Sに示すように、タップ入力750rを検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述した1つ以上の同様の技術を使用して)暖かさパラメータコントロール626d2を拡張し、トーンパラメータコントロール626d1を表示することを中止する。図7Sにおいてコントロール628を表示している間、コンピュータシステム600は、コントロール628上のタップ入力750sを検出する。図7Tに示すように、タップ入力750sを検出したことに応じて、コンピュータシステムは、(例えば、図7Dに関連して上述した1つ以上の技術を使用して)暖かさパラメータコントロール626d2を縮小し、トーンパラメータコントロール626d1を再表示する。図7Tでは、コンピュータシステム600は、暖かさパラメータコントロール626d2上の移動入力750tの一部を検出する。
図7Uに示すように、図7Tにおいて移動入力750tの一部を検出したことに応じて、コンピュータシステム600は、(例えば、図7Bに関連して上述した1つ以上の同様の技術を使用して)暖かさパラメータコントロール626d2を拡張し、トーンパラメータコントロール626d1の表示を中止する。図7Uでは、コンピュータシステム600は、暖かさ値範囲インジケータ626d2c上の左方向の移動入力750tの別の部分を検出する。
図7Vに示すように、図7Uにおいて移動入力750tの部分を検出したことに応じて、コンピュータシステム600は、暖かさ値範囲インジケータ626d2cの目盛りを左に移動させ、現在の暖かさ値626d2bを「50」(例えば、図7U)から「62」(例えば、図7V)に更新する。現在のトーン値626d1bを更新することに加えて、コンピュータシステム600は、ヴィンテージスタイル識別子636dをカスタムヴィンテージスタイル識別子636ddで置き換え、ページングドット638内のヴィンテージページングドット638dの左にカスタムヴィンテージページングドット638ddを追加する。言い換えれば、図7Vにおいて、コンピュータシステム600は、現在のトーン値626d1bをデフォルト値(「50」)から修正値(例えば、「62」)に更新することに応じて、ヴィンテージスタイル634dのカスタムバージョンを利用可能なスタイルのセットに追加する。したがって、図7Vでは、コンピュータシステム600は、(例えば、図7Xに示されるように)ヴィンテージスタイル634dのトーンパラメータのデフォルト値を更新せず、代わりに、更新値を有するヴィンテージスタイル634dの修正バージョンを作成する。したがって、いくつかの実施形態では、ユーザは、後でヴィンテージスタイル634dの修正バージョン(例えば、カスタムヴィンテージスタイル634dd)にアクセスすることができる。
図7Vに示すように、図7Uで移動入力750tの部分を検出したことに応じて、コンピュータシステム600は、ライブプレビュー630の中間セクションを更新し、図7Uのヴィンテージスタイル634dを使用する代わりに図7Vのカスタムヴィンテージスタイル634ddを使用して中間セクションが表示されるようにする。コンピュータシステム600は、ヴィンテージメディア処理スタイルの暖かさパラメータの値の変化を反映するために、ヴィンテージスタイル634dの暖かさ(例えば、「50」)よりも増加した暖かさの量(例えば、62)を有する図7Vのカスタムヴィンテージスタイル634ddを表示することを理解されたい。例示のみを目的として、(例えば、図7Vにおける)カスタムヴィンテージスタイル634ddは、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dの修正バージョンであることを示すために、(例えば、図7Uにおける)ヴィンテージスタイル634dと同じパターン(例えば、垂直線)で示される。しかしながら、カスタムヴィンテージスタイル634ddの線は、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dと異なることを示すために、図7Uのヴィンテージスタイル634dの線のように実線ではなく点線で示されている。特に、図7Vでは、カスタムヴィンテージスタイル識別子636dd(例えば、入力が検出された場合には634dd)は、ヴィンテージスタイル識別子636d(例えば、634d)の左側に表示され、標準スタイル識別子636a(又は入力が検出された場合には634a)の左側には表示されない(例えば、ページングドット638によって示される)。これは、カスタムヴィンテージスタイル634ddがヴィンテージスタイル634dの修正バージョンであり、標準スタイル634aではないためである。したがって、いくつかの実施形態では、コンピュータシステム600は、カスタムの個別のメディア処理スタイルを、個別のメディア処理スタイルの非カスタム(及び/又は修正されていない)バージョンと一緒にグループ化する。
更に、コンピュータシステム600が、ヴィンテージスタイル634dの暖かさ(例えば、「50」)よりも増加した暖かさの量(例えば、62)で図7Vのカスタムヴィンテージスタイル634ddを表示する、及び/又は図7Vの暖かさパラメータの現在値がヴィンテージスタイル634dの暖かさパラメータのデフォルト値よりも大きいため、カスタムヴィンテージスタイル識別子636ddは単語「暖かい」を含む。加えて、コンピュータシステム600は、移動入力750tの部分の移動特性に基づいて(例えば、図6L及び図7Cに関連して上述した1つ以上の同様の技術を使用して)、メディア処理スタイルインジケータ602bの色の濃い灰色の量を増加させることによって、メディア処理スタイルインジケータ602bの外観を更新する。図7Vでは、コンピュータシステム600は、暖かさ値範囲インジケータ626d2c上の移動入力750tの終了を検出する。
図7Wに示すように、移動入力750tの終了を検出したことに応じて、コンピュータシステム600は、(例えば、図7Gに関連して上述した1つ以上の技術を使用して)トーンパラメータコントロール626d1を再表示し、暖かさパラメータコントロール626d2を縮小する。移動入力750tの終了を検出したことに応じて、コンピュータシステム600は、リセットコントロール722も表示する。図7Wでは、コンピュータシステム600は、リセットコントロール722上の入力750wを検出する。
図7W1に示されるように、タップ入力750wを検出したことに応じて、コンピュータシステム600は、単語「ヴィンテージにリセット」を含むプロンプト768を表示する。ここで、プロンプト768は、現在表示されているスタイルが(例えば、入力を介して)リセットされ得る前に確認が提供される必要があることを示すために、単語「ヴィンテージにリセット」を含む。ここで、「ヴィンテージ」という単語は、ライブプレビュー630に適用されるメディア処理スタイル、及び/又はコンピュータシステム600が確認入力を検出したことに応じて現在適用されているメディア処理スタイルが設定されるメディア処理スタイルを示す。図7W1では、コンピュータシステム600は、リセットコントロール722上の入力750w1を検出する。いくつかの実施形態では、コンピュータシステム600は、リセットコントロール722の代わりにプロンプト768上のタップ入力750w1を検出し、プロンプト768上のタップ入力750w1を検出したことに応じて、リセットコントロール722上のタップ入力750w1の検出に関して以下で説明する機能を実行する。
図7Xに示されるように、図7Wにおけるタップ入力750w又は図7W1におけるタップ入力750w1を検出したことに応じて、コンピュータシステム600は、利用可能なメディア処理スタイルのセットからカスタムヴィンテージスタイル634ddを削除する。更に、コンピュータシステム600は、カスタムヴィンテージスタイル634ddは利用可能なメディア処理スタイルのセットから削除されているため、カスタムヴィンテージスタイル識別子636ddをヴィンテージスタイル識別子636dで置き換え、ページングドット638からカスタムヴィンテージページングドット638ddを削除する。したがって、ヴィンテージスタイル識別子636dを表示している間、コンピュータシステム600は、ヴィンテージスタイル634dを使用して中間セクションを表示する。したがって、コンピュータシステム600は、個別のメディア処理スタイルのためのカスタムメディア処理が、メディア処理スタイルの利用可能なセット内のメディア処理スタイルのうちの1つ以上のためのデフォルト値にリセットされる(例えば、及び/又はもはや異なっていない)とき、カスタムメディア処理スタイルを削除することができる。いくつかの実施形態では、図7Wにおけるタップ入力750w又は図7W1におけるタップ入力750w1を検出したことに応じて、コンピュータシステム600は、カスタムヴィンテージメディア処理スタイルのパラメータをリセットし、利用可能なメディア処理スタイルのセットからカスタムヴィンテージメディア処理スタイルを削除しない。
図7A~図7Xに示すように、コンピュータシステム600は、1つ以上のパラメータの1つ以上の現在値に基づく単語(及び/又は記号及び/又は数字)を使用してカスタムスタイル識別子(例えば、カスタム標準スタイル識別子634aa及び/又はカスタムヴィンテージスタイル識別子636dd)を表示する。いくつかの実施形態では、トーンパラメータの現在値が中央値及び/又はデフォルト値(例えば、「0」)(例えば、及び/又は中央値及び/又はデフォルト値を含む値の範囲)を上回るとき、カスタムスタイル識別子は、「リッチ」などの第1の単語を含むことができる。いくつかの実施形態では、トーンパラメータの現在値が中央値を下回るとき、カスタムスタイル識別子は、第1の単語とは異なる(例えば、第1の単語と反対の、及び/又は第1の単語の反対語である)「ソフト」などの第2の単語を含むことができる。いくつかの実施形態では、暖かさパラメータの現在値が中央値(例えば、「0」)を上回るとき、カスタムスタイル識別子は、単語「暖かい」などの第3の単語(例えば、第1の単語及び第2の単語とは異なる)を含むことができる。いくつかの実施形態では、暖かさパラメータの現在値が中央値(例えば、「0」)を下回るとき、カスタムスタイル識別子は、単語「冷たい」などの第4の単語(例えば、第1の単語、第2の単語、及び第3の単語とは異なる)を含むことができる。いくつかの実施形態では、第3の単語は、第4の単語の反対及び/又は反意語である。したがって、いくつかの実施形態では、カスタムスタイル識別子は、「リッチ-暖かい」、「リッチ-冷たい」、「ソフト-暖かい」、又は「ソフト-冷たい」などの複数のパラメータの現在値を示す単語の組み合わせであってもよい。いくつかの実施形態では、両方のパラメータの現在値が中央値に設定されるとき、カスタムスタイル識別子は、「標準」などの単語を含むことができる。いくつかの実施形態では、パラメータのうちの1つの現在値が中央値に設定され、別のパラメータの現在値が中央値に設定されないとき、カスタムスタイル識別子は、現在中央値に設定されていないパラメータを示す単語を含むが、現在中央値に設定されているパラメータを示す単語を含まず、例えば、トーンパラメータが現在中央値に設定されておらず、暖かさパラメータが中央値に設定されている場合には「リッチ」又は「ソフト」であり、暖かさパラメータが現在中央値に設定されておらず、トーンパラメータが中央値に設定されている場合には「暖かさ」又は「冷たい」である。いくつかの実施形態では、カスタムスタイル識別子は、1つ以上の他のパラメータ(例えば、第3のパラメータ、第4のパラメータ、第5のパラメータなど)についての1つ以上の単語を含むことができる。したがって、メディア処理スタイルについての第3のパラメータ(又は第4のパラメータ若しくは第5のパラメータ)があるとき、カスタムスタイル識別子は、輝度パラメータについての「明るい」(例えば、中央値を上回る)又は「鈍い」(例えば、中央値を下回る)など、第3のパラメータが中央値を上回る/下回るかどうかに基づいて、(第1のパラメータ及び/又は第2のパラメータ(並びに第3のパラメータ及び/又は第4のパラメータ)についての単語と共に)第3のパラメータの現在値に基づく異なる単語を含むことができる。いくつかの実施形態では、カスタムスタイル識別子は、「80」のデフォルトトーン値及び「0」のデフォルト暖かさ値を有する「鮮やかな」(例えば、図6Hの鮮やかなスタイル634bに関連して上述したように)(例えば、上述した「高級」及び/又は「ヴィンテージ」のパラメータの特定のデフォルト値と同じ)などの、トーンパラメータの特定の値及び暖かさパラメータの特定の値を有するメディア処理スタイルを識別する単語を含むことができる。いくつかの実施形態では、カスタムスタイル識別子は、パラメータの現在値が特定のメディア処理スタイルのデフォルト値より上/下であるかどうかに基づいて、パラメータ値の現在値が「0」より下であるときの「鮮やかな-冷たい」、暖かさパラメータの現在値が「0」より上であるときの「鮮やかな-暖かい」、トーンパラメータの現在値が「80」より下であるときの「鮮やかな-ソフト」、トーンパラメータの現在値が「80」より上であるときの「鮮やかな-リッチ」、又はそれらの組み合わせ(例えば、「鮮やかな-ソフト-リッチ」、「鮮やかな-ソフト-暖かい」、「鮮やかな-リッチ-暖かい」、又は「鮮やかな-リッチ-冷たい」)などの1つ以上の追加の単語を含むことができる。いくつかの実施形態では、他のメディア処理スタイルのカスタム識別子(例えば、図6Mの高級634c及び/又は図7Uのヴィンテージ634d)は、鮮やかなスタイル634bに関連して上述したものと同じパラダイムを使用することができる。更に、上記の特定のパラメータの現在値を説明するために使用される語は、単に例示的なものであり、1つ以上の他の語が、上記で論じられた語(例えば、「暖かい」、「冷たい」、「ソフト」、「リッチ」、「鈍い」、「明るい」、「標準」、「高級」、「鮮やか」、及び/又は「ヴィンテージ」)の代わりに使用され得る。
図8A~図8Cは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図9及び図10A~10Bにおけるプロセスを含む、後述するプロセスを説明するために使用される。
図8Aは、設定844を含む設定ユーザインタフェースを表示するコンピュータシステム600を示す。設定844は、メディア処理スタイル設定844aを含む。図8Aでは、コンピュータシステム600は、メディア処理スタイル設定844a上のタップ入力850aを検出する。図8Bに示されるように、タップ入力850aを検出したことに応じて、コンピュータシステム600は、標準スタイル878aの表現及び鮮やかなスタイル878bの表現を含むメディア処理スタイルユーザインタフェース810を表示する。標準スタイル878aの表現はサンプル画像(例えば、ストック画像)であり、鮮やかなスタイル878bの表現はサンプル画像である。それぞれのスタイルに対する個別のサンプル画像は、適用される個別の個々のメディア処理スタイルを有する。図8Bに示すように、ページングドット638は、利用可能なスタイルのセット内に4つの利用可能なスタイルがあることを示し、これらは、上述した標準スタイル634a(例えば、標準ページングドット638aに対応する)、鮮やかなスタイル634b(例えば、鮮やかなページングドット638bに対応する)、高級スタイル634c(例えば、高級ページングドット638cに対応する)、及びヴィンテージスタイル634d(例えば、ヴィンテージページングドット638dに対応する)である。いくつかの実施形態では、カスタムメディア処理スタイルがメディア処理スタイルの利用可能なセットに追加されている間にユーザインタフェース810が表示されるとき、コンピュータシステム600は、カスタムメディア処理スタイルについてのページングドット及び/又は表現を表示する。
図8Bに示すように、ユーザインタフェース810は、標準スタイル878a及び選択コントロール816aの表現に対応するメディア処理スタイル(例えば、上述した標準スタイル634a)のパラメータのデフォルト値を含む領域814aを含む。いくつかの実施形態では、選択コントロール816a上の入力を検出したことに応じて、コンピュータシステム600は、現在選択されているメディア処理スタイルとして標準スタイル634aを(例えば、図8Cに関連して以下1つ以上の技術を使用して)設定する。図8Bでは、コンピュータシステム600は、移動入力850bを検出する。
図8Cに示すように、移動入力850bを検出したことに応じて、コンピュータシステム600は、メディア処理スタイルの表現を左に移動させ、標準スタイル878aの表現の一部と高級スタイル878cの表現の一部との間に、鮮やかなスタイル878bの表現を表示する。鮮やかなスタイル878bの表現がディスプレイ上の所定ポジションにあるので、コンピュータシステム600は、(例えば、上述したように)領域814aを、鮮やかなスタイル634bのパラメータのデフォルト値を含む814bで置き換える。図8Cでは、コンピュータシステムは、選択コントロール816b上のタップ入力850cを検出する。いくつかの実施形態では、タップ入力850cを検出したことに応じて、コンピュータシステムは、鮮やかなスタイル634bを現在選択されているメディア処理スタイルとして設定する。いくつかの実施形態では、鮮やかなスタイル634bが現在選択されているメディア処理スタイルであるが、コンピュータシステム600は、鮮やかなスタイル634bをデフォルトメディア処理スタイルとして使用して、以前にキャプチャされたメディアの表現を表示し、FOVの表現(例えば、ライブプレビュー630)を表示し、及び/又は将来メディアをキャプチャする。いくつかの実施形態では、鮮やかなスタイル634bが現在選択されているメディア処理スタイルである間に、コンピュータシステム600は、カメラユーザインタフェースを再表示する要求を検出し、要求を検出したことに応じて、コンピュータシステム600は、現在選択されているメディア処理スタイル(例えば、鮮やかなスタイル634b)を使用してカメラユーザインタフェース内にライブプレビュー630を表示する。いくつかの実施形態では、現在選択されているメディア処理スタイルを使用してライブプレビュー630を表示している間、コンピュータシステム600は、メディアをキャプチャし、ユーザインタフェース810を介して(例えば、タップ入力850cなどの入力を用いて)選択された現在選択されているメディア処理スタイルを使用してメディアを表示する。
図9は、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを選択するための方法を示すフロー図である。方法900は、表示生成構成要素(例えば、ディスプレイコントローラ及び/又はタッチ感知ディスプレイシステム)、及び1つ以上の入力デバイス(例えば、タッチ感知面及び/又は1つ以上のカメラの第1のカメラ(例えば、コンピュータシステムの同じ側又は異なる側の1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クワッドカメラなど)(例えば、フロントカメラ及び/又はバックカメラ)、コンピュータシステム)と通信するコンピュータシステム(例えば、100、300、500、600)(例えば、スマートフォン、デスクトップコンピュータ、ラップトップ、及び/又はタブレット)において実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法900は、コンピュータシステムを使用してメディア処理スタイルを選択するための直感的な方法を提供する。この方法は、コンピュータシステムを使用してメディア処理スタイルを選択するユーザの認識的負担を低減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、ユーザがコンピュータシステムを使用してメディア処理スタイルを、より速く、より効率的に選択することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
コンピュータシステムは、表示生成構成要素を介して、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、画像)を含むスタイル選択ユーザインタフェース)(例えば、メディアキャプチャユーザインタフェース、メディア閲覧ユーザインタフェース、及び/又はメディア編集ユーザインタフェース)(例えば、写真メディア及び/又はビデオメディア)(例えば、ライブメディア、ライブプレビュー(例えば、メディアをキャプチャする要求を検出したこと(例えば、シャッターアフォーダンス(例えば、ユーザインタフェースオブジェクト)の選択を検出したこと)に応じて記憶/キャプチャされていない1つ以上のカメラの視野(例えば、現在の視野)の表現に対応するメディア))、以前にキャプチャされたメディア(例えば、キャプチャされた1つ以上のカメラの視野(例えば、以前の視野)の表現に対応するメディア)、保存されており、後でユーザによってアクセス可能であるメディアアイテム、及び/又は、メディアの(例えば、メディアギャラリー内の)メディアのサムネイル表現上のジェスチャを受信したことに応じて表示されたメディアの表現(例えば、キャプチャされている、又はコンピュータシステムの1つ以上のカメラによってキャプチャされた情報、データ(コンピュータシステムの1つ以上のカメラの視野の表現である))を表示し(902)、表現(630、676a、676b、676c、680c、及び/又は680d)の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現(630、676a、676b、676c、680c、及び/又は680d)の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、(例えば、カメラモードで動作している間)、第1メディア処理スタイル(例えば、634a-634d、634aa、及び/又は634dd)を使用して(例えば、それに従って、それと共に)表示される。いくつかの実施形態では、第1のメディア処理スタイルは(例えば、第2のメディア処理スタイル及び第3のメディア処理スタイルを含む)複数のメディア処理スタイルのうちの1つである。いくつかの実施形態では、各複数のスタイルは、同じセットのパラメータ(例えば、同じタイプのパラメータ)を有するが、1つ以上のパラメータに対して異なる値を有する。いくつかの実施形態では、パラメータのセットは、メディアの視覚的コンテンツに適用される(例えば、メディアの表現の表示に影響を与える(例えば、表示されるメディアの表現の1つ以上の特性(例えば、色特性、奥行き特性)を変化させる)メディアの外観(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)を決定するために使用されるメディア処理パラメータのセットである(例えば、メディアの視覚的コンテンツに適用される第2のスタイルを使用することなく表示する)。いくつかの実施形態では、第1の部分及び第2の部分は重複しない、及び/又は第1の部分は第2の部分のサブセットを取り囲まない、及び/又は第2の部分は第1の部分のサブセットを取り囲まない。いくつかの実施形態では、第1の部分と第2の部分とは異なる。いくつかの実施形態では、メディア処理スタイルはまた、メディアキャプチャ(例えば、カメラ)アプリケーションにある間にキャプチャされたメディアのキャプチャに影響を及ぼす。
表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクションの一部、及び/又は左セクション、右セクション)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクションの一部、及び/又は左セクション、右セクション)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、コンピュータシステムは、1つ以上の入力デバイスを介して、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ))を検出する(904)(及び/又はいくつかの実施形態では、非移動入力/ジェスチャ、タップ入力/ジェスチャ(例えば、シングルタップ入力/ジェスチャ、ダブルタップ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャを検出する)。
表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力を検出したことに応じて(及び、いくつかの実施形態では、入力の検出を継続している間に(及びメディアの表現の表示を継続している間に)入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向(例えば、右、左、上、下、及び/又は斜め)であるという判定に従って)(及び、コンピュータシステムがメディア処理スタイル選択モード(例えば、1つ以上のメディア処理スタイルがユーザによって選択された後に、1つ以上のメディア処理スタイルをコンピュータシステムによってキャプチャされたメディアに適用するようにユーザがコンピュータシステムに命令することを可能にするモード)で動作しているという判定に従って)、コンピュータシステムは、表示生成構成要素を介して、(例えば、メディアの表現の表示に影響を及ぼす、メディアの視覚的コンテンツに適用される)第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)を、(例えば、第1のメディア処理スタイル及び/又は(例えば、第1のメディア処理スタイルと異なる)第3のメディア処理スタイルを使用して表現の第1の部分を表示することなく)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分(例えば、630、676a、676b、676c、680c、及び又は680d)の中間セクション、左セクション、及び/又は右セクションの一部)を表示し続けている間(例えば、第2のメディア処理スタイル及び/又は第3のメディア処理スタイルを使用して表現の第2の部分を表示することなく)(例えば、第3のメディア処理スタイルに対応する視覚的要素を表示することなく)表示する(906)。いくつかの実施形態では、入力は、第1の方向の動きの成分を含む。いくつかの実施形態では、入力は、第2のメディア処理スタイルに対応するスタイル選択ユーザインタフェース上のロケーションで検出されず、及び/又は入力は、第1のメディア処理スタイルに対応するスタイル選択ユーザインタフェース上のロケーションで検出されない。いくつかの実施形態では、入力は、第2のメディア処理スタイル及び/又は第1のメディア処理スタイルの縁部及び/又は境界に対応するスタイル選択ユーザインタフェース上のロケーションで検出されない。いくつかの実施形態では、入力は、第1のメディア処理スタイル及び/又は第2のメディア処理スタイルの中心ロケーション(例えば、非境界/縁部)に対応するスタイル選択ユーザインタフェース上のロケーションで検出される。
第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、表示生成構成要素を介して、第2のメディア処理を使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分を検出したことに応じて(入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分は第1の入力大きさ(例えば、入力の開始から第1の方向の第1の移動量)を有する)、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)と、表現の第1の部分と表現の第2の部分との間にある第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)とが第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第2のメディア処理スタイルを使用することなく)表示されている間、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第1のメディア処理スタイルを使用することなく)表現の第1の部分を表示する(908)。
表示の一部として、表示生成構成要素を介して、第1のメディア処理スタイルを使用して表現の第2の部分を表示し続ける間、第2のメディア処理を使用して表現の第1の部分を表示する一部として、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分を表示した後、
表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中央セクション、左セクション、及び/又は右セクションの部分)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中央セクション、左セクション、及び/又は右セクションの部分)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、表現に向けられた入力の第2の部分(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(入力の第2の部分は第1の入力の大きさよりも大きい第2の入力の大きさ(例えば、入力の開始から第1の方向への第2の移動量)を有する)、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を用いて表示されている間、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)と、表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)とを第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示する(910)。いくつかの実施形態では、表現の第1の部分、表現の第2の部分、及び表現の第3の部分は重複しない。表現に向けられた入力の一部の大きさに基づいて、個別のメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが、個別のメディア処理スタイルを使用して表示される表現の部分を制御することを可能にし、個別のメディア処理スタイルが、キャプチャされ得る表現の部分のメディア表現にどのように影響するかに関する視覚的フィードバックを提供し、これは、視覚的フィードバックを改善する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、750q)(第1の部分及び第2の部分を含む)を検出する前に、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、第2のメディア処理スタイルを使用して表示されない。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)とは異なる。表現に向けられた入力の一部の大きさに基づいて、異なるそれぞれのメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが、異なる個別のメディア処理スタイルを使用して表示される表現のどの部分を制御することを可能にし、異なるそれぞれのメディア処理スタイルが、異なってキャプチャされ得る表現の部分のメディア表現にどのように影響するかに関する視覚的フィードバックを提供し、これは、視覚的フィードバックを改善する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第1の部分を検出したことに応じて、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されない。いくつかの実施形態では、入力の第2の部分を検出したことに応じて、表現の第1の部分及び表現の第3の部分は、第1のメディア処理スタイルを使用して表示されない。
いくつかの実施形態では、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(及び/又は第1のメディア処理スタイル)が適用される表現(例えば、630、676a、676b、676c、680c、及び/又は680d)の量は、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の移動(例えば、速度、加速度、及び/又は変位(例えば、2つの点(例えば、入力の開始点、入力の終了点)間の距離))(及び、いくつかの実施形態では、方向)の量に基づく(例えば、比例する)。表現に向けられた入力の移動量に基づいて第2のメディア処理スタイルが適用される表現の量を表示することにより、ユーザは、入力の移動量によって個別のメディア処理スタイルが適用される表現の量を制御することができ、これにより、ユーザインタフェースを雑然とさせることなく追加の制御オプションが提供される。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、図6Hの650d)の終了を検出したことに応じて(例えば、表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間に)(かつ入力が第1の方向であるという判定に従って)コンピュータシステムは、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)の所定の部分(例えば、25%、30%、40%、50%、60%、75%)より多くの部分が、表現に向けられた入力(例えば、650d)の終了が検出されるとき(例えば、同時に、直前に、及び/又は直後に)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、図6Hの634b)を使用して表示されたという判定に従って(例えば、第2のメディア処理スタイルが、表現に向けられた入力の終了が検出される前に、表現の特定の部分に適用されていた(及び/又は第1のメディア処理スタイルが適用されていなかった)という判定に従って)、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634b)を使用して表現の第1の部分(例えば、中間セクション)(及び、任意選択的に、表現の第2の部分)を(例えば、第2のメディア処理スタイルを使用して表現の第1の部分、第2の部分、及び/又は別の部分を表示することなく)表示する(例えば、入力の終了を検出した後、突然及び/又は即座に表示するようにスナップする)。いくつかの実施形態では、表現の所定の部分は、別のメディア処理スタイルを使用して表示される表現の任意の他の部分よりも、1つの個別のメディア処理スタイルを使用して表示される(例えば、現在表示されている)表現のより大きな部分である。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、図6Hの650d)の終了を検出したことに応じて(例えば、表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間に)(かつ入力が第1の方向であるという判定に従って)、コンピュータシステムは、表現に向けられた入力(例えば、650d)の終了が検出されたとき(例えば、同時に、直前に、又は直後に)に、表現(例えば、630)の所定の部分よりも少ない部分が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されたという判定に従って(例えば、及び/又は第2のメディア処理スタイル(及び/又は第1のメディア処理スタイル)が、表現に向けられた入力の終了が検出される前に、表現の特定の部分に適用されていなかったという判定に従って)表現(例えば、630)の第1の部分(例えば、中間セクション)(及び、任意選択的に表現の第2の部分)を第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、図6Iの634aに関連して上述したように)(例えば、第1のメディア処理スタイルを使用して表現の第1の部分、第2の部分、及び/又は別の部分を表示することなく)表示する(例えば、入力の終了の検出後、急に及び/又は即時に表示するようにスナップする)。所定の条件が満たされたときに特定のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を自動的に表示することは、コンピュータシステムが、メディアの表現に適用される1つ以上のメディア処理スタイルを自動的に選択することを可能にし、表現に向けられた入力の終了を検出したことに応じて、どのメディア処理スタイルがメディアの表現に適用されるように選択されたかに関する視覚的フィードバックをユーザに提供し、これは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、650k2)を検出したことに応じて、入力が第1の方向とは異なる(例えば、反対の)第2の方向(例えば、右、左、上、下、及び/又は斜めの方向)(例えば、第1の方向の反対方向)であるという判定に従って、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634b)(第2のメディア処理スタイル及び/又は第3のメディア処理スタイルを使用して表現の第1の部分を表示することなく)を使用して表現の第1の部分を表示し続けている間、(例えば、第1のメディア処理スタイル及び/又は第2のメディア処理スタイルを使用して表現の第3の部分を表示することなく)(例えば、第2のメディア処理スタイルに対応する視覚的要素(例えば、スタイルの縁部やフレームの縁部を表す、及び/又はそのように見える視覚的要素)を表示することなく)(第2のメディア処理スタイルに対応する視覚的要素を表示することなく)(例えば、メディアの視覚的コンテンツに適用され、メディアの表現の表示に影響を与える)第3のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634a)を使用して表現の第2の部分を表示し、第3のメディア処理スタイルは、第1のメディア処理スタイル及び第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、634c)とは異なる。いくつかの実施形態では、入力は、第2の方向の動きの成分を含む。いくつかの実施形態では、メディアの第1の部分及び第2の部分は、メディアの表現上のポジションを移動しない(例えば、同じロケーションに表示され続ける)。いくつかの実施形態では、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルは、同じパラメータのセット(例えば、(例えば、方法1000及び図7A~図7Xに関連して後述するような)同じタイプのパラメータ)を有する。いくつかの実施形態では、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルは、各個別のメディア処理スタイルのパラメータのセットの1つ以上の値が異なるので異なる。いくつかの実施形態では、表現に向けられた入力を検出する前に、第1の部分は、第1のメディア処理スタイルを使用して表示される第1のオブジェクトを含み、及び/又は第2の部分は、第1のメディア処理スタイルを使用して表示される第2のオブジェクトを含む。いくつかの実施形態では、表現に向けられた入力を検出したことに応じて、かつ入力を検出し続けている間、入力が第1の方向であるという判定に従って、第1のオブジェクトは、第2のメディア処理スタイルを使用して表示され、入力が第2の方向であるという判定に従って、第2のオブジェクトは、第3のメディア処理スタイル及び/又は第1のメディア処理スタイルを使用して表示される。いくつかの実施形態では、入力が検出される前に、第2のメディア処理スタイルに対応する視覚的要素及び第3のメディア処理スタイルに対応する視覚的要素が表示される。入力が第2の方向(例えば、第1の方向とは異なる)であるという判定に従って、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なる第3のメディア処理スタイルを使用して表現の第2の部分を表示することは、ユーザが、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される表現の部分を制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向にあるという判定に従って(例えば、表現に向けられた入力の終了(例えば、リフトオフ)が検出されたという判定に従って(又は表現に向けられた入力の終了を検出したことに応じて)、及び/又は表現が第1のメディア処理スタイル及び第2のメディア処理スタイルを使用して表示されている間、コンピュータシステムは、第4のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する(表現に向けられた入力が検出される前に表示されていなかった)視覚的要素(例えば、660a、660b)(例えば、テキスト及び/又は記号などの指示)(例えば、ユーザインタフェースオブジェクトなどの視覚的要素(表現が第4のメディア処理スタイルを使用して表示され得ることを示す境界、形状の輪郭、及び/又は視覚的要素)(第5のメディア処理スタイルに対応する視覚的要素を表示することなく)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)を(例えば、表現の第1の部分及び表現の第2の部分を第2のメディア処理スタイルを使用して表示している間に)表示する。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェースのロケーション/領域(例えば、第1の方向とは反対の方向の右縁部及び/又は左縁部)に表示される。いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向とは異なる第3の方向(例えば、右、左、上、下、及び/又は斜め方向)(第1の方向の反対方向)であるという判定に従って(例えば、表現に向けられた入力の終了(例えば、リフトオフ)が検出されたという判定に従って((例えば、上述したように)例えば、及び/又は表現が第1のメディア処理スタイル及び第3のメディア処理スタイルを用いて表示されている間)、コンピュータシステムは、(例えば、表現に向けられた入力が検出される前に表示されていなかった)第5のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、テキスト及び/又は記号などの指示)に対応する視覚的要素(例えば、660a、660b)(例えば、ユーザインタフェースオブジェクトなどの視覚的要素(例えば、境界、形状の輪郭、及び/又は表現が第4のメディア処理スタイルを使用して表示され得る視覚的要素)(例えば、第4のメディア処理スタイルとは異なる、スタイルの縁部及び/又はフレームの縁部を表す、及び/又はそのように見える視覚的要素)を(例えば、第4のメディア処理スタイルに対応する視覚的要素を表示することなく)((例えば、上述したように)例えば、第3のメディア処理スタイルを用いて表現の第1の部分と表現の第2の部分を表示している間))を表示する。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェース上の第1のロケーション(例えば、メディアの表現の縁部)に表示され、第5のメディア処理スタイルに対応する視覚的要素は、スタイル選択ユーザインタフェース上の第1のロケーションとは異なるスタイル選択ユーザインタフェース上の第2のロケーション(例えば、メディアの表現の縁部、第1のロケーションの反対側)に表示される。いくつかの実施形態では、第4のメディア処理スタイルに対応する視覚的要素及び/又は第5のメディア処理スタイルに対応する視覚的要素は、第1のメディア処理スタイルに対応する視覚的要素と同時に表示される。いくつかの実施形態では、第5のメディア処理スタイルに対応する視覚的要素は、第5のメディア処理スタイルに対応する視覚的要素が表示されるスタイル選択ユーザインタフェースのロケーション/領域とは異なるスタイル選択ユーザインタフェースのロケーション/領域(例えば、第3の方向とは反対の方向の右縁部及び/又は左縁部)に表示される。表現に向けられた入力の方向に基づいて個別のスタイルに対応する視覚的要素を表示することは、表現に向けられた追加の入力を介して選択され得るスタイルに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に(及び、いくつかの実施形態では、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に)、スタイル選択ユーザインタフェースは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する視覚的要素(例えば、660a、660b)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)と、第6のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に対応する視覚的要素(例えば、660a、660b)(例えば、第3のメディア処理スタイル(例えば、方法900に関連して上述したような)(例えば、スタイルの縁部及び/又はフレームの縁部を表す及び/又はそのように見える視覚的要素)とを含む。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(例えば、入力の終了が検出されたという判定に従って、又は表現に向けられた入力が検出された前後に)、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向にあるという判定に従って、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現(例えば、表現の任意の部分)を表示することなく(例えば、第2のメディア処理スタイルをメディアの表現に適用することなく)、第2のメディア処理スタイルに対応した視覚的要素(例えば、660a、660b)を表示することを中止する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて(例えば、入力の終了が検出されたという判定に従って、又は表現に向けられた入力が検出された前後に)、及び入力(例えば、650d、650k1、650k2、750j、及び/又は750q)が第1の方向とは異なる第4の方向であるという判定に従って、コンピュータシステムは、(例えば、第6のメディア処理スタイルをメディアの表現に適用することなく)第6のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、その任意の部分)を表示せずに第6のメディア処理スタイルに対応する視覚的要素(例えば、660a、660b)を表示することを中止する。入力が第1の方向であるという判定に従って、第2のメディア処理スタイルを使用して表現を表示することなく、第2のメディア処理スタイルの視覚的要素の表示を中止すること、又は入力が第1の方向とは異なる第4の方向であるという判定に従って、第6のメディア処理スタイルを使用して表現を表示することなく、第6のメディア処理スタイルに対応する視覚的要素の表示を中止することは、表示を中止した視覚的要素に対応する個別のメディア処理スタイルが、入力が特定の方向に提供されることによって選択できないこと、及び/又は個別のメディア処理スタイルが選択されるためにユーザが入力の方向を変更する必要があることをユーザに通知する視覚的フィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)は、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の指示(例えば、その一部)(例えば、第2のメディア処理スタイル(及び/又は第3のメディア処理スタイル(例えば、方法900に関連して上述したような)を使用して表示されるメディアの表現の一部、指示(例えば、1つ以上のテキスト/記号)、第2のメディア処理スタイルの一部、及び/又は第2のメディア処理スタイルを表す視覚的要素(例えば、オブジェクトの境界)において検出されない。第2のメディア処理スタイルの指示において検出されない入力に応じて、個別のメディア処理スタイルを使用して表現の異なる部分を表示することは、ユーザが個別のメディア処理スタイルを表すオブジェクトを選択する必要なく、及び/又はUIを混乱させる可能性がある個別のメディア処理スタイルを表すオブジェクトを表示する必要なく、ユーザが入力を介して個別のメディア処理スタイルを選択することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、メディアの表現は、以前にキャプチャされたメディアの表現(例えば、676a、676b、676c、680c、及び/又は680d)である(例えば、ライブカメラ視野のプレビュー/ビューではない)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、将来のメディアキャプチャ要求(例えば、「使用」とラベル付けされたユーザインタフェースオブジェクト)に応じてキャプチャされたメディアについて第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプション(例えば、816a、816b)を表示する。いくつかの実施形態では、第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプション(例えば、816a、816b)を表示している間に、コンピュータシステムは、第7のメディア処理スタイルを使用する(例えば、及び/又は第7のメディア処理スタイルをメディアの視覚的コンテンツに適用する)オプションに向けられた入力(例えば、850c)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)の検出に応じて)を検出する。いくつかの実施形態では、第7のメディア処理スタイルを使用するオプションに向けられた入力(例えば、850c)を検出したことに応じて、コンピュータシステムは、(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて)第7のメディア処理スタイルを使用するようにコンピュータシステムを構成する。いくつかの実施形態では、コンピュータシステム(例えば、600)が第7のメディア処理スタイル(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアに対して)を使用するように構成されている間、コンピュータシステムは、メディアをキャプチャする要求(例えば、図8A~図8Cに関連して説明した650a)を検出する。いくつかの実施形態では、コンピュータシステムが第7のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする要求(例えば、図8A~図8Cに関連して説明した650a)を検出したことに応じて、コンピュータシステムは個別のメディアをキャプチャする。いくつかの実施形態では、個別のメディアをキャプチャした後に(例えば、個別のメディアを表示する要求に応じて)、コンピュータシステムは、(例えば、図8A~8Cに関連して説明されるように)個別のメディア(例えば、以前にキャプチャされたメディア)の表現(例えば、680c、680d)を含む第1のユーザインタフェース(例えば、668)を(例えば、図8A~8Cに関連して説明されるように)表示する。いくつかの実施形態では、個別のメディアの表現は、第7のメディア処理スタイルを使用して(例えば、個別のメディアの表現を含む)第1のユーザインタフェースに表示される。いくつかの実施形態では、第1のユーザインタフェースは、入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)、第7のメディア処理スタイルを使用するメディアの表現を表すメディアギャラリーユーザインタフェースオブジェクト及び/又はサムネイル上に表示される。いくつかの実施形態では、第7のメディア処理スタイルを使用してメディアの表現を表示している間、コンピュータシステムは、第2の(例えば、以前にキャプチャされた)メディアの表現を表示する要求を検出し、他のメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、コンピュータシステムは、他のメディアが第7のメディア処理スタイルを使用してキャプチャされたかどうかにかかわらず、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、コンピュータシステムは、メディアの表現が別のメディア処理スタイルを使用してキャプチャされなかったときのみ、第7のメディア処理スタイルを使用して他のメディアの表現を表示する。いくつかの実施形態では、第7のメディア処理スタイルを使用してメディアの1つ以上の表現を表示するオプションに向けられた入力が検出される前に、他のメディアがキャプチャされた。将来のメディアキャプチャ要求に応じてキャプチャされるメディアに対して第7のメディア処理スタイルを使用するオプションに向けられた入力を検出したことに応じて第7のメディア処理スタイルを使用するようにコンピュータシステムを構成することは、将来キャプチャされるメディアの1つ以上の表現(及び、いくつかの実施形態では、以前にキャプチャされたメディアの表現)にどのメディア処理スタイル(単数又は複数)が適用されるかをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。個別のメディア処理スタイル(単数又は複数)を使用して以前にキャプチャされた表現の異なる部分を表示することは、ユーザが、入力を提供することによって以前にキャプチャされたメディアのためのメディア処理スタイルを選択することを可能にし、個別のメディア処理スタイル(単数又は複数)が以前にキャプチャされたメディアの1つ以上の部分にどのように影響を及ぼすかに関する視覚的フィードバックをユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、コンピュータシステムは、第1のカメラを含む1つ以上のカメラと通信する。いくつかの実施形態では、メディアの表現は、少なくとも第1のカメラの現在の視野の少なくとも一部の表現(例えば、630)(例えば、ライブ表現、ライブプレビュー)を含む。いくつかの実施形態では、表現は、少なくとも第1のカメラの現在の視野の一部が変化したときに更新される。いくつかの実施形態では、少なくとも第1のカメラの現在の視野の一部は、コンピュータシステムが動き回るとき、1つ以上のオブジェクトが少なくとも第1のカメラの視野の中及び/又は外に移動されるとき、及び/又は少なくとも第1のカメラの視野内で他の変化が生じる(例えば、照明が変化するとき)変化する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、将来のメディアキャプチャ要求(例えば、「使用」とラベル付けされたユーザインタフェースオブジェクト)に応じてキャプチャされたメディアについて第8のメディア処理スタイルを使用するオプション(例えば、816a、816b)を表示する。いくつかの実施形態では、第8のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用するオプションを表示している間に、コンピュータシステムは、第8のメディア処理スタイルを使用する(例えば、及び/又は第8のメディア処理スタイルをメディアの視覚的コンテンツに適用する)オプションに向けられた入力(例えば、850c)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)の検出に応じて)を検出する。いくつかの実施形態では、第8のメディア処理スタイルを使用するオプションに向けられた入力(例えば、850c)を検出したことに応じて、コンピュータシステムは、(例えば、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて)第8のメディア処理スタイルを使用するようにコンピュータシステム(例えば、600)を構成する。いくつかの実施形態では、コンピュータシステム(例えば、600)が第8のメディア処理スタイルを使用するように構成されている間に、コンピュータシステムは、メディアをキャプチャする第2の要求(例えば、図8A~図8Cに関連して説明した650a)を検出する。いくつかの実施形態では、コンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする第2の要求(例えば、図8A~図8Cに関連して説明した650a)を検出したことに応じて、コンピュータシステムは、第2の個別のメディアをキャプチャする。いくつかの実施形態では、第2の個別のメディアをキャプチャした後、コンピュータシステムは、(例えば、図8A~図8Cに関連して説明したような)第2の個別のメディアの表現(例えば、680c、680d)を含む(例えば、図8A~図8Cに関連して説明したような)第2のユーザインタフェース(例えば、668)を表示する。いくつかの実施形態では、第2の個別のメディア(例えば、以前にキャプチャされたメディア)の表現は、第8のメディア処理スタイルを使用して(例えば、第2の個別のメディアの表現を含む)第2のユーザインタフェースに表示される。いくつかの実施形態では、第2の要求を検出することの一部として、コンピュータシステムは、カメラアプリケーションアイコン上での入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて、カメラアプリケーションを開く)。いくつかの実施形態では、第8のメディア処理スタイルを使用してメディアの表現を表示している間に、コンピュータシステムは、アプリケーションを閉じ、及び再度開く要求を検出し、アプリケーションを閉じ、及び再度開く要求を検出したことに応じて、コンピュータシステムは、第8のメディア処理スタイルを使用してメディアの異なる表現を表示する。いくつかの実施形態では、それぞれのメディアをキャプチャする前に、かつコンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間に、コンピュータシステムは、第8のメディア処理スタイルを使用してメディアの表現(例えば、ライブプレビュー及び/又は少なくとも1つのカメラの現在の視野の一部)を含む第3のユーザインタフェースを表示する。いくつかの実施形態では、コンピュータシステムが第8のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする第2の要求を検出したことに応じて、コンピュータシステムは、第3の個別のメディアをキャプチャする。いくつかの実施形態では、第3の個別のメディアをキャプチャした後、コンピュータシステムは、第8のメディア処理スタイルを使用して第3の個別のメディアの表現を含むユーザインタフェースを表示しない。将来のメディアキャプチャ要求に応じてキャプチャされるメディアに対して第8のメディア処理スタイルを使用するオプションに向けられた入力を検出したことに応じて第8のメディア処理スタイルを使用するようにコンピュータシステムを構成することは、将来キャプチャされるメディアの1つ以上の表現(及び、いくつかの実施形態では、以前にキャプチャされたメディアの表現)にどのメディア処理スタイル(単数又は複数)が適用されるかをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。個別のメディア処理スタイル(単数又は複数)を使用して少なくとも第1のカメラの現在の視野の少なくとも一部の表現の異なる部分を表示することは、入力を提供することによってメディアをキャプチャする要求(例えば、シャッターボタンのアクティブ化)を受信することに応じてキャプチャされるメディアのメディア処理スタイルをユーザが選択することを可能にし、現在の視野に対応するメディアがキャプチャされた後に個別のメディア処理スタイル(単数又は複数)が現在の視野の1つ以上の部分にどのように適用されるかに関する視覚的フィードバックをユーザに提供し、これは、ユーザインタフェースを混乱させることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)をキャプチャされたメディアに適用すること(例えば、個別のメディア処理スタイルを使用して個別の表現を表示すること)の一部として、コンピュータシステムは、動作の第1のセット(例えば、メディア処理動作)をキャプチャされたメディア(例えば、680b、680c)に適用する。いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を1つ以上のカメラの視野の一部のライブプレビュー(例えば、630)(例えば、現在の視野)に適用すること(例えば、1つ以上のカメラの視野のそ個別の部分を表示すること)の一部として、コンピュータシステムは、第2のセットの動作(例えば、メディア処理動作)をライブプレビュー(例えば、630)に適用する。いくつかの実施形態では、動作の第1のセット及び動作の第2のセットにおけるメディア処理動作のためのパラメータは、個別のメディア処理スタイルに基づいて選択される。いくつかの実施形態では、動作の第1のセットは、適用するためにより長い時間又はより多くの量の処理能力を要し、動作の第2のセットは、より迅速に、又はより少ない量の処理能力で適用することができ、動作の第1のセットを使用することは、動作の第2のセットを使用することよりも高い品質の結果を提供する。いくつかの実施形態では、第2のセットの動作を適用することは、第1のセットの動作を適用することよりも強度が低い(例えば、より少ない動作を含み、より少ない処理リソース(例えば、ランダムアクセスメモリ及び/又は命令セット)プロセスしか必要としない)。いくつかの実施形態では、第2のセットの動作をライブプレビューに適用することは、コンピュータシステムが、第1のセットの動作がライブプレビューに適用されるときよりも低減された待ち時間及び/又は視覚的歪みで、個別のメディア処理スタイルを使用してライブプレビューを表示することを可能にする。第1のセットの動作をキャプチャメディアに適用し、第2のセットの動作をライブプレビューに適用することにより、個別のメディア処理スタイルが、個別のメディア処理スタイルをメディアの視覚的コンテンツに適用するための計算量の少ないセットの動作でキャプチャすることができる表現の部分のメディア表現にどのように影響を与えるかに関する視覚的フィードバックを提供するコンピュータシステムの能力が向上し、これにより、改善された視覚的フィードバックが提供される。
いくつかの実施形態では、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されている間、第1のメディア処理スタイルに対応する識別子(例えば、636a~636d、636aa、及び/又は636dd)(例えば、1つ以上の記号及び/又はテキスト(例えば、「標準」、「鮮やかな」))が表示される。いくつかの実施形態では、識別子は、メディアの表現に重ね合わされる。いくつかの実施形態では、識別子は、メディアの表現の一部の上、下、左、右に配置され、及び/又はその上に重ね合わされる。表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に、第1のメディア処理スタイルに対応する識別子を表示することは、ユーザに視覚的フィードバックを提供し、それにより、ユーザは、メディア処理スタイルがメディアの表現にどのように適用されているかによって、適用されているメディア処理スタイルのタイプを決定する必要なく、どのメディア処理スタイルが適用されているかを迅速に識別することができ、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)を表示し続けている間、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分(例えば、630の中間セクション、左セクション、及び/又は右セクションの一部)を表示することの一部として、コンピュータシステムは、表現の第1の部分と表現の第2の部分との間に仕切り(例えば、640)(例えば、表現の領域及び/又は部分、第1の部分と第2の部分との間の交差を示す視覚的に区別可能なユーザインタフェースオブジェクト)を表示する。いくつかの実施形態では、仕切りは、第1のメディア処理スタイル、第2のメディア処理スタイル、及び/又は任意の他のメディア処理スタイルが適用されていない表現の領域及び/又は部分である。いくつかの実施形態では、仕切りは半透明である。いくつかの実施形態では、仕切りは半透明ではない。いくつかの実施形態では、コンピュータシステムは、表現に向けられた入力の大きさに基づいて、ディスプレイを横切って仕切りを移動させる。いくつかの実施形態では、(例えば、入力を検出したことに応じて)仕切りがディスプレイを横切って移動すると、コンピュータシステムは、任意選択的に、表現の第1の部分及び表現の第2の部分のサイズを変更する。いくつかの実施形態では、表現の第1の部分及び表現の第2の部分は、相対的に及び/又は間接的に比例して変更される(例えば、第1の部分のサイズが増加したのと同じ量だけ)(例えば、表現の第1の部分のサイズが増加するにつれて、表現の第2の部分のサイズが減少する(又はその逆)。第1のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第2のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、表現の第1の部分と表現の第2の部分との間の仕切りを表示することは、ユーザに視覚的フィードバックを提供し、それにより、ユーザは、表現のどの部分が第2のメディア処理スタイルを使用して表示されているか、及び/又は表現のどの部分が第1のメディア処理スタイルを使用して表示されているかを迅速に識別することができ、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)は、移動入力(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)である(又は、いくつかの実施形態では、移動入力ではない(例えば、タップ入力、プレスアンドホールド入力である)。
いくつかの実施形態では、コンピュータシステムは第1のキャプチャモードにある。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示している間、かつコンピュータシステム(例えば、600)が第1のキャプチャモード(例えば、図6Nの写真モードコントロール620cを示す)にある間、コンピュータシステムは、スタイル選択ユーザインタフェースに向けられた(例えば、表現に向けられていない、1つ以上のカメラキャプチャモードユーザインタフェースオブジェクトに向けられている、ユーザインタフェースの下部にある、メディアの表現に向けられた入力が検出されたロケーションとは異なるロケーションにある)入力(例えば、650n)(例えば、移動入力)(及び/又は、いくつかの実施形態では、非移動入力/ジェスチャ(例えば、プレスアンドホールド入力/ジェスチャ、音声入力、及び/又はタップ入力))を検出する。いくつかの実施形態では、それは、表現に向けられた入力とは異なる。いくつかの実施形態では、コンピュータシステムは、カメラキャプチャモードのための複数の選択可能なユーザインタフェースオブジェクトを含むカメラ制御領域を表示する。いくつかの実施形態では、各カメラモード(例えば、ビデオ、写真/静止、ポートレート、スローモーション、パノラマモード)は、カメラ(例えば、カメラセンサ)がメディアをキャプチャするように動作している(キャプチャ後に自動的に実行される後処理を含む)モード(例えば、ポートレートキャプチャモード)の複数の値(例えば、各設定の光のレベル)を有する複数の設定(例えば、ポートレートキャプチャモードについて:スタジオ照明設定、輪郭照明設定、舞台照明設定)を有する。このようにして、例えば、キャプチャモードは、メディアをキャプチャするときにカメラがどのように動作するかに影響を及ぼさない又は複数の設定(例えば、複数の値(例えば、非アクティブ、アクティブ、自動)を有する1つの設定を有するフラッシュモード)を含まないモードとは異なる。いくつかの実施形態では、キャプチャモードにより、ユーザは、異なるタイプのメディア(例えば、写真又はビデオ)をキャプチャすることを可能にし、各モードの設定を最適化して、特定の特性(例えば、形状(例えば、正方形、矩形)、速さ(例えば、スローモーション、時間経過)、オーディオ、ビデオ)を有する特定のモードに対応する特定のタイプのメディアを(例えば、後処理を介して)キャプチャすることができる。例えば、スチール写真キャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、1つ以上のフィルタ設定)を有する第1のタイプ(例えば、矩形の写真)のメディアをキャプチャし、正方形キャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定及び1つ以上のフィルタ)を有する第2のタイプ(例えば、正方形の写真)のメディアをキャプチャし、スローモーションキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、アクティブ化されると、特定の設定(例えば、フラッシュ設定、一秒当たりのフレームキャプチャ速度)を有する第3のタイプ(例えば、スローモーションビデオ)のメディアをキャプチャし、ポートレートキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、第5のタイプ(例えば、ポートレート写真(例えば、背景や前景などのぼけた部分を有する写真)のメディアをキャプチャし、いくつかの実施形態では、コンピュータシステムは、コンピュータシステムの1つ以上のカメラの視野の少なくとも一部に合成被写界深度効果を適用することによって、ぼけた部分を有する写真を特定の設定(例えば、特定のタイプの光(例えば、舞台光、スタジオ光、及び/又は輪郭光)の量、絞り値、及び/又はぼけ)で生成する(いくつかの実施形態では、特定のタイプの光は、合成(例えば、コンピュータ生成)である(例えば、写真の深度情報及び/又はコンピュータシステムの1つ以上のカメラの視野(例えば、現在の視野)の少なくとも一部を使用してコンピュータシステムによって生成する)。パノラマキャプチャモードで動作するようにコンピュータシステムが構成されているときに、コンピュータシステムの1つ以上のカメラは、特定の設定(例えば、ズーム及び/又は移動しながらキャプチャするための視野の量)を有する第4のタイプ(例えば、パノラマ写真(例えば、広い写真)のメディアをキャプチャする。いくつかの実施形態では、キャプチャモード間の切り替え時、視野の表現の表示は、キャプチャモードによってキャプチャされるメディアのタイプに対応するように変化する(例えば、コンピュータシステムが静止写真キャプチャモードで動作している間、この表現は、矩形モードであり、コンピュータシステムが正方形キャプチャモードで動作している間、この表現は、正方形である)。いくつかの実施形態では、合成(例えば、コンピュータ生成)被写界深度効果は、写真を実際にキャプチャした1つ以上のカメラの開口及び/又は焦点距離とは異なる開口(例えば、物理的開口、有効開口)及び/又は焦点距離(例えば、物理的焦点距離、有効焦点距離)を有するカメラで写真がキャプチャされたように見えるように、写真を調整する。いくつかの実施形態では、スタイル選択ユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、少なくとも1つのメディア処理スタイルを使用してメディアの表現を表示し続けている間、及び/又はメディア処理スタイルをメディアの視覚的コンテンツに適用し続けている間に)コンピュータシステムを第1のキャプチャモードから異なるキャプチャモード(例えば、図6Oのポートレートモードコントロール620dを示す)に遷移する。スタイル選択ユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムを第1のキャプチャモードから第1のキャプチャモードとは異なる第2のキャプチャモードに移行させることにより、ユーザは、コンピュータシステムが動作するキャプチャモードを制御することができ、これにより、ユーザインタフェースを雑然とさせることなく追加の制御オプションが提供される。
いくつかの実施形態では、コンピュータシステム(例えば、620)を第1のキャプチャモード(例えば、図6Nの写真モードコントロール620cを示す)から異なるキャプチャモード(例えば、図6Oのポートレートモードコントロール620dを示す)に遷移した後、コンピュータシステムは、メディアをキャプチャする要求を検出する。いくつかの実施形態では、メディアをキャプチャする要求を検出したことに応じて、コンピュータシステムは、(例えば、図6Oに関連して説明されるような)現在選択されているメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)に基づいて異なるキャプチャモードでメディアをキャプチャし、このキャプチャすることは、現在選択されているメディア処理スタイルが第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)であるという判定に従って、(図6Oに関連して説明されるように)第1のメディア処理スタイルを使用して異なるキャプチャモードでメディアをキャプチャすることと、現在選択されているメディア処理スタイルが第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)であるという判定に従って、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して異なるキャプチャモードでメディアをキャプチャすることとを含む。いくつかの実施形態では、現在選択されているメディア処理スタイルは、異なるメディア(例えば、異なるカメラモードでキャプチャされたメディア)に適用される。いくつかの実施形態では、現在選択されているメディア処理スタイルの表現は、個別のキャプチャモードから異なる個別のキャプチャモードに切り替わるときに表示され続ける。
いくつかの実施形態では、コンピュータシステム(例えば、600)は、(例えば、図8A~図8Cに関連して説明したように)、(例えば、表現に向けられた入力を検出する前及び検出した後に)(例えば、602cによって示される)第3のキャプチャモード(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)にある。いくつかの実施形態では、表現(例えば、630)に向けられた入力を検出した後、コンピュータシステムは、(例えば、図6N~図6Oに関連して説明したように)メディアの第2の表現を含む第2のユーザインタフェースを表示する要求を検出する。いくつかの実施形態では、メディアの第2の表現を含む第2のユーザインタフェースを表示する要求を検出したことに応じて、コンピュータシステムは、メディアの第2の表現(例えば、630)を含む第2のユーザインタフェースを表示する。いくつかの実施形態では、第2のユーザインタフェースを表示している間に、コンピュータシステムは、第2の表現に向けられた入力(例えば、移動入力)を検出する(及び/又は、いくつかの実施形態では、(例えば、図6N~図6Oに関連して説明したように)非移動入力/ジェスチャ(例えば、プレスアンドホールド入力/ジェスチャ、音声入力、及び/又はタップ入力)(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する)。いくつかの実施形態では、(例えば、図8A~8Cに関連して説明されるように)第2の表現(例えば、630)に向けられた入力(例えば、650n1、650n2)を検出したことに応じて、かつコンピュータシステムが第1のメディア処理スタイル選択モード(例えば、コンピュータシステムに1つ以上のメディア処理スタイルを第2の表現に適用させるモード)にないという判定に従って、コンピュータシステムは、(例えば、図8A~8Cに関連して説明されるように)(例えば、以前に適用されなかった第2の表現に適用されているメディア処理スタイルを表示することなく)コンピュータシステムを第3のキャプチャモード(例えば、620cによって示される)から第4のキャプチャモード(例えば、620dによって示される)(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)に遷移させる。いくつかの実施形態では、(図8A~8Cに関連した説明されるように)第2の表現(例えば、630)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつコンピュータシステムが(例えば、602bによって示されるように)第1のメディア処理スタイル選択モードにあるという判定に従って、コンピュータシステムは、(例えば、図6N~6Oに関連して説明されるように)コンピュータシステムを第3のキャプチャモードに維持する(例えば、620cによって示されるように)(例えば、メディアを処理し、メディアをキャプチャするためのメディア処理スタイルが変更されたという指示を表示する)(例えば、静止カメラ、ビデオ、スローモーション、及び/又はポートレート)(例えば、コンピュータシステムを第5のキャプチャモードから第6のキャプチャモードに遷移させることを見合わせる)。規定が満たされたときにコンピュータシステムがメディア処理スタイル選択モードにあるかどうかに基づいて、コンピュータシステムを第3のキャプチャモードから第4のキャプチャモードに遷移させるか、又はコンピュータシステムを第3のキャプチャモードに維持するかを選択することにより、コンピュータシステムがメディア処理スタイル選択モードにあるかどうかに基づいて、コンピュータシステムが異なる動作をインテリジェントに実行することが可能になり、コンピュータシステムは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、表現に向けられた入力を検出する前に、スタイル選択ユーザインタフェースは、第1のメディア処理スタイル(例えば、図7A~図7X及び方法1000に関連して説明したような)のための(例えば、パラメータ(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和))及び/又は深度パラメータ)を編集/修正するための)複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を含む。表現に向けられた入力を検出する前に、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示することは、第1のメディア処理スタイルがメディアの視覚的コンテンツにどのように適用されるかについて調整され得るパラメータに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ表現に向けられた入力が第1の方向であるという判定に従って、かつ第2のメディア処理スタイルが第4の部分(例えば、中間部分)(例えば、メディアの表現(例えば、630)の630、676a、676b、676c、680c、及び/又は680dの中間セクション及び/又は中間セクションの一部、左セクション、及び/又は右セクション)に適用されているという判定に従って(及び/又は、(例えば、表現に向けられた入力を検出したことに応じて)表現に向けられた入力の終了が検出されたときに(例えば、それと同時に、その直前に、及び/又はその直後に)表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)より多の部分が第2のメディア処理スタイルを使用して表示されたという判定に従って)、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)についての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)(例えば、第1のメディア処理スタイルの現在値の表現とは異なる第2のメディア処理スタイルの現在値の表現と共に表示されるユーザインタフェースオブジェクト)を表示し、(例えば、図6A~図6D及び方法900に関連して説明したように)第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、634a~634d、634aa、及び/又は634dd)を表示することを中止する((例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示に置き換える)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び表現に向けられた入力が第1の方向であるという判定に従って、及び第2のメディア処理スタイルがメディアの表現(例えば、630)の第4の部分(例えば、中間部分)(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション及び/又は中間セクションの一部、左セクション、及び/又は右セクション)に適用されていないという判定に従って(及び/又は、表現に向けられた入力の終了が検出されたときに(例えば、同時に、直前に、及び/又は直後に)、表現の所定の部分未満(例えば、25%、30%、40%、50%、60%、75%)より少ない部分が第2のメディア処理スタイルを使用して表示されたという判定に従って)(例えば、表現に向けられた入力を検出したことに応じて)、コンピュータシステムは、第2のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示することなく、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を(例えば、図6A~図6D及び方法900に関連して説明されるように)表示し続ける(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトの表示を、第2のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトの表示に置き換えることを見合わせる)。所定の条件が満たされたときに、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示するか、又は第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示し続けるかを選択することにより、コンピュータシステムは、ユーザに関連する可能性があると判定された状況において、メディア処理スタイルについての関連する選択可能なオプションをユーザに提供することができ、ユーザは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、(例えば、図6A~6D及び方法900に関連して上述したように)第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)は、メディアの表現(例えば、630、676a、676b、676c、680c、及び/又は680d)(例えば、ライブプレビュー及び/又は以前にキャプチャされたメディア)上の(例えば、及び/又は、それにおける)1つ以上のロケーションに表示される(重ね合わされる)。いくつかの実施形態では、1つ以上のロケーションは、メディアの表現の下部、カメラ表示領域(例えば、604)に表示されるメディアの表現の下部、メディアをキャプチャするためのユーザインタフェースオブジェクト(例えば、610)及び/又はカメラキャプチャモードユーザインタフェースオブジェクトに隣接する(例えば、上の)1つ以上のロケーション、インジケータ領域(例えば、602)と制御領域(例えば、606)との間である。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示することの一部として、コンピュータシステムは、1つ以上の他の選択可能なユーザインタフェースオブジェクト(例えば、メディアの表現のズームレベルを制御するための1つ以上の選択可能なオブジェクト、メディアの表現に適用することができる合成照明効果を制御するための1つ以上の選択可能なオブジェクト)を表示することを中止する。メディアの表現上の第1のメディア処理スタイルのための複数の選択可能なオブジェクトをメディアの表現上の1つ以上のロケーションに表示することは、第1のメディア処理スタイルに利用可能な(例えば、編集するための、対応する)選択可能なユーザインタフェースオブジェクトに関するフィードバックをユーザに提供し、同時に、ユーザインタフェース要素を表示するための限られた空間を効率的に使用しながら(例えば、ディスプレイ上又はユーザインタフェース要素を表示するために利用可能な所定の表示領域内で)、メディアの表現に関するフィードバックをユーザに提供し、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルが使用のために選択されている間に(例えば、表現の第1の部分及び表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間に)、コンピュータシステム(例えば、600)は、メディアをキャプチャする第1の要求(例えば、650a、650c、650j)を検出する(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクト上の入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び音声入力)を検出する)。いくつかの実施形態では、メディアをキャプチャするための第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)が(例えば、第2のメディア処理スタイルが適用されることなく)適用されたメディア(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクトの異なる起動及び/又は単一の起動に対応する1つ以上の写真(単数又は複数)及び/又はビデオ(単数又は複数))をキャプチャする。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルをキャプチャし、複数の写真及び/又はビデオに適用する。いくつかの実施形態では、メディアをキャプチャする第1の要求は、メディアをキャプチャする複数の要求を含む(例えば、複数の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、メディアをキャプチャする第1の要求は、単一の要求を含む(例えば、単一の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、第1のメディア処理スタイルが適用されたメディアをキャプチャした後、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)が使用のために選択されている間に(例えば、表現の第1の部分及び表現の第2の部分が第2のメディア処理スタイルを使用して表示されている間に)(図6O~6Uに関連して説明するように)、コンピュータシステムは、メディアをキャプチャする第2の要求(例えば、650a、650c、650j)を検出する((例えば、キャプチャされたメディアについてのユーザインタフェースオブジェクト上での入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)を検出する)。いくつかの実施形態では、メディアをキャプチャするための第2の要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルが適用された(例えば、図6O~図6Uに関連して説明したように)(例えば、第1のメディア処理スタイルを適用することなく)メディア(例えば、メディアをキャプチャするためのユーザインタフェースオブジェクトの異なる起動及び/又は単一の起動に対応する1つ以上の写真(単数又は複数)及び/又はビデオ(単数又は複数))をキャプチャする。いくつかの実施形態では、第2のメディア処理スタイルが適用された表現の第1の部分及び表現の第2の部分を含むメディアの表現は、第1のメディア処理スタイルが適用された表現の第1の部分及び表現の第2の部分を含むメディアの表現とは異なる。いくつかの実施形態では、メディアをキャプチャする第2の要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルをキャプチャし、複数の写真及び/又はビデオに適用する。いくつかの実施形態では、メディアをキャプチャする第2の要求は、メディアをキャプチャするための複数の要求を含む(例えば、複数の入力/ジェスチャを検出することを含む)。いくつかの実施形態では、メディアをキャプチャする第1の要求は、単一の要求を含む(例えば、単一の入力/ジェスチャを検出することを含む)。表現のうちの1つ以上の部分が、個別のメディア処理スタイルが適用された状態で表示されたときにメディアをキャプチャする要求を検出したことに応じて、適用された個別のメディア処理スタイルを有する表現の1つ以上の部分を含むメディアをキャプチャすることは、コンピュータシステムが、メディアをキャプチャする要求が検出されたときに表示されたメディアを表すメディアをインテリジェントにキャプチャすることを可能にし、これは、更なるユーザ入力を必要とせずに、条件のセットが満たされたときに動作を実行する。
いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力の終了(例えば、リフトオフ)が検出されたという判定に従って、かつ表現に向けられた入力が1つ以上の移動基準が満たされた(例えば、入力が特定の持続時間よりも長く検出された、速度(例えば、平均速度、最高速度)が閾値(例えば、非ゼロ閾値)を上回ることが検出された、スタイル選択ユーザインタフェース上の特定のポジションで終了することが検出された、及び/又は閾値(例えば、非ゼロ閾値)距離にわたって検出された(例えば、開始ポジションから終了ポジションまで)という判定に従って、コンピュータシステムは、(例えば、将来のメディアキャプチャ入力に応じてメディアをキャプチャするときに使用するために第2のメディア処理スタイルが選択されたことを示すために)第2のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を使用して(例えば、第1のメディア処理スタイルを使用することなく)表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後、急に及び/又は即時に表示するようにスナップする)。いくつかの実施形態では、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、かつ入力の終了(例えば、リフトオフ)が検出されたという判定に従って、及び表現に向けられた入力が1つ以上の移動基準を満たさないという判定に従って、コンピュータシステムは、(第1のメディア処理スタイルが、将来のメディアキャプチャ入力に応じてメディアをキャプチャするときに使用するために選択されたことを示すために)第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を使用して(例えば、第2のメディア処理スタイルを使用することなく)表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後に急に及び/又は即座に表示するようにディスプレイにスナップする)。入力の移動に基づいて、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するか、又は第1のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するかを選択することにより、コンピュータシステムは、どのメディア処理スタイルが選択されているかに関してユーザにフィードバックをインテリジェントに提供することができ、次に進むメディアの表示及び/又はキャプチャに影響を及ぼす更なるユーザ入力を必要とせずに、条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出した後、コンピュータシステムは、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分及び表現の第2の部分を表示する。いくつかの実施形態では、表現及び表現の第2の部分が第2のメディア処理スタイルを使用して表示されている間に、コンピュータシステムは、表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する(及び、いくつかの実施形態では、表現に向けられた入力の移動方向と同じ方向の移動を含む)。いくつかの実施形態では、表現に向けられた第2の入力を検出したことに応じて、表現に向けられた第2の入力が第1の方向であるという判定に従って、コンピュータシステムは、第2のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、(例えば、方法900に関連して上述したように)(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、及び第3のメディア処理スタイルとは異なる)第9のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分を表示する。いくつかの実施形態では、第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第2の部分を表示し続けている間、第9のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、表現に向けられた第2の入力の第1の部分(及び、いくつかの実施形態では、第2の入力の第1の部分は第3の入力の大きさを有する)を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示されている間に、第9のメディア処理スタイルを使用して表現の第1の部分を表示する(例えば、同時に表示する)。いくつかの実施形態では、第7のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた第2の入力の第2の部分を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示される。いくつかの実施形態では、第2の入力の第2の部分は、第2の入力の大きさよりも大きい第4の入力の大きさを有し、コンピュータシステムは、第7のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示し、一方、表現の第2の部分は、第2のメディア処理スタイルを使用して表示される。
いくつかの実施形態では、表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、及び第2の入力の終了が検出されたという判定に従って、コンピュータシステムは、表現に向けられた第2の入力が1つ以上の移動基準を満たす(例えば、入力が特定の持続時間より長く検出された、閾値(例えば、非0閾値)を上回る速度(例えば、平均速度、最高速度)を有することが検出された、スタイル選択ユーザインタフェース上の特定のポジションで終了することが検出された、及び/又は(例えば、開始ポジションから終了ポジションまで)閾値(例えば、非0閾値)距離にわたって検出された)という判定に従って、表現の第1の部分及び表現の第2の部分を、第7のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して(例えば、第1のメディア処理スタイル及び第2のメディア処理スタイルを使用することなく)表示する(例えば、入力の終了を検出した後に突然及び/又は即座に表示するようにスナップする)。表現に向けられた入力が1つ以上の移動基準を満たさないという判定に従って、第2のメディア処理スタイルを使用して(例えば、第7のメディア処理スタイル及び第1のメディア処理スタイルを使用せずに)、表現の第1の部分及び表現の第2の部分を表示する(例えば、入力の終了を検出した後に急に及び/又は即座に表示するようにディスプレイにスナップする)。入力の移動に基づいて、第7のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するか、又は第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示するかを選択することにより、コンピュータシステムは、どのメディア処理スタイルが選択されているかに関してユーザにフィードバックをインテリジェントに提供することができ、次に進むメディアの表示及び/又はキャプチャに影響を与え、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供し、改善された視覚的フィードバックを提供する。表現に向けられた第2の入力の第1の部分を検出したことに応じて、表現の第2の部分及び表現の第3の部分が第2のメディア処理スタイルを使用して表示されている間に、第7のメディア処理スタイルを使用して表現の第1の部分を表示することは、異なるメディア処理スタイル(単数又は複数)がメディアの表現によって表される視覚的コンテンツにどのように異なって影響を与えるか、及び表現に向けられた第2の入力に基づいて選択することができる少なくともいくつかのメディア処理スタイル(単数又は複数)に関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。表現に向けられた入力を検出した後に表現に向けられた第2の入力を検出したことに応じて、かつ表現に向けられた第2の入力が第1の方向であるという判定に従って、第2のメディア処理スタイルを使用して表現の第2の部分を表示し続けている間、第9のメディア処理スタイルを使用して表現の第1の部分を表示することは、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される表現の部分をユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表示されるメディアの表現を含むスタイル選択ユーザインタフェース(例えば、634a~634d、634aa、及び/又は634dd)を表示する前に、(例えば、(例えば、第1のメディア処理スタイルを使用して表示されない)メディアの第4の表現(又は任意のその他のメディア処理スタイル(例えば、上述の第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルのように、表現に向けられた入力などの入力を検出したことに応じて適用されるユーザ選択/所定の任意の他のメディア処理スタイル))並びにメディアの第4の表現を含むユーザインタフェース内の第1の個別のロケーションに表示されるスタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト(例えば、602b)(例えば、コンピュータシステムに1つ以上のメディア処理スタイルを第2の表現に適用させるモード)(例えば、方法1000に関連して説明したように)を含むユーザインタフェースを表示する。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト(例えば、602b)を表示している間に、コンピュータシステムは、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた(例えば、及び/又は第1の個別のロケーションに向けられた)入力(例えば、650b)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))、(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、(例えば、634a~634d、634aa、及び/又は634ddのうちの1つ以上を含むインタフェース)を表示する。(例えば、及び/又は、第1のメディア処理スタイル又は任意の他のメディア処理スタイル(例えば、任意の他のユーザ選択/事前定義されたメディア処理スタイル)を使用して表示されないメディアの表現を表示することを中止する)。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた第1の入力を検出したことに応じて、コンピュータシステムは、スタイルモードで動作するように構成される。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示することの一部として、コンピュータシステムは、現在選択されているメディア処理スタイルを使用してメディアの表現を表示する(及び/又は表示し続ける)。スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示することは、スタイル選択ユーザインタフェースが表示されるかどうかに関してコンピュータシステムに対する制御をユーザに提供し、ユーザは、メディアの表現に適用する新しいメディア処理スタイルを設定することができ、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、(602c及び602dに関連して上述したように)スタイル選択ユーザインタフェース(例えば、634a~634d、634aa、及び/又は634ddのうちの1つ以上を含むインタフェース)内の第2の個別のロケーションにおける設定(例えば、(例えば、深度パラメータを制御するための)絞り値設定、メディアをキャプチャするための単一の要求に応じて複数の写真がキャプチャされる写真キャプチャ設定をオフにするための設定)を制御するためのユーザインタフェースオブジェクト(例えば、602b)を含む。いくつかの実施形態では、第2の個別のロケーションにおける設定を制御するためのスタイル選択ユーザインタフェース及びユーザインタフェースオブジェクト(例えば、602b)を表示している間に、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトが以前に表示されていたロケーションに向けられた)入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する)。いくつかの実施形態では、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、602c及び602d上で検出された入力に関連して上述したように)(又は、任意の他のメディア処理スタイル(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルのような、表現に向けられた入力などの入力を検出したことに応じて表現に適用される、任意の他のユーザ選択/予め定義されたメディア処理スタイル)を表示することを中止する(例えば、表示されているメディアの表現、メディア処理スタイル(例えば、第1のメディア処理スタイル及び/又は第2のメディア処理スタイル)を使用して表示される表現の部分を表示することを中止する)。いくつかの実施形態では、ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、設定を制御するための1つ以上のユーザインタフェースオブジェクト(例えば、スライダ)を表示する。いくつかの実施形態では、スタイル選択ユーザインタフェース内の第2の個別のロケーションに向けられた入力を検出したことに応じて、コンピュータシステムは、メディア処理スタイル選択モードで動作するように構成されない。いくつかの実施形態では、スタイル選択ユーザインタフェースを中止することの一部として、コンピュータシステムは、現在選択されているメディア処理スタイルを使用して表現の表示を維持する。設定を制御するためのユーザインタフェースオブジェクトに向けられた(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を含むユーザインタフェースを表示している間に検出された)入力を検出したことに応じてスタイル選択ユーザインタフェースの表示を中止することは、ユーザがメディアの表現に適用する新しいメディア処理スタイルを選択することができるスタイル選択ユーザインタフェースが表示されるかどうかに関するコンピュータシステムに対する制御をユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースを表示した後、コンピュータシステムは、カメラユーザインタフェースを表示する要求を受信する。いくつかの実施形態では、カメラユーザインタフェースを表示する要求を受信したことに応じて、コンピュータシステムは、カメラユーザインタフェース内に、1つ以上のカメラの視野の表現(例えば、630)と、選択されると、スタイル選択ユーザインタフェース(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト)を表示させる個別のユーザインタフェースオブジェクト(例えば、602b)とを同時に表示することを含むカメラユーザインタフェース(例えば、602、604、及び/又は606を含むユーザインタフェース)を表示し、これは、第1のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、個別のユーザインタフェースオブジェクト(例えば、602b)を第1の外観で(例えば、アフォーダンスを第2の外観で表示することなく)表示することを含む。いくつかの実施形態では、第2のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、コンピュータシステムは、個別のユーザインタフェースオブジェクト(例えば、602b)を、(例えば、図6A~図6Dの602bに関連して上述したように、第1の外観でアフォーダンスを表示することなく)第1の外観とは異なる第2の外観で表示する。いくつかの実施形態では、カメラユーザインタフェースはまた、1つ以上のカメラの視野の表現と同時に表示されるメディアをキャプチャするためのユーザインタフェースオブジェクト(例えば、610)と、選択されると、デバイスにデバイスの1つ以上のカメラでメディアをキャプチャさせるアフォーダンスとを含む。いくつかの実施形態では、コンピュータシステムは、デフォルトスタイルが現在選択されているメディア処理スタイルであるとき、個別のユーザインタフェースオブジェクトを第1の外観で表示し、1つ以上の(及び/又は所定数の)異なる非デフォルトスタイルが選択されたとき、個別のユーザインタフェースオブジェクトを第2の外観で表示する。ユーザインタフェースオブジェクトを表示することは、選択されると、スタイル選択ユーザインタフェースを、個別のメディア処理スタイルが第1のメディア処理スタイルであるか第2のメディア処理スタイルであるかに基づいて異なる外観で表示させ、メディアの視覚的コンテンツに現在適用されている及び/又は現在適用されるように構成されているメディア処理スタイルに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、ユーザインタフェースは、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される(例えば、図8A~図8Cに関連して説明したような)第1のユーザインタフェースオブジェクトを含む。いくつかの実施形態では、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される第1のユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、(図8A~8Cに関連した説明されるように)1つ以上の入力デバイスを介して、第1のユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力)(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を表示する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、図8A~図8Cに関連して説明したように)第1のメディア処理スタイル(例えば、コンテンツを表示するために、コンピュータシステムがメディア処理スタイル選択モードで動作していないときに表示されるスタイル、及び/又は表現に向けられた入力のような入力によって検出できないスタイル)を使用することなく、表現の第1の部分及び表現の第2の部分を表示する。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、表現の第1の部分及び表現の第2の部分は、第1のメディア処理スタイルとは異なるメディア処理スタイルを使用して表示される。いくつかの実施形態では、第1のユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、表現の第1の部分及び表現の第2の部分は、中立スタイル(及び/又はデフォルトスタイル)を使用して表示される。第1のユーザインタフェースオブジェクトに向けられた入力(例えば、第1のメディア処理スタイルを使用して表示される表現の第1の部分及び表現の第2の部分と同時に表示される第1のユーザインタフェースオブジェクトを表示している間に検出された入力)を検出したことに応じて、第1のメディア処理スタイルを使用せずに表現の第1の部分及び表現の第2の部分を表示することは、第1のメディア処理スタイルの表現が第1のメディア処理スタイルを使用して表示されるか否かをユーザが制御することを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、メディア(例えば、シャッターボタン)をキャプチャするための選択可能なユーザインタフェースオブジェクト(例えば、610)を含む。いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)と、メディア(及び、例えば、スタイル選択ユーザインタフェース)をキャプチャするための選択可能なユーザインタフェースオブジェクトとを使用してメディアの表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクト(例えば、スタイル選択ユーザインタフェース内のロケーション)に向けられた入力(例えば、650a、650c、650j)例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、650a、650c、650j)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルのパラメータの現在値に基づいて)第1のメディア処理スタイルが適用されたメディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出している間に、及び/又は(例えば、表現に向けられた入力を検出したことに応じてメディア処理スタイルを切り替える要求として)表現に向けられる入力を検出している間に、コンピュータは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトを検出する入力が検出されるとき(例えば、その直前/直後に)、第1のメディア処理スタイルを使用して表示された表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)、及び/又は表示されたメディアの表現の他の部分よりも大きい(又は等しい)メディアの表現の部分に適用されるメディア処理スタイルが適用されたメディアのキャプチャを開始する。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェースにおいて適用される第1のメディア処理スタイルを有するキャプチャメディアの表現(例えば、サムネイル表現)を表示する。メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた(例えば、第1のメディア処理スタイル及びメディアをキャプチャするための選択可能なユーザインタフェースオブジェクトを使用してメディアの表現を表示している間に検出された)入力を検出したことに応じて第1のメディア処理スタイルが適用されたメディアをキャプチャすることは、ユーザが、現在選択されているメディア処理スタイルが適用されるメディアをキャプチャすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表現の第1の部分を表示することの一部として、コンピュータシステムは、異なるタイプの識別されたオブジェクトと比較した1つのタイプの識別されたオブジェクト(例えば、非被写体と比較した被写体(例えば、人物))について、表現(例えば、630)の第1の部分内の(例えば、において検出される)1つ以上のオブジェクト(例えば、ライブプレビュー630内の人物)(例えば、人物及び/又は人物の顔)(例えば、識別可能なオブジェクト)に対して、1つ以上のオブジェクトを含まない第1の部分のサブセットに対してと異なるように(例えば、異なるセットの視覚的パラメータ(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータの異なるセットを使用して)、第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)を適用する(例えば、第1の部分の第2のサブセット(例えば、オブジェクトを含まないサブセット)とは異なる視覚的外観で第1の部分の第1のサブセット(例えば、オブジェクトを含むサブセット)を表示する)。いくつかの実施形態では、第1のメディア処理スタイルは、メディアの表現に含まれるシーンの特定の部分(例えば、空、肌のトーン、ユーザの顔などを含むシーンの部分(単数又は複数))のうちのいくつかの外観を保存しようと試みるために、表現の異なる部分に異なって適用される。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、650d、650k1、650k2、750j、及び/又は750q)は、(例えば、図6A~6C及び方法70に関連して説明したように)コントラスト、鮮やかさ、暖かさ、及びこれらの組み合わせからなる群から選択される1つ以上のパラメータに基づいてメディアの表現に適用される。
いくつかの実施形態では、表現の第1の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)及び表現の第3の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)が第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示され、表現の第2の部分が第1のメディア処理スタイルを使用して表示される間、コンピュータシステムは、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の終了を検出する。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の終了を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルを使用して表現の第2の部分(例えば、第2の部分の少なくとも一部、表現の縁部)を表示することを中止し(例えば、第1のメディア処理スタイルを使用して表示される表現の第2の部分をフェードアウトし、表現の第2の部分のサブセット(例えば、660a、660b、及び/又は630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの一部)(例えば、表現の第2の部分に含まれ、それよりも小さい部分)の視覚的突出を減少させる(例えば、薄暗くする、暗くする、フェードアウトする、灰色にする、強調しない、及び/又は不透明度を上昇させる)(及び表現の第1の部分、表現の第2の部分、及び/又は第2のメディア処理スタイルを使用する表現の第3の部分を表示する)。いくつかの実施形態では、表現の第1の部分は、第2のメディア処理スタイルを使用して表示され、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、コンピュータシステムは、表現に向けられた入力の終了を検出する。いくつかの実施形態では、表現の第1の部分が第2のメディア処理スタイルを使用して表示されている間、及び表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、表現に向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルを使用して表現の第1の部分(例えば、第2の部分の少なくとも一部、表現の縁部)を表示することを中止し、表現の第1の部分のサブセット(例えば、表現の第2の部分に含まれ、表現の第2の部分よりも小さい表現の部分)の視覚的突出を減少させる。いくつかの実施形態では、表現の第2の部分(例えば、630、676a、676b、676c、680c、及び/又は680dの中間セクション、左セクション、及び/又は右セクションの部分)のサブセットが低減された視覚的突出で表示されている間、コンピュータシステムは、表現(例えば、630、676a、676b、676c、680c、及び/又は680d)に向けられた第3の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、表現に向けられた第3の入力を検出したことに応じて、コンピュータシステムは、表現の第2の部分のサブセットの視覚的突出を増加させる(例えば、暗くする、明るくする、フェードインする、強調する、及び/又は不透明度を減少させる)。表現に向けられた第4の入力を検出したことに応じて表現の第2の部分のサブセットの視覚的突出を増加させることにより、表現に向けられた入力の終了が検出されなかったという視覚的フィードバックをユーザに提供し、いくつかの実施形態では、メディア処理スタイルが表現の第2の部分のサブセットにどのように影響し得るかに関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。表現に向けられた入力の終了を検出したことに応じて表現の第2の部分のサブセットを視覚的突出を減少させることは、メディア処理スタイルが入力を介して選択されたこと、及び/又は入力が現在検出されていないことの視覚的フィードバックをユーザに提供し、これは、選択されたメディア処理スタイルの変更に関する意図されない変更が更なるユーザ入力なしでは起こらないという確信をユーザに与え、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、メディア(例えば、及び/又はメディアの表現の一部)の表現が第10のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(及び/又は任意のメディア処理スタイル)を使用して表示されるという判定に従って、表現に向けられた第4の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、メディアの表現を表示することは、表現の第5の部分(例えば、660a、660b、右セクション、及び/又は左セクション)(例えば、縁部(例えば、左縁部及び/又は右縁部)、視覚的要素)が第1の視覚的外観(例えば、第1の色及び/又はグレーアウトされない)で表示され、メディアの表現(例えば、及び/又はメディアの提示の一部)が第10のメディア処理スタイル(及び/又は任意のメディア処理スタイル)を使用して表示されないという判定に従って、表現に向けられた第4の入力を検出したことに応じて、表現の第5の部分(例えば、660a、660b、右セクション、及び/又は左セクション)が、第1の外観とは異なる第2の外観で表示されることを含む。メディアの表現が第10のメディア処理スタイルを使用して表示されるか否かの判定に基づいて表現の第4の部分を異なるように表示することは、ユーザが入力を介して個別のメディア処理スタイルを選択できるかどうか、及び/又は個別のメディア処理スタイルが特定の方向の入力を介してアクセスできるかどうかに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に、第1のメディア処理スタイルを使用して表現の第1の部分及び表現の第2の部分を表示している間に、メディアの表現の第6の部分(例えば、660a、660b、右セクション、及び/又は左セクション)(例えば、縁部(例えば、左縁部及び/又は右縁部)が、第1のメディア処理スタイル(例えば、メディアの表現の領域/縁部に適用されているメディア処理スタイル)を使用して表示される。第1のメディア処理スタイルを使用して表示されるメディアの表現の第6の部分を表示することは、第1のメディア処理スタイルが表現の第2のエリアにどのように影響し得るかに関するフィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する前に、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表現の第1の部分及び表現の第2の部分を表示している間に、メディアの表現の第7の部分(例えば、660a、660b、右セクション、及び/又は左セクション)は、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用して表示されない(メディアの任意のメディア処理スタイル(例えば、第1のメディア処理スタイル、第2のメディア処理スタイル、第3のメディア処理スタイルなど)は、メディアの表現の領域/縁部に適用されない)。いくつかの実施形態では、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、コンピュータシステムは、メディアの表現の第7の部分(例えば、660a、660b、右セクション、及び/又は左セクション)が第1のメディア処理スタイルを使用して表示されない状態から第1のメディア処理スタイルを使用して表示される状態に遷移する(例えば、メディアの表現に適用されている第1のメディア処理スタイルをフェードインする)アニメーションを表示する。表現に向けられた入力を検出したことに応じて、第1のメディア処理スタイルを使用して表示されていない状態から第1のメディア処理スタイルを使用して表示されている状態に遷移するメディアの表現の第2の領域のアニメーションを表示することは、(例えば、第1のメディア処理スタイルが表現の第2の領域にどのように影響し得るかをユーザが見たいと思う可能性が高いとき)第1のメディア処理スタイルが表現の第2の領域にどのように影響し得るかに関するフィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表現の第1の部分及び表現の第2の部分が、メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示されるスタイル選択ユーザインタフェースを表示する前に、コンピュータシステムは、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクト(例えば、844a)を表示する。いくつかの実施形態では、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクト(例えば、844a)を表示している間に、コンピュータシステムは、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクトに向けられた入力(例えば、850a)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出する)。いくつかの実施形態では、第2のメディア処理スタイル選択モードを有効にするためのユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a)が適用された以前にキャプチャされたメディア(例えば、サンプルメディア、コンピュータシステムによってキャプチャされていないメディア、及び/又はテンプレート)の表現(例えば、878a)と、第2のメディア処理スタイル(例えば、634b)が適用された以前にキャプチャされたメディア(例えば、サンプルメディア、コンピュータシステムによってキャプチャされていないメディア、及び/又はテンプレート)の表現(例えば、878b)とを同時に表示することを含む個別のユーザインタフェースを表示する。いくつかの実施形態では、それぞれを表示している間、コンピュータシステムは、個別のユーザインタフェースに向けられた入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出する)。いくつかの実施形態では、個別のユーザインタフェースに向けられた入力を検出したことに応じて、かつ個別のユーザインタフェースに向けられた入力が第1のメディア処理スタイルを使用するオプションの選択に対応するという判定に従って、コンピュータシステムは、メディアユーザインタフェースを表示する要求を検出したことに応じて(例えば、第2のメディア処理スタイルを使用せずに)メディアの表現を含むユーザインタフェースを表示する。いくつかの実施形態では、個別のユーザインタフェースに向けられた入力を検出したことに応じて、かつ個別のユーザインタフェースに向けられた入力が第2のメディア処理スタイルを使用するオプションの選択に対応するという判定に従って、コンピュータシステムは、メディアユーザインタフェースを表示する要求を検出したことに応じて(例えば、第1のメディア処理スタイルを使用せずに)第2のメディア処理スタイルを使用するメディアの表現を含むユーザインタフェースを表示する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、選択されると、スタイル選択ユーザインタフェースを表示させる(例えば、コンピュータシステムをトグルさせる)第1のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されるとスタイルセクションユーザインタフェースを表示させる(例えば、又は表示を中止させる)ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、第1のスタイルモードユーザインタフェースオブジェクトは、1つ以上のカメラ設定ユーザインタフェースオブジェクト(例えば、688)と同時に表示される(例えば、1つ以上のカメラ設定ユーザインタフェースオブジェクト(例えば、カメラ設定を制御するためのオブジェクトのユーザインタフェース)は、1つ以上のカメラがメディアをキャプチャするように構成されたカメラキャプチャモード(例えば、各カメラキャプチャモードの設定)に基づいて表示される)。いくつかの実施形態では、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトが表示される前に、コンピュータシステムは、個別のユーザインタフェースに向けられた入力(例えば、650w)(例えば、スワイプ入力、タップ入力、及び/又はドラッグ入力)を検出し、個別のユーザインタフェースに向けられた入力を検出したことに応じて、コンピュータシステムは、スタイル選択ユーザインタフェース(例えば、以前に表示されなかった)及び1つ以上のカメラ設定アフォーダンス(例えば、以前に表示されなかった)を表示するためのユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、1つ以上のカメラ設定ユーザインタフェースオブジェクトのうちの個別のカメラ設定ユーザインタフェースオブジェクトの選択を検出したことに応じて、コンピュータシステムは、カメラ設定を調整するための1つ以上のコントロール(例えば、選択されたときにコンピュータシステムにモード(例えば、フラッシュモード、夜間モード、動画キャプチャモード、及び/又はタイマモード)をオンにさせるコントロール、選択されたときにコンピュータシステムにモードをオフにさせるコントロール)、選択されたときにキャプチャ設定の値(例えば、露出値、タイマモードの時間値)を調整させるコントロール、及び/又はメディアをキャプチャ及び/又は表示するために使用される1つ以上のフィルタ及び/又はズームレベルを変更するためのコントロール)を表示する。1つ以上のユーザカメラ設定ユーザインタフェースオブジェクトと同時に第1のスタイルモードユーザインタフェースオブジェクトを含むスタイル選択ユーザインタフェースを表示することは、ユーザが1つ以上のユーザカメラ設定を制御するためのコントロールにアクセスすることを可能にしながら、スタイル選択ユーザインタフェースを表示させ、表示を中止させることができるコントロールにユーザがアクセスすることを可能にし、これは、それぞれのコントロールが同時に表示されなかった場合に、それぞれのコントロールにアクセスするためにかかる入力の数を低減する。
いくつかの実施形態では、スタイル選択ユーザインタフェースは、選択されると、スタイル選択ユーザインタフェースを表示させる(例えば、コンピュータシステムをトグルさせる)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されると、スタイルセクションユーザインタフェースを表示させる(例えば、又は表示を中止させる)ユーザインタフェースオブジェクト)を含む。いくつかの実施形態では、コンピュータシステムは、第2のメディア処理スタイルを使用して表現(例えば、630)の第1の部分を表示し、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b及び/又は688b)を第3の外観(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線であり、(例えば、図6Lに関連して上述したように)この線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある)で表示する。いくつかの実施形態では、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力(例えば、650d、650k1、650k2、750j、及び/又は750q)の第2の部分を検出したことに応じて、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトを、(例えば、図6Lに関連して上述したように)(例えば、第2のメディア処理スタイルを使用して表現の第1の部分及び表現の第3の部分を表示し、表現の第2の部分が第1のメディア処理スタイルを使用して表示されている間)第3の外観で表示されている状態から、第3の外観とは異なる第4の外観で表示される状態に変更する(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線、線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある)(例えば、第2のスタイルモードユーザインタフェースを表示する、及び/又はその変化のアニメーションを表示する)。第2のスタイルモードユーザインタフェースオブジェクトを第3の外観で表示されている状態から第4の外観で表示されている状態に変更することは、表現に適用されているメディア処理スタイルへの切り替えが表現の表示にどのように異なって影響を与えるかに関して、ユーザに視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を第3の外観で表示されている状態から第4の外観で表示されている状態に変更することの一部として、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの値(例えば、626a及び/又は626b)が第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの値(例えば、626a及び/又は626b)と異なるという判定に従って、コンピュータシステムは、(例えば、図6Lに関連して上述したように)第1の視覚的態様(例えば、602bの色及び/又は602bの周りの線の表示)(例えば、少なくとも一部(及び、いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の境界(例えば、第2のメディア処理スタイルの取り囲む線)を含む部分)の色、陰影、及び/又は色合い)の表示を、(例えば、第1のメディア処理スタイルの第1のパラメータの値が第2のメディア処理スタイルの第1のパラメータの値と異なるという判定に基づいて第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更することなく)変更する。いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの値が第2のメディア処理スタイルの第1のパラメータの値と異ならないという判定に従って、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様を変更しない。いくつかの実施形態では、(例えば、方法1000に関連して上述したように)表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示している間、第1の視覚的態様は第1の色に対応し(及び/又は第1の色によって表され)、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力の第2の部分を検出したことに応じて、第2の視覚的態様は、第1の色とは異なる第2の色に対応する(及び/又は第2の色によって表される)。いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータ例えば、626a及び/又は626b)の値が第2のメディア処理スタイルの第2のパラメータ(例えば、626a及び/又は626b)の値と異なるという判定に従って、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を第3の外観で表示されている状態から第4の外観で表示されている状態に変更することの一部として、第1のパラメータが第2のパラメータと異なる場合、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様((例えば、図6Lに関連して上述したように)例えば、602bの色及び/又は602bの周りの線)(例えば、第2のメディア処理スタイルの少なくとも一部(例えば、第2のスタイルモードユーザインタフェースオブジェクトの周囲である、に隣接する、及び/又は、それを取り囲む境界線及び/又は線)のサイズ、長さ、及び/又は塗りつぶし)の表示を変更する。いくつかの実施形態では、第2の視覚的態様は、第1の視覚的態様と異なる(例えば、第1のメディア処理スタイルの第2のパラメータの値が第2のメディア処理スタイルの第2のパラメータの値と異なるという判定に基づいて、第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様を変更しない)。いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータの値が第2のメディア処理スタイルの第2のパラメータの値と異ならないという判定に従って、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更しない。いくつかの実施形態では、(例えば、方法1000に関連して上述したように)表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示している間、第2の視覚的態様は第1の長さに対応し(及び/又は第1の長さによって表され)、表現の第2の部分及び表現の第3の部分が第1のメディア処理スタイルを使用して表示されている間に第2のメディア処理スタイルを使用して表現の第1の部分を表示した後、表現に向けられた入力の第2の部分を検出したことに応じて、第2の視覚的態様は、第1の長さとは異なる第2の長さに対応する(及び/又は第2の長さによって表される)。特定のパラメータの値が変更されたかどうかに基づいて、第2のスタイルモードユーザインタフェースオブジェクトの特定の視覚的態様の表示を変更することは、メディア処理スタイルに対してどのパラメータが変更されたかに関して、ユーザに視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、コンピュータは、(例えば、生のキャプチャインジケータ602bが非アクティブ状態で表示されている場合)第1のファイルフォーマット(例えば、JPEG及び/又はHEICなどの圧縮フォーマット)でメディア(例えば、及び/又はキャプチャメディア)を記憶するように構成されている。いくつかの実施形態では、コンピュータシステムが第1のファイルフォーマットでメディアをキャプチャして記憶するように構成されている間、かつ第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)がアクティブ状態(例えば、有効状態(例えば、コンピュータシステムがユーザインタフェースオブジェクトに向けられた1つ以上の入力を検出したことに応じてアクションを実行する状態)で表示されている間、コンピュータシステムは、第1のファイルフォーマットとは異なる第2のファイルフォーマット(例えば、生画像フォーマット)でメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求(例えば、650v)を検出する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、(例えば、図6V~図6Yに関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクトをアクティブ状態で表示することを中止する(例えば、第2のスタイルモードユーザインタフェースオブジェクトを表示することを中止する、及び/又は第2のスタイルモードユーザインタフェースオブジェクトを非アクティブ状態(例えば、無効状態(例えば、ユーザインタフェースオブジェクトに向けられた1つ以上の入力を検出したことに応じてコンピュータシステムがアクションを実行しない状態))で表示する)。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャして記憶するようにコンピュータシステムを構成する要求を検出することの一部として、コンピュータシステムは、1つ以上のカメラでメディアをキャプチャするためのファイルフォーマットを制御するための第1の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力、プレスアンドホールド入力、及び/又はスワイプ入力)を検出する。いくつかの実施形態では、第2のファイルフォーマットでメディアをキャプチャし記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、コンピュータシステムは、1つ以上のカメラでメディアをキャプチャするためのファイルフォーマットを制御するための第1の選択可能なユーザインタフェースオブジェクトを、非アクティブ状態で表示されている状態からアクティブ状態で表示されている状態に変更する。第2のファイルフォーマットでメディアをキャプチャし記憶するようにコンピュータシステムを構成する要求を検出したことに応じて、第2のスタイルモードユーザインタフェースオブジェクトをアクティブ状態で表示することを中止することは、メディア処理スタイルが適用されておらず、コンピュータが第2のファイルフォーマットでメディアをキャプチャ及び記憶するように構成されているときにメディア処理スタイルを適用することが利用可能でないという視覚的フィードバックをユーザに提供し、これは視覚的フィードバックを改善する。
方法900(例えば、図9)に関して上述したプロセスの詳細はまた、本明細書に記載の方法に類似する方式でも適用可能であることに留意されたい。例えば、方法900は、方法1000を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900は、1つ以上のメディア処理スタイルを選択するために使用することができ、方法1000は、方法900を使用して選択されたメディアを編集するために使用することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図10A~10Bは、いくつかの実施形態に係る、コンピュータシステムを使用してメディア処理スタイルを編集するための方法を示すフロー図である。方法1000は、表示生成構成要素(例えば、ディスプレイコントローラ及び/又はタッチ感知ディスプレイシステム)、及び1つ以上の入力デバイス(例えば、タッチ感知面及び/又は1つ以上のカメラの第1のカメラ(例えば、コンピュータシステムの同じ側又は異なる側の1つ以上のカメラ(例えば、デュアルカメラ、トリプルカメラ、クワッドカメラなど)(例えば、フロントカメラ及び/又はバックカメラ)、コンピュータシステム)と通信するコンピュータシステム(例えば、100、300、500、600)(例えば、スマートフォン、デスクトップコンピュータ、ラップトップ、及び/又はタブレット)において実行される。方法1000のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法1000は、コンピュータシステムを使用してメディア処理スタイルを編集するための直感的な方法を提供する。この方法は、コンピュータシステムを使用してメディア処理スタイルを編集するユーザの認識的負担を低減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合には、ユーザがコンピュータシステムを使用してメディア処理スタイルを、より速く、より効率的に編集することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
コンピュータシステムは、表示生成構成要素を介して、表現(例えば、例えば、630、676a、676b、676c、680c、及び/又は680d)を含むユーザインタフェース(例えば、スタイル選択ユーザインタフェース、メディアキャプチャユーザインタフェース、メディア閲覧ユーザインタフェース、メディア編集ユーザインタフェース)(例えば、写真メディア、ビデオメディア)(例えば、ライブメディア、ライブプレビュー(例えば、メディアをキャプチャする要求を検出したこと(例えば、シャッターアフォーダンス(例えば、ユーザインタフェースオブジェクト)の選択を検出したことに応じて)記憶/キャプチャされていない1つ以上のカメラの視野(例えば、現在の視野)の表現に対応するメディア、以前にキャプチャされたメディア(例えば、キャプチャされた1つ以上のカメラの視野(例えば、以前の視野)の表現に対応するメディア)、保存されており、後でユーザによってアクセス可能であるメディアアイテム、及び/又は、メディアの(例えば、メディアギャラリー内の)メディアのサムネイル表現上のジェスチャを受信したことに応じて表示されたメディアの表現(例えば、(例えば、カメラモードで動作している間)(例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間)コンピュータシステムの1つ以上のカメラによってキャプチャされている又はキャプチャされた情報、データ)を表示し(1002)、メディアの表現は、メディアの視覚的コンテンツに適用される第1のメディア処理スタイル(634a~634d、634aa、及び/又は634dd)(例えば、に従って)を使用して表示される。いくつかの実施形態では、第1のメディア処理スタイルは、複数のメディア処理スタイルのうちの1つである。いくつかの実施形態では、複数のスタイルの各々は、同じパラメータのセットを有する。いくつかの実施形態では、パラメータのセットは、(例えば、第2のスタイルがメディアに適用されていない)視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータ)のセットである。
第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用してメディアの表現を表示している間に、コンピュータシステムは、表示生成構成要素を介して、第1のメディア処理スタイルのパラメータ(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)を表示するための複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの第1のパラメータの現在値(例えば、数(例えば、0~100)、パーセンテージ(例えば、0~100%)、コントロール(例えば、スライダ、回転可能ノブ)(例えば、スライダ上の特定ポジションに表示されるスライダバー)上の数の指示、第1の値について示される1つ以上の特徴)、圧縮コントロール及び/又はコントロールの一部)の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)で表示される(例えば、同時に表示される、含む)第1のメディア処理スタイルの第1のパラメータ(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aで示される)(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)を編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(1006)と、第1のメディア処理スタイルの第2のパラメータの現在値(例えば、数(例えば、0~100)、パーセンテージ(例えば、0~100%)、コントロール(例えば、スライダ及び/又は回転可能ノブ)(例えば、スライダ上の特定ポジションに表示されるスライダバー)上の数の指示、第1の値について示される1つ以上の特徴)、圧縮コントロール、及び/又はコントロールの一部)の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)で表示される(例えば、同時に表示される、含む)第1のメディア処理スタイルの第2のパラメータ(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aで示される)(例えば、視覚的特性(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、カラフルさ、冷たさ、及び/又は調和))及び/又は深度パラメータ)と、第2の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(1008)とを含み(1004)、第1のパラメータは第2のパラメータとは異なる。いくつかの実施形態では、第1の値がパラメータの第1の量に対応するという判定に従って、第1の値は、第1のパラメータの第1の量を示すように表示される。いくつかの実施形態では、第1の値がパラメータの第2の量に対応するという判定に従って、第1の値は、第1のパラメータの第2の量を示すように表示され、第1の量は第2の量とは異なる。いくつかの実施形態では、第2のパラメータの第1の値は、第1のパラメータの第1の値とは異なる。いくつかの実施形態では、第1の選択可能なユーザインタフェースオブジェクトは、第2の選択可能なユーザインタフェースオブジェクトとは異なる。いくつかの実施形態では、複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されるかを編集する要求が適用される前に表示されなかった。いくつかの実施形態では、第1のメディア処理スタイルのパラメータを編集するための複数の選択可能なユーザインタフェースオブジェクトは、互いに隣接して(例えば、一列に互いに隣接して)表示される(例えば、互いに一直線に位置合わせされる)。
コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間に)、例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間に)、1つ以上の入力デバイスを介して、入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含むスワイプ入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出する)を検出する(1010)。
入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(1012)(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含む移動入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用してメディアの表現を表示している間、及び/又は特定のカメラモードで動作し続けている間、及び/又は特定のスタイルモード(例えば、メディア処理スタイルモード)で動作し続けている間)(及び/又はいくつかの実施形態では、第1のメディア処理スタイルに対応する第1のパラメータを編集するために第1の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャを検出したことに応じて)コンピュータシステムは、入力が第1のメディア処理スタイルに対応するパラメータを編集するために複数の選択可能なユーザインタフェースオブジェクトに向けられていると判定したことに従って、表示生成構成要素を介して、(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aによって示されるように)第1のパラメータの現在値を調整(例えば、変更)するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(例えば、スライダ及び/又は回転可能ノブ)(例えば、拡張コントロール(例えば、以前に表示されていた圧縮コントロールの拡張コントロール)を(例えば、第2のパラメータの第1の値を調整するためのコントロールを表示することなく)(例えば、第1のパラメータの第2の値を調整することなく)(例えば、視覚的コンテンツに適用されている第1のメディア処理スタイルの表示と同時に)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)表示する(1014)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールに向けられた入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、プレスアンドホールドジェスチャ、及び/又は音声入力)を検出したことに応じて)、コンピュータシステムは、(例えば、第1のパラメータの現在値を反映するように)メディアの表現及び/又はメディアの表現の一部を更新する、及び/又は第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールに向けられた入力を検出したことに応じて、コンピュータシステムは、第2のパラメータの現在値を反映するようにメディアの表現及び/又はメディアの表現の一部を更新しない、及び/又は第2のパラメータの現在値を更新しない。
入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出したことに応じて(1012)(及び/又は、いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ(例えば、入力/ジェスチャの終了時の速度を含む移動入力/ジェスチャ、又は入力/ジェスチャ中の移動に基づいて変化を引き起こすドラッグ入力/ジェスチャ)、及び/又はプレスアンドホールド入力/ジェスチャ)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用してメディアの表現を表示している間、及び/又は特定のカメラモードで動作し続けている間、及び/又は特定のスタイルモード(例えば、メディア処理スタイルモード)で動作し続けている間)(及び/又はいくつかの実施形態では、第1のメディア処理スタイルに対応する第2のパラメータを編集するために第2のユーザインタフェースオブジェクトに向けられた非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャを検出したことに応じて)コンピュータシステムは、入力が第1のメディア処理スタイルに対応するパラメータを編集するために複数の選択可能なユーザインタフェースオブジェクトに向けられていると判定したことに従って、表示生成構成要素を介して、(例えば、626a1a、626a2a、626b1a、626b2a、626c1a、626c2a、626d1a、及び/又は626d2aによって示されるように)第2のパラメータの現在値を調整(例えば、変更)するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)(例えば、スライダ及び/又は回転可能ノブ)(例えば、拡張コントロール(例えば、以前に表示されていた圧縮コントロールの拡張コントロール)を(例えば、第1のパラメータの第1の値を調整することなく)(例えば、視覚的コンテンツに適用されている第1のメディア処理スタイルの表示と同時に)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)表示する(1016)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールに向けられた入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて)、コンピュータシステムは、(例えば、第2のパラメータの現在値を反映するために)メディアの表現及び/又はメディアの表現の一部を更新する、及び/又は第2のパラメータの現在値を更新する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を反映するようにメディアの表現及び/又はメディアの表現の一部を更新しない、及び/又は第1のパラメータの現在値を更新しない。入力が、第1のメディア処理スタイルの個別のパラメータを編集するための個別のユーザインタフェースオブジェクトに向けられているという判定に従って、個別のパラメータの現在値を調整するための個別のコントロールを表示することは、ユーザが、入力が向けられた個別のユーザインタフェースオブジェクトに基づいて、個別のパラメータの現在値を調整するためのコントロールにアクセスすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供する。第1のメディア処理スタイルを使用してメディアの表現を表示している間に、表示生成構成要素を介して、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを同時に表示することは、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されるかを編集するために使用され得る複数の選択可能なユーザインタフェースオブジェクトに関する視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)の表示の一部として、コンピュータシステムは、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の第1のパラメータの現在値の第2の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を(例えば、第1のコントロールと同時に、第1のコントロールの一部として)表示する。いくつかの実施形態では、第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値の第2の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を(例えば、第2のコントロールと同時に、第2のコントロールの一部として)表示する。入力が、個別のパラメータを編集するための個別のユーザインタフェースオブジェクトに向けられているという判定に従って、個別のコントロールの現在のそれぞれの値の表現を有する個別のコントロールを表示することは、個別のパラメータの現在値、及びメディア処理スタイルがどのように視覚的コンテンツに適用されるかを変更するために、ユーザが個別のパラメータの現在値をどのように調整することができるかに関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)と第1のメディアスタイルについての複数の選択可能なユーザインタフェースオブジェクト(626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)とを使用してメディアの表現(例えば、630、676a、676b、676c、680c、及び/又は680d)を表示している間に(例えば、特定のスタイルモード(例えば、メディア処理スタイル選択モード)で動作している間に)、コンピュータシステムは、メディアの視覚的コンテンツに適用される第2のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)(例えば、1つ以上の視覚的特性において第1のスタイルとは異なるスタイル)を使用してメディアの表現を表示する要求(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用して(例えば、特定のスタイルモード(例えば、メディア処理スタイルモード)で動作している間に)メディアの表現を表示する要求(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を中止する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する。いくつかの実施形態では、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトと同時に、メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトは、第2のメディア処理スタイルの第3のパラメータの現在値の表現と共に表示される、第2のメディア処理スタイルの第3のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトと、第2のメディア処理スタイルの第4のパラメータの現在値の表現と共に表示される、第2のメディア処理スタイルの第4のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトとを含む。いくつかの実施形態では、第3のパラメータは、第4のパラメータと異なる(例えば、異なるタイプのパラメータ)。いくつかの実施形態では、第1のパラメータは、第3のパラメータと同じ(例えば、同じタイプのパラメータ)である。いくつかの実施形態では、第2のパラメータは、第4のパラメータと同じ(例えば、同じタイプのパラメータ)である。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、入力が第2のメディア処理スタイルの第3のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第3のパラメータの現在値を調整するためのコントロールを表示する。いくつかの実施形態では、第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、入力が第2のメディア処理スタイルの第4のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、表示生成構成要素を介して、第4のパラメータの現在値を調整するためのコントロールを表示する。メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトの表示を中止することは、コンピュータシステムが、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することを可能にし、これは、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられたものであるという判定に従って)、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を拡張する(及び/又は拡大する)(例えば、第1のパラメータの現在値を調整するための第1のコントロールを表示するために)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のメディア処理スタイルの第1のパラメータを編集するための第1のユーザインタフェースオブジェクトが占有していたのと同じ領域(及び/又は同じ領域の一部)を、第1のパラメータの現在値を調整するための第1のコントロールが占有するように、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを一直線に拡張する)(例えば、拡張のアニメーションを表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示することの一部として(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、及び入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトに向けられたものであるという判定に従って)、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを拡張する(例えば、第2のパラメータの現在値を調整するための第2のコントロールを表示するために)(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトが占有していたのと同じ領域(及び/又は同じ領域の一部)を、第2のパラメータの現在値を調整するための第2のコントロールが占有するように、第1のメディア処理スタイルの第2のパラメータを編集するための第2のユーザインタフェースオブジェクトを一直線に拡張する)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに関連する(例えば、第1の選択可能なユーザインタフェースオブジェクトのより大きなバージョンである、第1の選択可能なユーザインタフェースオブジェクトよりも大きい、第1の選択可能なユーザインタフェースオブジェクトの一部を含む、及び/又は第1の選択可能なユーザインタフェースオブジェクトの1つ以上の特性を含む)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールは、第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに関連する(例えば、第2の選択可能なユーザインタフェースオブジェクトのより大きなバージョンである、第2の選択可能なユーザインタフェースオブジェクトよりも大きい、第2の選択可能なユーザインタフェースオブジェクトの一部を含む、及び/又は第2の選択可能なユーザインタフェースオブジェクトの1つ以上の特性を含む)。表示生成構成要素を介して、入力に応じて第1のパラメータの現在値を調整するための第1のコントロールを表示することの一部として、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを拡張することは、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトが第1のパラメータの現在値を調整するための第1のコントロールに対応するという視覚的フィードバックをユーザに提供し、これは、ユーザの混乱を低減すると同時に、混乱が解消されたユーザインタフェースを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間に)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルの第1のパラメータの現在値の表現で表示される第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを表示するために)(例えば、縮小するアニメーションを表示するために)第1のパラメータの現在値を調整するための第1のコントロールのサイズを低減させる(例えば、縮小する)。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト及び第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを再表示する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを再表示し、入力が検出される前に第1のパラメータの現在値の表現が以前に表示されていたポジションから第2のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト上の異なるポジションに第1のパラメータの現在値の表現を表示する。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の検出を継続している間)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小する(例えば、第1のメディア処理スタイルの第2のパラメータの現在値の表現と共に表示される第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを表示する)。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトと、第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトとを再表示する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールのサイズを縮小した後、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを再表示し、第2のパラメータの現在値の表現を、入力が検出される前に第2のパラメータの現在値の表現が以前に表示されていたポジションから第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクト上の異なるポジションに表示する。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第1のパラメータの現在値を調整するための第1のコントロールのサイズを縮小することにより、第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトが第1のパラメータの現在値を調整するための第1のコントロールに対応するという視覚的フィードバックがユーザに提供され、これにより、ユーザの混乱が低減される一方で、混乱が解消されたユーザインタフェースも提供され、改善された視覚的フィードバックが提供される。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出する前に、第1のパラメータの現在値は、(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)第1の値である。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示している間に(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間に)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示する。いくつかの実施形態では、現在値は、第1の値とは異なる第2の値である。いくつかの実施形態では、第2の値は第1の値と同じである。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示している間に、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、コンピュータシステムは、第2のパラメータの現在値の表現を表示し、第2のパラメータの表現の現在値は、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出された後の値であり、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前の現在値と同じである(例えば、第2のパラメータの現在値は変化しない)。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する前に、第1のパラメータの現在値は第3の値であり、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間)、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出したことに応じて、第2のパラメータの現在値の表現を表示する。いくつかの実施形態では、現在値は、第4の値とは異なる第3の値である(及び/又は、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に第1のパラメータの現在値が表示されていたのと同じ値として第1のパラメータの現在値の表現を表示する)。第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第1の値とは異なる第2の値である、第1のパラメータの現在値の表現を表示することは、第1のパラメータの現在値が入力によって調整されたことを理解するための視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)は、第1のパラメータの第1の値の範囲(例えば、-100~100)の第1の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)で表示され(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの現在値の表現は、第1の値の範囲の表現上に表示される、隣接する、及び/又は含まれる)、(図7A~7Bに関連して上述したように)第1の値の範囲は、第1の値を表す第1の値の範囲の第1の表現内の第1の点と、第2の値を表す第1の値の範囲の第1の表現内の第2の点との間の第1の距離を有する。いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することの一部として、コンピュータシステムは、(例えば、図7A~図7Bに関連して上述したように)第1の値を表す値の範囲の第2の表現内の第1の点と、第2の値を表す値の範囲の第2の表現内の第2の点との間に、(例えば、表示生成構成要素上に)第1の距離より大きい(例えば、表示生成構成要素上に)第2の距離を有する値の範囲の第2の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)を表示する。いくつかの実施形態では、第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトは、第2のパラメータの第1の範囲の値(例えば、-100~100)の第3の表現と共に表示され(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第1のパラメータの現在値の表現は、第1の範囲の値の表現上に表示され、隣接して表示され、及び/又は第1の範囲の値の表現に含まれる)、第2のパラメータの第1の範囲の値は、第3の値を表す第2のパラメータの第1の範囲の値の第3の表現における第1の点と、第4の値を表す第2のパラメータの第1の範囲の値の第3の表現における第2の点との間の第3の距離を有する。いくつかの実施形態では、第2のコントロールを表示することの一部として、コンピュータシステムは、第3の値を表す第2のパラメータの値の第2の範囲の第4の表現内の第1の点と、第4の値を表す第2のパラメータの値の第2の範囲の第4の表現内の第2の点との間に、第3の距離よりも大きい第4の距離を有する、第2のパラメータの値の第2の範囲の第4の表現を表示する。いくつかの実施形態では、第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトは、第1のパラメータの第2の範囲の値(例えば、-100~100)の表現を含む(例えば、いくつかの実施形態では、第1のメディア処理スタイルの第2のパラメータの現在値の表現は、第2の範囲の値の表現上に表示され、第2の範囲の値の表現に隣接し、及び/又は第2の範囲の値の表現に含まれる)。いくつかの実施形態では、第2のコントロールを表示することの一部として、コンピュータは、第2のパラメータの値の第1の範囲のサブセットである値の範囲(例えば、30~60)の表現を表示する(例えば、第2のパラメータの値の第1の範囲の表現の表示を中止する)。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間(及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出し続けている間)、コンピュータシステムは、(例えば、ユーザインタフェース上で)第1のパラメータの現在値を調整するための第1のコントロールの第1のサイズを増加させる(例えば、第1のコントロールにズームインする、個別のパラメータの現在値を調整するための個別のコントロールの1つ以上の部分を、コントロールが以前に表示されていたよりも増加した、より大きなサイズで表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し続けている間(及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出し続けている間)、第2のパラメータの現在値を調整するための第2のコントロールのサイズを増加させる(例えば、ユーザインタフェース上で)(例えば、第2のコントロールにズームインする)。第1のコントロールを表示することの一部として、第1の値を表す第2の点と第2の値を表す第2の点との間に第1の距離よりも大きい第2の距離を有する値の範囲の表現を表示することは、第1のパラメータの現在値を調整するための第1のコントロールが入力を介して第1のパラメータの現在値を変更するように操作され得るという視覚的フィードバックをユーザに提供し、第1の値を表す点と第2の値を表す点との間の値に焦点を合わせる及び/又は選択する(例えば、より容易に選択する)能力をユーザに与え、これは、ユーザインタフェースを雑然とさせることなく追加のコントロールオプションを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)は、第1のパラメータについての第3の値域の第3の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)と共に表示され、第3の値域は、第3の値を表す第3の値域の第3の表現内の第1の点と、第4の値を表す第3の値域の第3の表現内の第2の点との間の第3の距離を有する。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの第3の値の範囲の第3の表現で第1のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を、第3の値を表す値の範囲の第5の表現内の第1の点と、第4の値を表す値の範囲の第5の表現内の第2の点との間の第3の距離よりも短い(例えば、表示生成構成要素上の)第4の距離を有する値の範囲の第5の表現(例えば、626a1c、626a2c、626b1c、626b2c、626c1c、626c2c、626d1c、及び/又は626d2c)で(例えば、表示生成構成要素上に)表示する。いくつかの実施形態では、第2のコントロールは、第2のパラメータの値の第5の範囲の第5の表現で表示され、値の第5の範囲は、第5の値を表す第2のパラメータの値の範囲の第5の表現内の第1の点と、第6の値を表す第5の値の範囲の第5の表現内の第2の点との間の第5の距離を有する。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの第5の値の範囲の第5の表現で第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第5の値を表す第2のパラメータの値の範囲の第6の表現内の第1の点と、第6の値を表す第2のパラメータの値の範囲の第6の表現内の第2の点との間に、第5の距離よりも小さい第6の距離を有する値の範囲の第6の表現を有する第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、第1のコントロールは、第1のパラメータの値の第2の範囲の値(例えば、-100~100)のサブセット(例えば、30~60)(例えば、値の第2の範囲の間にある最小値及び最大値を有する)である値の範囲の表現と共に表示される。いくつかの実施形態では、表示生成構成要素を介して、第1のパラメータの第2の範囲の値のサブセットの表現を有する第1のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの値の第2の範囲の表現を表示する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの第2の範囲の値のサブセットの表現の表示を中止する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの第2の範囲の値の表現と同時に、第2のパラメータの第2の範囲の値の表現(例えば、第1のパラメータの第2の範囲の値のサブセットの表現が表示された間に以前に表示されなかった表現)を表示する。いくつかの実施形態では、第2のコントロールは、第2のパラメータの値の第2の範囲のサブセット(例えば、30~60)である値の範囲の表現と共に表示される。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの第2の範囲の値のサブセットの表現を有する第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出し、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、第2のパラメータの第2の範囲の値の表現を表示する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第2のパラメータの第2の値の範囲のサブセットの表現を表示することを中止する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールの第2のサイズ(例えば、上の段落の第1のサイズと同じ)を(例えば、ユーザインタフェース上で)減少させる(例えば、第1のコントロールをズームアウトする、個別のパラメータの現在値を調整するための個別のコントロールの1つ以上の部分を、コントロールが以前に表示されていたサイズよりも減少した、より小さいサイズで表示する)。いくつかの実施形態では、表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間に、コンピュータシステムは、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了(例えば、リフトオフ)を検出する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の終了を検出したことに応じて、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールのサイズを減少させる。第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトを、第3の値を表す第2の点と第4の値を表す第2の点との間に第3の距離よりも小さい第4の距離を有する値の範囲の表現と共に表示することは、第1のパラメータの現在値を調整するための第1のコントロールが、入力を介して第1のパラメータの現在値を変更するためにもはや操作され得ないという視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出したことに応じて、及び入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第2のパラメータ(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)の現在値を調整するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を、ユーザインタフェース上の第1のロケーションからユーザインタフェース(及び/又は第1のメディア処理スタイルの他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)上の第2のロケーション(例えば、第1のロケーションとは異なる)に移動させる。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第1のパラメータの現在値を調整するための第1のコントロールを、ユーザインタフェース上の第3のロケーションからユーザインタフェース上の(例えば、第3のロケーションとは異なる)第4のロケーション(及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトの1つ以上)に移動させる。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの第1のパラメータを編集するために入力が第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、第2のパラメータの現在値を調整するための第2のコントロールをユーザインタフェース上の第1のロケーションから第2のロケーションに移動させることは、第1のメディア処理スタイルの第1のパラメータを編集するために入力が第2の選択可能なユーザインタフェースオブジェクトに向けられていなかったという視覚的フィードバックをユーザに提供し、ユーザが必要に応じて起こり得る誤りを訂正することを可能にし、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)を検出したことに応じて、及び入力が第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)に向けられているという判定に従って、コンピュータシステムは、第2のパラメータ(及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)の現在値を調整するための第2のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2)を表示することを中止する。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ入力が第1のメディア処理スタイルの第2のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、コンピュータシステムは、第1のパラメータ(例えば、及び/又は第1のメディア処理スタイルについての他の複数の選択可能なユーザインタフェースオブジェクトのうちの1つ以上)の現在値を調整するための第1のコントロールを表示することを中止する。第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトに入力が向けられたという判定に従って、第2のパラメータの現在値を調整するための第2のコントロールの表示を中止することは、第1のメディア処理スタイルの第1のパラメータを編集するための第2の選択可能なユーザインタフェースオブジェクトに入力が向けられなかったという視覚的フィードバックをユーザに提供し、ユーザが必要に応じて起こり得る誤りを訂正することを可能にし、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用してメディアの表現を表示している間、かつ第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する前に、第1のメディア処理スタイル(例えば、634a~634d)に対応する第1の識別子(例えば、636a~636d)(例えば、1つ以上の記号及び/又はテキスト(例えば、「標準」、「鮮やかな」)が表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750g)を検出したことに応じて、かつ第1のパラメータの現在値が変化したという判定に従って(例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の後、の後、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の、第1のメディア処理スタイルの第1のパラメータのデフォルト値(例えば、所定値)(例えば、0)とは異なる値(例えば、数値(例えば、-100-100)、及び/又はパーセンテージ)への(又はである)移動を検出したことに応じて(及び/又は第2のパラメータの現在値が変化したという判定に従って(例えば、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の後、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の、第1のメディア処理スタイルの第2のパラメータのデフォルト値とは異なる値への(又はである)移動を検出したことに応じて)、コンピュータシステムは、第3のメディア処理スタイル(例えば、634aa及び/又は634dd)(例えば、第1のメディア処理スタイル及び第2のメディア処理スタイルとは異なるメディア処理スタイル、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力が検出される前に予め定義されなかったメディア処理スタイル)に対応する第2の識別子(例えば、636aa及び/又は636dd)(例えば、1つ以上の記号及び/又はテキスト(例えば、「カスタム」、「カスタム-標準」、「カスタムー鮮やかな」))を表示する。いくつかの実施形態では、第2の識別子は、第1の識別子とは異なる(かつ第1の識別子を表示するのをやめる)。いくつかの実施形態では、第2の指示は、第1の識別子の一部(例えば、1つ以上の単語)を含む。いくつかの実施形態では、第2の識別子を表示している間、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた他の入力を検出する。いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた他の入力を検出したことに応じて、かつ第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータのデフォルト値であり、第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータのデフォルト値であるという判定に従って、コンピュータシステムは、第1の識別子を表示し(例えば、再表示し)、第2の識別子の表示を中止する。いくつかの実施形態では、第1のメディア処理スタイルは第3のメディア処理スタイルとは異なる。いくつかの実施形態では、第1のメディア処理スタイルは、所定のメディア処理スタイル(例えば、コンピュータシステムに向けられた入力を検出したことに応じて作成されないスタイル)であり、第3のメディア処理スタイルは、所定のメディア処理スタイルではない。第1のパラメータの現在値が第1のパラメータのデフォルト値とは異なる値に変化したという判定に従って第3のメディア処理スタイルに対応する第2の識別子を表示することは、第1のメディア処理スタイルの少なくとも1つのパラメータがメディア処理スタイルの少なくとも1つのパラメータのデフォルト値ではないように第1のメディア処理スタイルが編集されたという視覚的フィードバック、及び/又はユーザによってカスタマイズされたカスタムメディア処理スタイルが作成されたという視覚的フィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、ユーザインタフェースは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)を含む。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)を表示している間に、コンピュータシステムは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ及び/又はプレスアンドホールド入力/ジェスチャ、及び/又は音声入力))を検出する。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)を検出したことに応じて、コンピュータシステムは、(例えば、及び/又は第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータのデフォルト値に設定するため)第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、626d2bによって表される)を、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として表示する(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、626d2bによって表される)(例えば、数値(例えば、-100~100)、パーセンテージ)。(例えば、及び/又は第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第2のパラメータのデフォルト値に設定するため)第1のメディア処理スタイルの第2のパラメータの現在値の表現を、第1のメディア処理スタイルの第2のパラメータの第2のデフォルト値として表示する(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)(例えば、数値(例えば、-100~100)、パーセンテージ)。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のパラメータ及び/又は第2のパラメータの現在値の表現を表示することなく)第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として設定し、第1のメディア処理スタイルの第1のパラメータの現在値を第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値として設定する。いくつかの実施形態では、第1のパラメータのデフォルト値は、第2のパラメータのデフォルト値とは異なる。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの第1のパラメータの現在値が第1のパラメータのデフォルト値ではない値である、及び/又は第2のメディア処理スタイルの第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータのデフォルト値ではない値であるという判定に従ってのみ表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて(かつ、表示生成構成要素を介して、第1のパラメータの現在値を調整するための第1のコントロールを表示し、かつ/又は表示生成構成要素を介して、第2のパラメータの現在値を調整するための第2のコントロールを表示している間に)、コンピュータシステムは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトと同時に表示され、第1のパラメータの現在値を調整するための第1のコントロール(又は第2のパラメータの現在値を調整するための第2のコントロール)と同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトと同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750w)を検出したことに応じて、コンピュータシステムは、(例えば、図7W~7Xに関連して上述したように)第1のメディア処理スタイルの第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値へと変化する(例えば、時間と共に徐々に変化する)アニメーションを表示する。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値が第1のメディア処理スタイルの第2のパラメータの第2のデフォルト値に変化するアニメーションを表示する。いくつかの実施形態では、第1のメディア処理スタイル変更の第1のパラメータの現在値のアニメーションは、第1のメディア処理スタイル変更の第2のパラメータの現在値のアニメーションと同時に表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のパラメータについての第1のユーザインタフェースオブジェクトに変化する第1のコントロールのアニメーションを表示する。第1のメディア処理スタイルの第1のパラメータの現在値が第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に変化するアニメーションを表示することは、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力が第1のメディア処理スタイルの第1のパラメータの現在値を変化させたというフィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルの第1のパラメータの現在値の表現及び第1のメディア処理スタイルの第1のパラメータの現在値をデフォルト値として表示(及び/又は設定)することは、複数の入力の代わりに1つの入力を介してメディア処理スタイルをリセットする能力をユーザに提供し、これは、動作を実行するために必要な入力の数を低減する。
いくつかの実施形態では、プロンプト(例えば、768)は、第1のメディア処理スタイルの1つ以上のパラメータのうちの少なくとも1つがどのようにリセットされるかの指示(例えば、「暖かいにリセット」、「冷たいにリセット」、「中立にリセット」、「リッチにリセット」、及び/又は「ソフトにリセット」)で表示される(例えば、指示は、特性を含む)(例えば、「暖かさ」パラメータの特性である「暖かい及び/又は冷たい」及び/又は「トーン」パラメータの特性である「ソフト」などのパラメータの特性を示す単語)。第1のメディア処理スタイルの1つ以上のパラメータのうちの少なくとも1つがどのようにリセットされるかの指示を含むプロンプトを表示することは、1つ以上の追加の入力がユーザから受信された場合に、第1のメディア処理スタイルの1つ以上のパラメータが特定の方法で及び/又は特定のスタイルにリセットされるという視覚的フィードバックをユーザに提供し、これは、視覚的フィードバックを改善し、意図しない動作の実行を低減する。
いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクト(例えば、722)に向けられた入力(例えば、750w及び/又は750w1)を検出する前に、コンピュータシステムは、選択されると、第1の選択されたメディア処理スタイル(634a~634d)が適用された表現(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されるとスタイルセクションユーザインタフェースを表示させるユーザインタフェースオブジェクト)を表示させる(例えば、コンピュータシステムに切り替えを行わせる、又は第1の選択された個別のメディア処理スタイルが適用されずに表現を表示させる、第1のスタイルモードユーザインタフェースオブジェクト(例えば、602b)を表示する。いくつかの実施形態では、第1のスタイルモードユーザインタフェースオブジェクトは、(例えば、方法900及び/又は図6L及び図7Cに関連して上述したスタイルモードユーザインタフェースオブジェクト及び第2のスタイルモードユーザインタフェースオブジェクトに関連して上述した1つ以上の技術を使用して)第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観(例えば、602b)で表示される。いくつかの実施形態では、第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観(例えば、方法900及び/又は図6L及び図7Cに関連して上述したような第1の視覚的態様及び第2の視覚的態様を有する視覚的外観)で表示されている状態から、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に基づく第2の外観(例えば、方法900及び/又は図6L及び図7Cに関連して上述したような第1の視覚的態様及び第2の視覚的態様を有する視覚的外観)で表示されている状態へ移行する第1のスタイルモードユーザインタフェースオブジェクトのアニメーションを表示する。いくつかの実施形態では、アニメーションは、ある期間(例えば、0.01~10秒)にわたって生じる漸進的な遷移である。第1のメディア処理スタイルの第1のパラメータの現在値に基づく第1の外観で表示されている状態から、第1のメディア処理スタイルの第1のパラメータの第2のデフォルト値に基づく第2の外観で表示されている状態に遷移する第1のスタイルモードユーザインタフェースオブジェクトのアニメーションを表示することは、メディア処理スタイルをリセットすることがどのようにメディア処理スタイルを変更するか、及びメディア処理スタイルが変更されたことに関して、ユーザに視覚的フィードバックを提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロール(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を表示している間に、第1のコントロールに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の移動を検出したことに応じて、例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、音声入力)を検出したことに応じて(例えば、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出したことに応じて)、コンピュータシステムは、第1のパラメータの現在値(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を、第1のパラメータの第3の値から第1のパラメータの第4の値に変更する(例えば、第2のパラメータの現在値を変更することなく、第1のパラメータの第3の値の表現の表示を第1のパラメータの第4の値の表現の表示に置き換える)。いくつかの実施形態では、第1のコントロールに向けられた入力は、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力と同じである。いくつかの実施形態では、第3の値は、第4の値とは異なる。いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを表示している間、コンピュータシステムは、第1のコントロールに向けられた入力の移動を検出する。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、第2のコントロールに向けられた入力の移動を検出したことに応じて(例えば、及び/又は第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた入力の移動を検出したことに応じて)、コンピュータシステムは、(例えば、第1のパラメータの現在値を変更することなく)第2のパラメータの現在値を第2のパラメータの第3の値から第2のパラメータの第4の値に変更する(例えば、第1のパラメータの第3の値の表現の表示を第1のパラメータの第4の値の表現の表示に置き換える)。いくつかの実施形態では、第1のコントロールに向けられた入力は、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力と同じである。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、コンピュータシステムは、第2のコントロールに向けられた入力の移動を検出する。いくつかの実施形態では、第3の値は、第4の値とは異なる。第1のコントロールに向けられた入力の動きを検出したことに応じて、第1のパラメータの現在値を第1のパラメータの第3の値から第1のパラメータの第4の値に変更することは、入力の移動に基づいて第1のパラメータの現在値が設定される制御をユーザに提供し、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のパラメータの現在値を調整するための第1のコントロールを表示している間に、かつ第1のコントロールに向けられた入力(例えば、750a、750d、750g、750k、750n、及び/又は750t)の移動を検出したことに応じて、コンピュータシステムは、(例えば、第1のコントロールに向けられた入力の終了を検出する前及び/又は後に)修正された第1のメディア処理スタイル(例えば、634a~634d)を使用してメディアの第2の表現(例えば、630)を表示する。いくつかの実施形態では、修正された第1のメディア処理スタイル(例えば、634aa及び/又は634dd)を使用するメディアの第2の表現は、第1のメディア処理スタイルを使用するメディアの表現とは異なる。いくつかの実施形態では、第1のメディア処理スタイルを使用するメディアの第2の表現は、第1のパラメータの変更された値(例えば、第4の値)に基づいて表示され、第1のメディア処理スタイルを使用するメディアの表現は、第1のコントロールに向けられた入力が検出される前の値(例えば、第3の値)に基づいて表示される。いくつかの実施形態では、第2のパラメータの現在値を調整するための第2のコントロールを表示している間、かつ第2のコントロールに向けられた入力のその移動を検出したことに応じて、コンピュータシステムは、(例えば、第2のコントロールに向けられた入力の終了を検出する前及び/又は後に)第1のメディア処理スタイルを使用してメディアの第3の表現を表示し、第1のメディア処理スタイルを使用するメディアの第3の表現は、第1のメディア処理スタイルを使用するメディアの表現及び第1のメディア処理スタイルを使用するメディアの第2の表現とは異なる。第1のコントロールに向けられた入力の移動が検出されたことに応じて、第1のメディア処理スタイルを使用してメディアの第2の表現であって、第1のメディア処理スタイルを使用したメディアの第2の表現が、第1のメディア処理スタイルを使用したメディアの表現とは異なる、第2の表現を表示することは、第1のメディア処理スタイルがメディアの表現に適用される方法に入力がどのように影響を与えたかに関するフィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用してメディアの表現(例えば、630)を表示している間、コンピュータシステムは、メディアをキャプチャするための第1の要求(例えば、650a、650c、650j)を検出する。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第1のメディアをキャプチャする。いくつかの実施形態では、修正された第1のメディア処理スタイルを使用してメディアの第2の表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャする第2の要求を検出する。いくつかの実施形態では、メディアをキャプチャする第1の要求を検出したことに応じて、コンピュータシステムは、第2のメディアをキャプチャする。いくつかの実施形態では、第1のメディア及び第2のメディアをキャプチャした後、コンピュータシステムは、(例えば、図7A~図7Xに関連して上述したように)第1のメディア処理スタイルを有する第1のメディアの表現(例えば、680c)を表示し、(例えば、図7A~7Xに関連して上述したように)修正された第1のメディア処理スタイルを有する第2のメディアの表現(例えば、680d)を表示する。いくつかの実施形態では、コンピュータシステムは、入力(例えば、移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、第1のメディアの表現に向けられた非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)又は入力(移動入力)を検出したことに応じて(及び/又は、いくつかの実施形態では、第2のメディアの表現に向けられた非移動入力(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて)、第1のメディアの表現の表示から第2のメディアの表現の表示に遷移させる(又はその逆)。いくつかの実施形態では、第1のメディアの表現及び現在のメディアの表現は、メディアビューアインタフェース(例えば、図6A~図6U)に順次表示される。いくつかの実施形態では、第1のメディアの表現及び第2のメディアの表現は、メディアビューアインタフェース及び/又はメディアグリッド内に(例えば、メディアの複数の他の表現の間で)同時に表示される。
いくつかの実施形態では、ユーザインタフェースは、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクト(例えば、610)を含む。いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)及びメディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクト(例えば、610)を使用してメディアの表現(例えば、630)を表示している間に、コンピュータシステムは、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力)を(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出したことに応じて)検出する。いくつかの実施形態では、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、650a、650c、650j)を検出したことに応じて、コンピュータシステムは、(例えば、第1のメディア処理スタイルのパラメータの現在値に基づいて)適用された第1のメディア処理スタイルを有する第3のメディアをキャプチャする。いくつかの実施形態では、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出している間に、及び/又は表現に向けられた入力を検出している間に(例えば、方法900及び図6A~図6Pに関連して上述したように、メディア処理スタイルを切り替える要求として)、コンピュータは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトに向けた入力が検出されるとき(例えば、その直前/直後に)、メディアの表現の所定の部分(例えば、25%、30%、40%、50%、60%、75%)よりも多くのメディアの表現及び/又は別のメディア処理スタイルが適用されたメディアの表現(例えば、方法900及び図6A~図6Pに関連して上述した部分)の他の部分よりも多い部分に適用されるメディア処理スタイルが適用されたメディアのキャプチャを開始する。メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて適用される第1のメディア処理スタイルを有するメディアをキャプチャすることは、ユーザが、現在選択されているメディア処理スタイルが適用されるメディアをキャプチャすることを可能にし、これは、ユーザインタフェースを雑然とさせることなく追加の制御オプションを提供する。
いくつかの実施形態では、第1のメディア処理スタイルを使用して表現を表示することの一部として、コンピュータシステムは、異なるタイプの識別されたオブジェクトと比較した1つのタイプの識別されたオブジェクト(例えば、非被写体と比較した被写体(例えば、人物))について、表現の1つ以上のオブジェクト(例えば、630内の人物)(例えば、人物及び/又は人物の顔)(例えば、識別可能なオブジェクト)に対して、1つ以上のオブジェクトを含まない第1の部分の一部に対してと異なるように(例えば、異なるセットの視覚的パラメータ(例えば、色特性(例えば、暖かさ、トーン、色相、輝度、彩度、陰影、色合い、彩度、冷たさ、及び/又は調和)及び/又は深度パラメータの異なるセットを使用して)第1のメディア処理スタイルを適用する(例えば、表現の第2の部分(例えば、オブジェクトを含まないサブセット)とは異なる視覚的外観で表現の第1の部分(例えば、オブジェクトを含むサブセット)を表示する)。
いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアの表現(例えば、630)に向けられた非移動入力(及び/又は、いくつかの実施形態では、(例えば、タップ入力、回転ドラッグジェスチャ、及び/又はプレスアンドホールドジェスチャ)を検出したことに応じて、第1の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)(例えば、移動入力)を検出する。いくつかの実施形態では、メディアの表現を対象とする第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)の表示を中止する。いくつかの実施形態では、メディアの表現に向けられた第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルを使用してメディアの表現の一部(例えば、メディアの表現に向けられた入力が検出される前に第1のメディア処理スタイルを使用して表示されたメディアの表現の一部)を表示する。いくつかの実施形態では、メディアの表現に向けられた第1の入力を検出したことに応じて、コンピュータシステムは、第4のメディア処理スタイルの第2のパラメータの現在値の表現を表示し、第1のメディア処理スタイルの第2のパラメータの現在値の表現の表示を中止する。いくつかの実施形態では、第4のメディア処理スタイルの第1のパラメータの現在値の表現を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を第4のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)に変更するアニメーション(例えば、スライドアニメーション、ディゾルブアニメーション、及び/又はフェードイン/アウトアニメーション)を表示する。いくつかの実施形態では、第4のメディア処理スタイルの第2のパラメータの現在値の表現を表示することの一部として、コンピュータシステムは、第1のメディア処理スタイルの第2のパラメータの現在値の表現を第4のメディア処理スタイルの第2のパラメータの現在値の表現に変更するアニメーション(例えば、経時的に漸進的なアニメーション)を表示する。第1のメディア処理スタイルの第1のパラメータの現在値の表現を第4のメディア処理スタイルの第1のパラメータの現在値の表現に変更するアニメーションを表示することは、第1のメディア処理のユーザインタフェースオブジェクトが第4のメディア処理スタイルのユーザインタフェースオブジェクトに変更されているという視覚的フィードバックをユーザに提供し、これは起こり得る誤りを低減する可能性があり、改善された視覚的フィードバックを提供する。メディアの表現に向けられた第1の入力を検出したことに応じて、第4のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現の表示を中止することにより、コンピュータシステムは、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することができ、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)を表示している間、コンピュータシステムは、1つ以上の入力デバイスを介して、メディアの表現に向けられた第2の入力(例えば、650d、650k1、650k2、750j、及び/又は750q)を検出する。いくつかの実施形態では、メディアの表現に向けられた第2の入力を検出したことに応じて、コンピュータシステムは、第5のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)を使用してメディアの表現の一部(例えば、メディアの表現に向けられた入力が検出される前に第1のメディア処理スタイルを使用して表示されたメディアの表現の一部)を表示する。いくつかの実施形態では、第5のメディア処理スタイルを使用してメディアの表現の一部を表示している間に、第5のメディア処理スタイルを使用してメディアの表現の一部が表現(例えば、630)(及び/又は表示生成構成要素)(表現及び/又は表示生成構成要素の特定の部分(例えば、その中央)に位置する)の閾値量(例えば、25%、30%、40%、50%、51%、60%、又は75%)よりも大きいという判定に従って、コンピュータシステムは、第5のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示し、第1のメディア処理スタイルの第1のパラメータの現在値の表現(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)を表示することを中止する。いくつかの実施形態では、第5のメディア処理スタイルを使用してメディアの表現の一部を表示している間に、第5のメディア処理スタイルを使用するメディアの表現の一部が表現(及び/又は表示生成構成要素)の閾値量(例えば、25%、30%、40%、50%、51%、60%、又は75%)よりも大きくない(及び/又は表現及び/又は表示生成構成要素の特定の部分(例えば、その中央)に位置する)という判定に従って、コンピュータシステムは、第1のメディア処理スタイルの第1のパラメータの現在値の表現を表示し続け、第5のメディア処理スタイルの第1のパラメータの現在値の表現を表示することを見合わせる。第5のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、所定の条件が満たされたときに第1のメディア処理スタイルの第1のパラメータの現在値の表現の表示を中止することにより、コンピュータシステムは、メディアの表現に適用されているメディア処理スタイルに関係しないユーザインタフェースオブジェクトを供給することなく、メディアの表現に適用されているメディア処理スタイルに関係する関連ユーザインタフェースオブジェクトを供給することができ、更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を実行し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、626d2)に向けられた入力(例えば、750a、750d、750g、750k、及び/又は750t)を検出したことに応じて(かつ第1のメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2bによって表される)が、第1のメディア処理スタイル(例えば、634a~634d)の1つ以上のパラメータの1つ以上のデフォルト値と異なる(例えば、及び/又は実質的に異なる)という判定に従って)、コンピュータシステムは、第1のメディア処理スタイルと異なる第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)(例えば、第1のメディア処理スタイルに対応する(例えば、第1のメディア処理スタイルとパラメータのセットを共有するが、少なくとも1つの他のパラメータにおいて第1のメディア処理スタイルと異なる第1のメディア処理スタイルの修正バージョンである)カスタムメディア処理スタイル)を、利用可能なメディア処理スタイルのセット(例えば、634a~634d)に追加する。いくつかの実施形態では、ユーザインタフェースは、1つ以上のメディア処理スタイルに対応する1つ以上の指示を含む。いくつかの実施形態では、1つ以上の指示は、第1のメディア処理スタイルに対応する第1の指示を含む。いくつかの実施形態では、コンピュータシステムは、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて、かつ第1のメディア処理スタイルの1つ以上のパラメータに関する少なくとも1つの現在値が第1のメディア処理スタイルの1つ以上のパラメータに関する1つ以上のデフォルト値と異なるという判定に従って、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイル(例えば、第1のメディア処理スタイルに対応するカスタムメディア処理スタイル)に対応する複数の選択可能なユーザインタフェースオブジェクトを表示し、第1のカスタムメディア処理スタイルに対応する第2の指示を1つ以上の指示に追加する(例えば、第2の指示を表示する、第2の指示を1つ以上の指示の一部として(例えば、1つ以上の指示の間に、1つ以上の指示と一直線に)表示する)。いくつかの実施形態では、第1のカスタムメディア処理スタイルを追加することは、(例えば、他のユーザインタフェースにおいて、アプリケーションを終了/終了した後、第1のカスタムメディア処理スタイルが将来の使用のために利用可能に構成されなかった場合に第1のカスタムメディア処理スタイルが使用のために利用可能にならない特定の期間が経過した後)第1のカスタムメディア処理スタイルを将来の使用のために利用可能に構成することを含む。所定の条件が満たされたときに利用可能なメディア処理スタイルのセットに第1のカスタムメディア処理スタイルを追加することにより、ユーザは、スタイルを作り直すための入力を提供することなくカスタマイズされたスタイルを再利用することができ、ユーザがカスタマイズされていないメディア処理スタイルを編集することが防止され、これにより、動作を実行するために必要な入力の数が低減される。
いくつかの実施形態では、利用可能なメディア(例えば、634a~634d、634aa、及び/又は634dd)処理スタイルのセットが第1のカスタムメディア処理スタイルを含んでいる間に、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第1の要求(例えば、750n及び/又は750w)を検出する。いくつかの実施形態では、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第1の要求を検出したことに応じて(かつ、例えば、第1の要求が実施された後、第1のカスタムメディア処理スタイルが(例えば、利用可能なメディア処理スタイルのセットにおいて)1つ以上の他の利用可能なメディア処理スタイルと同じ(又は実質的に同じ)であろうという判定に従って)(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータが、他の利用可能なメディア処理スタイルの1つ以上の1つ以上のパラメータと同じである)、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を利用可能なメディア処理スタイルのセットから削除する(例えば、第2の指示の表示を中止する、及び/又は第2の指示を1つ以上の指示の一部であるとして表示することを中止する)。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第1の入力を検出し、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第1の入力を検出する。いくつかの実施形態では、第1の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルが利用可能なメディア処理スタイルのセット内の1つ以上の他の利用可能なメディア処理スタイルと同じ(又は実質的に同じ)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する第2の指示を削除する。いくつかの実施形態では、第1のカスタムメディア処理スタイルを削除することは、(例えば、他のユーザインタフェースにおいて、アプリケーションを終了/終了した後、第1のカスタムメディア処理スタイルが将来の使用のために利用可能であるように構成されなかった場合に第1のカスタムメディア処理スタイルが使用のために利用可能でない特定の期間が経過した後)第1のカスタムメディア処理スタイルを将来の使用のために利用可能でないように構成することを含む。所定の条件が満たされたときに、利用可能なメディア処理スタイルのセットから第1のカスタムメディア処理スタイルを削除することは、コンピュータシステムが、重複している可能性がある、及び/又は必要とされないスタイルを自動的に削除することを可能にし、これは、動作を実行するために必要とされる入力の数を低減する。
いくつかの実施形態では、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を利用可能なメディア処理スタイルのセット(例えば、634a~634d、634aa、及び/又は634dd)に追加した後、コンピュータシステムは、個別のメディア処理スタイル(例えば、634a及び/又は634d)を使用して表示されるメディアの個別の表現(例えば、630)を含む個別のユーザインタフェースを表示する。
いくつかの実施形態では、個別のメディア処理スタイル(例えば、634a及び/又は634d)を使用して表示されるメディアの個別の表現(例えば、630)を含む個別のユーザインタフェースを表示している間、かつ利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を含む間、コンピュータシステムは、利用可能なメディア処理スタイルのセットからの次の(又は前の)利用可能なメディア処理スタイルを使用してメディアの個別の表現を表示する要求を検出する。いくつかの実施形態では、利用可能なメディア処理スタイルのセットからの次の利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出することの一部として、コンピュータシステムは、(例えば、上述したように)個別のユーザインタフェース上の入力を検出する。いくつかの実施形態では、メディアの個別の表現が個別のメディア処理スタイルを使用して表示されている間に、次の(例えば、又は前の)利用可能なメディア処理スタイルを使用してメディアの個別の表現を表示する要求(例えば、750n)を検出したことに応じて、コンピュータシステムは、個別のメディア処理スタイルが第1のメディア処理スタイルであるという判定に従って、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を使用してメディアの個別の表現の少なくとも一部を表示し、個別のメディア処理スタイルが第1のメディア処理スタイルではないという判定に従って、(例えば、図7O~図7Pに関連して上述したように)第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を使用してメディアの個別の表現の少なくとも一部を表示することを見合わせる。いくつかの実施形態では、第1のカスタムメディア処理スタイルを削除した後、コンピュータは、第1のメディア処理スタイルを使用して表示されるメディアの個別の表現を含む個別のユーザインタフェースを表示する。いくつかの実施形態では、第1のメディア処理スタイルを使用して表示されるメディアの個別の表現を含むユーザインタフェースを表示している間に、かつ利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルではない間に、コンピュータシステムは、次の利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出する。いくつかの実施形態では、次に利用可能なメディア処理スタイルを使用してメディアの表現を表示する要求を検出したことに応じて、コンピュータシステムは、第1のカスタムメディア処理スタイルを使用してメディアの表現の少なくとも一部を表示する。いくつかの実施形態では、1つ以上の指示は、第6のメディア処理スタイルに対応する第3の指示を含む。いくつかの実施形態では、1つ以上の指示は、第2の指示が第1の指示に隣接し(例えば、隣、より近く、右、左、上、及び/又は下)、第3の指示に隣接しないように表示される。第1のカスタムメディア処理スタイルを使用してメディアの表現の少なくとも一部を表示することは(例えば、規定された条件が満たされるとき)、第1のカスタム写真スタイルが第1のメディア処理スタイルについてのカスタマイズされたスタイルであり、他のメディア処理スタイルではないというフィードバックをユーザに提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)を含む間、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第2の要求(例えば、750a、750d、750g、750k、及び/又は750t)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第2の要求を検出したことに応じて(例えば、第1のカスタムメディア処理スタイルが、第2の要求を実行した後に、1つ以上の他の利用可能なメディア処理スタイルと同じでない(又は実質的に同じでない)という判定に従って)、コンピュータシステムは、(例えば、入力750a及び/又は入力750tに関連して上述したように)第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新する(例えば、626a1、626a2、626b1、626b2、626c1、626c2、626d1、及び/又は626d2によって表される)(及び(例えば、追加のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに含めることなく)第1のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに含めることを継続する)。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化した(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる)(例えば、第2の入力及び/又は第1のコントロールに向けられた1つ以上の入力を介して変化した)という判定に従って、コンピュータシステムは、1つ以上の指示に第4の指示を追加せず(例えば、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力が検出される前に表示されたのと同じ数の指示を継続する)、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて、第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化したという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する1つ以上の指示の一部として第2の表示を含み続ける(例えば、第2の指示を表示し続ける)。第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第2の要求を検出したことに応じて、第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新することは、利用可能なメディア処理スタイルのセットを通してナビゲートするために必要とされる入力の数を低減し、1つ以上のパラメータが更新された後に第1のカスタムメディア処理スタイルを再構成するために必要とされる入力の数を低減し、1つ以上の動作を実行するために必要とされる入力の数を低減する。
いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルを含む間に、コンピュータシステムは、(例えば、入力750a及び/又は入力750tに関連して上述したように)第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求(例えば、750a及び/又は750t)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて(かつ、例えば、第3の要求を実行した後の第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイルと同じでない(又は実質的に同じでない)という判定に従って)、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータ(及び/又は第1のメディア処理スタイルの1つ以上のパラメータ)を更新することなく(例えば、入力750a及び/又は入力750tに関連して上述したように)(例えば、第1のメディア処理スタイルに対応する)第2のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに追加する。いくつかの実施形態では、1つ以上の指示が、第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルに対応する第2の指示を含み、かつ第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトを表示している間に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力(例えば、タップ入力(例えば、タップジェスチャ)(例えば、シングルタップ入力、ダブルタップ入力))を検出する(及び/又は、いくつかの実施形態では、非タップ入力/ジェスチャ(例えば、移動入力/ジェスチャ、プレスアンドホールド入力/ジェスチャ、及び/又は音声入力)を検出する)。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化した(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる)(例えば、第2の入力及び/又は第1のコントロールに向けられた1つ以上の入力を介して変化した)という判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルとは異なる第2の個別のメディア処理スタイルに対応する1つ以上の指示に第5の指示を追加し(例えば、第2の指示を表示し続け)、(例えば、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新することを見合わせている間、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第1のカスタムメディア処理スタイルの第1のパラメータの現在値を更新することなく)第1のカスタムメディアスタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力に基づいて第2のカスタムメディア処理スタイルの第1のパラメータの現在値を更新する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの複数の選択可能なユーザインタフェースオブジェクトに向けられた第2の入力を検出したことに応じて、かつ第1のカスタムメディア処理スタイルの第1のパラメータの現在値が変化していないという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイルに対応する1つ以上の指示の一部として第2の指示を含み続ける(例えば、第2の指示を表示し続ける)。いくつかの実施形態では、第1のカスタムメディア処理スタイル及び第2のカスタムメディア処理スタイルは両方とも、利用可能なメディア処理スタイルのセット内の第1のメディア処理スタイルと第2のメディア処理スタイルとの間にある。第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて、第1のカスタムメディア処理スタイルの1つ以上のパラメータを更新することなく、利用可能なメディア処理スタイルのセットに第2のカスタムメディア処理スタイルを追加することは、第1のカスタムメディア処理スタイルを再構成するために必要とされる入力の数を低減し、これは、1つ以上の動作を実行するために必要とされる入力の数を低減し、写真スタイルを繰り返し再構成する必要性を低減するための追加のオプションをユーザに提供する。
いくつかの実施形態では、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)及び第2のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)は、同じ個別のテキスト識別子(例えば、636aa及び/又は636dd)(例えば、説明又は名前(例えば、鮮やかな暖かい、鮮やかな冷たい、暖かい、冷たい、中立、ソフト暖かい、ソフト冷たい、鮮やかな、及び/又はソフト))を有する。いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースを表示している間に、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)がメディアの表現に適用されているという判定に従って、コンピュータは、同じ個別のテキスト識別子を、第1のカスタムメディア処理スタイルのパラメータの指示(例えば、626a及び/又は626d)と同時に表示する。いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースを表示している間に、かつ第2のカスタムメディア処理スタイルがメディアの表現に適用されているという判定に従って、コンピュータシステムは、同じ個別のテキスト識別子(例えば、636aa及び/又は636dd)を、第2のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)のパラメータの指示(例えば、626a及び/又は626b)と同時に表示する。いくつかの実施形態では、(例えば、図7C、7D、及び7Mに関連して上述したように)第1のカスタムメディア処理スタイルのパラメータの指示は、第2のカスタムメディア処理スタイルのパラメータのインジケータとは異なる(例えば、異なる値である)。特定のメディア処理スタイル(例えば、別のメディア処理スタイルと同じ識別子を有するメディア処理スタイル)についてのパラメータの指示と同時に同じ個別の識別子を表示することは、どのメディア処理スタイルが適用されているか(例えば、及び/又は同じ識別子を有するメディア処理スタイルがどのように適用されているかに関する差異)をユーザに識別させる視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、(例えば、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトに向けられた入力(例えば、750a、750d、750g、750k、及び/又は750t)を検出したことに応じて、かつ第1のメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値と異なる(例えば、及び/又は実質的に異なる)という判定に従って、(例えば、図7C及び図7Fに関連して上述したように)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の1つ以上のパラメータの少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値との間の第1の差が第1の差(例えば、正及び/又は負の量(例えば、-100から100の間の値)の差)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)についての第1のテキスト識別子(例えば、636aa及び/又は636dd)(例えば、鮮やかな-暖かい、鮮やかな-冷たい、暖かい、冷たい、中立、ソフト-暖かい、ソフト-冷たい、鮮やかな、及び/又はソフトなどの記述又は名前)を表示し(例えば、第1の識別子は1つ以上のパラメータ及び/又は第1の差に基づく)、(例えば、図7C~7Fに関連して上述したように)第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)の1つ以上のパラメータの少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータの1つ以上のデフォルト値との間の差が、第1の差と異なる(異なる値である)第2の差(例えば、正及び/又は負の量(例えば、-100から100の間の値)の差)であるという判定に従って、コンピュータシステムは、第1のカスタムメディア処理スタイル(例えば、634aa及び/又は634dd)についての第2のテキスト識別子(例えば、鮮やかな-暖かい、鮮やかな-冷たい、暖かい、冷たい、中立、ソフト-暖かい、ソフト-冷たい、鮮やかな、及び/又はソフトなどの記述又は名前)を表示する。いくつかの実施形態では、第2のテキスト識別子(例えば、636aa及び/又は636dd)は、(例えば、図7C及び7Fに関連して上述したように)第1のテキスト識別子(例えば、636aa及び/又は636dd)とは異なる。第1のメディア処理スタイルの1つ以上のパラメータについての少なくとも1つの現在値と、第1のメディア処理スタイルの1つ以上のパラメータについての1つ以上のデフォルト値との間の差に基づいて識別子を表示することは、メディア処理スタイルの変更バージョンがメディア処理スタイルのデフォルトバージョンとどのように異なるかをユーザに知らせる視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイル(例えば、634a~634d、634aa、及び/又は634dd)は、(例えば、図7W、7W1、及び/又は7Xに関連して上述したように)第1のテキスト識別子及び第2のテキスト識別子とは異なる第3のテキスト識別子を有する。いくつかの実施形態では、利用可能なメディア処理スタイルのセットが第1のカスタムメディア処理スタイルを含む間に、コンピュータシステムは、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求(例えば、750n、750w及び/又は750w1)を検出する。いくつかの実施形態では、第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更するための第3の要求を検出したことに応じて、及び第1の要求が実施された後に第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイル(例えば、利用可能なメディア処理スタイルのセットにおける)(例えば、第1のメディア処理スタイル)と同じ(又は実質的に同じ)である(例えば、第1のカスタムメディア処理スタイルの1つ以上のパラメータが、1つ以上の他の利用可能なメディア処理スタイルの1つ以上のパラメータと同じである)という判定に従って、(例えば、第1のカスタムメディア処理スタイルをリセットする要求を検出したことに応じて)(例えば、第1のメディア処理スタイルの1つ以上のパラメータをリセットするために選択可能なユーザインタフェースオブジェクトに向けられた入力を検出したことに応じて)、コンピュータシステムは、(例えば、図7W、7W1、及び/又は7Xに関連して上述したように)(例えば、第1の識別子及び第2の識別子を表示することなく)第3のテキスト識別子(例えば、636a~636d、636aa、及び/又は636dd)を表示する。いくつかの実施形態では、カスタムメディア処理スタイルがリセットされると、コンピュータシステムは、スタイル名を元の名前に戻すように変更する。第3の識別子(例えば、メディア処理スタイルが変更された元のメディア処理スタイルの識別子)を表示することは、メディア処理スタイルを作成したメディア処理スタイルをユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクト(例えば、626a1b、626a2b、626b1b、626b2b、626c1b、626c2b、626d1b、及び/又は626d2b)は、第1のメディア処理スタイルを編集する要求(例えば、650b)を検出したことに応じて(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間)表示される。いくつかの実施形態では、複数の選択可能なユーザインタフェースオブジェクトを表示する前に、コンピュータシステムは、1つ以上の入力デバイスを介して、第1のメディア処理スタイルを編集する要求(例えば、第1のメディア処理スタイルが視覚的コンテンツにどのように適用されているかを編集するための要求)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出することの一部として、コンピュータシステムは、(例えば、方法900及び図6A~図6Cに関連して上述したように)メディアの表現上の移動入力(例えば、及び/又は、いくつかの実施形態では、プレスアンドホールド入力、ピンチ入力などの非移動入力)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出することの一部として、コンピュータシステムは、(例えば、方法900及び図6A~図6Cに関連して上述したように)第1のメディア処理スタイルの表現を表示するためのユーザインタフェースオブジェクト上のタップ入力(及び/又はプレスアンドホールド入力、ピンチ入力などの非タップ入力)を検出する。いくつかの実施形態では、第1のメディア処理スタイルを編集する要求を検出したことに応じて(例えば、第1のメディア処理スタイルを使用して表示されるメディアの表現を表示している間)、コンピュータシステムは、複数の選択可能なユーザインタフェースオブジェクトを同時に表示する。いくつかの実施形態では、個別のカスタマイズされたスタイルのパラメータが、利用可能なメディア処理スタイルのセット内の別のメディア処理スタイルと一致する場合であっても、1つのメディア処理スタイルについての個別のカスタマイズされたスタイルは、表示される、及び/又は利用可能なメディア処理スタイルのセット内に含まれる。
いくつかの実施形態では、メディアの表現(例えば、630)を含むユーザインタフェースは、選択されると、第2の選択されたメディア処理スタイルが適用された状態で表現を表示させる(例えば、コンピュータシステムをトグルさせる)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)(例えば、スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクト、及び/又は選択されると、スタイル選択ユーザインタフェースを表示させるユーザインタフェースオブジェクト)(例えば、又は第2の選択されたメディア処理スタイルを適用せずに、表示される表現を表示させる)。いくつかの実施形態では、コンピュータシステムは、(例えば、第1のパラメータの現在値を調整するための第1のコントロール又は第2のパラメータの現在値を調整するための第2のコントロールが表示されている間に)個別の入力(例えば、750a、750d、750g、750k、750n、750r、750t、750w、及び/又は750w1)例えば、移動入力(例えば、スワイプジェスチャ及び/又はドラッグジェスチャ))(及び/又はいくつかの実施形態では、非移動入力(例えば、タップ入力、プレスアンドホールドジェスチャ、及び/又は音声入力)を検出したことに応じて)を検出する。いくつかの実施形態では、個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、コンピュータシステムは、(例えば、方法900に関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む線(例えば、時計回り及び/又は反時計回りの方向に示される)を変更し、線は、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある))(例えば、図6L、7C、及び/又は7Mに関連して上述したように)(例えば、個別の入力が検出される前に表示されなかった外観で第2のスタイルモードユーザインタフェースオブジェクトを表示する)。個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することは、入力がメディア処理スタイルがメディアの表現にどのように適用されているかについての変更を引き起こしたコトをユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観は、(例えば、図6L、図7C、及び/又は図7Mに関連して上述したように)第1のパラメータの現在値が修正されるにつれて徐々に変更される。いくつかの実施形態では、個別の入力は、第1の大きさ(例えば、速度及び/又は加速度)を有する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの外観は、第1の大きさに基づく第2の大きさで変更される。いくつかの実施形態では、個別の入力がより速く(例えば、又は代替的に、より遅く)移動させられる及び/又は加速されると、第2のスタイルモードユーザインタフェースオブジェクトの外観は、より速い(例えば、又は代替的に、より遅い)速度で移動させられる及び/又は加速される。個別の入力を検出したことに応じて、かつ個別の入力が第1のパラメータの現在値を調整するための第1のコントロールに向けられているという判定に従って、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を徐々に変更することは、ユーザインタフェース要素を突然変更するときに引き起こされ得る視覚的混乱を低減しながら、入力がメディア処理スタイルがメディアの表現にどのように適用されているかの変更を引き起こしたことをユーザに通知する視覚的フィードバックを提供し、これは、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することの一部として、個別の入力が第1の方向例えば、上/下/右/左方向)であるという判定に従って、コンピュータシステムは、(第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の視覚的態様(例えば、602bの周囲の線及び/又は602bの色)(例えば、少なくとも一部分の色、陰影、及び/又は色合い)(いくつかの実施形態では、その部分は、第2のメディア処理スタイルの境界(例えば、それを囲む線)を含む)を(例えば、図6F及び図6Lに関連して説明したように)第1の方式で更新する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することの一部として、個別の入力が第1の方向とは異なる第2の方向(例えば、上/下/右/左方向)であるという判定に従って、コンピュータシステムは、(例えば、図6F及び図6Lに関連して説明したように)第1の方式とは異なる第2の方式で第1の視覚的態様を更新する。いくつかの実施形態では、第1の方式は、第2の方式の反対ではない。いくつかの実施形態では、第1の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第1の視覚的態様の長さ及び/又はサイズを(例えば、時計回り方向に)増加させ(又は代替として、減少させ)、第2の方式で第1の視覚的側面を更新することの一部として、コンピュータシステムは、第1の視覚的態様の長さ及び/又はサイズを(例えば、反時計回り方向に)減少させる(又は代替として、増加させる)。いくつかの実施形態では、第1の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトから、より多くの第1の色(例えば、赤色及び/又は黒色)を追加し、及び/又はより多くの第2の色(例えば、青色及び/又は白色)を削除し、第2の色は、第1の色とは異なる。いくつかの実施形態では、第2の方式で第1の視覚的態様を更新することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトから、より多くの第2の色(例えば、赤色及び/又は黒色)を追加し、及び/又はより多くの第1の色(例えば、青色及び/又は白色)を削除する。個別の入力の方向に基づくように第1の視覚的態様を更新することは、第1の入力がメディア処理スタイルのパラメータをどのように変更しているかについてユーザに通知する視覚的フィードバックを提供し、これは改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクト(例えば、602b)の第1の外観を変更することの一部として、コンピュータシステムは、(例えば、図7C~7Fの602bによって示されるような)開口部を有する開放形状である視覚的要素で第2のスタイルモードユーザインタフェースオブジェクトを表示する。いくつかの実施形態では、個別の入力が第1のパラメータの第2の現在値(例えば、626a1及び/又は626a2)を第1のパラメータの最大値(例えば、100、150、200、256、及び/又は300)に設定したという判定に従って、(例えば、図7C~7Fに関して上述したように)開口部(例えば、間隙)は、開放形状の第1の側(例えば、形状の中点、中心、及び/又は原点に対する側(例えば、左側)に存在する(例えば、開放形状の第2の側に開口部を有さない)。いくつかの実施形態では、個別の入力が、第1のパラメータの第2の現在値を、第1のパラメータの最大値とは異なる第1のパラメータの最小値(例えば、100、150、200、256、及び/又は300)に設定したという判定に従って、開口部は、例えば、図7C~図7Fの602bによって示されるように、第1の側(例えば、開放形状の第1の側に開口部を有さない)とは異なる、開放形状の第2の側(例えば、形状の中点、中心、及び/又は原点に対する側)(例えば、右側)に存在する(第1の開放形状の第2の側に開口部を有さない)。形状が、第2の現在値が第1のパラメータの最小値であるか最大値であるかに基づいて異なる側に表示される開口部を有する、開放形状である視覚的要素を表示することは、第1のパラメータの最小値又は最大値を示すポジションに到達する前に視覚的要素が進行した方向(例えば、時計回り方向及び/又は反時計回り方向)に関する視覚的フィードバックをユーザに提供し、改善された視覚的フィードバックを提供する。
いくつかの実施形態では、第2スタイルモードユーザインタフェースオブジェクト(602b)の外観を変更することの一部として、コンピュータシステムは、(例えば、第1のメディア処理スタイルの第1パラメータの値が第2のメディア処理スタイルの第1パラメータの値と異なるという判定に基づいて、第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様を変更することなく)第2スタイルモードユーザインタフェースオブジェクトの第3の視覚的態様(例えば、602b及び/又は602bの線の色(例えば、図6F、図6L、図7C、図7D、及び/又は図7Mに関連して上述したような)(例えば、少なくとも一部の色、陰影、及び/又は色合い)(いくつかの実施形態では、第2のメディア処理スタイルの境界(例えば、それを囲む線)を含む部分))の表示を変更する。
いくつかの実施形態では、個別の入力を検出したことに応じて、かつ個別の入力(例えば、750a、750d、750g、750k、750n、750r、及び/又は750t)が第1のパラメータ(例えば、626a1c及び/又は626a2c)の現在値を調整するための第1のコントロールに向けられているという判定に従って、コンピュータシステムは、(例えば、方法900及び/又は図6F及び図6Lに関連して上述したように)第2のスタイルモードユーザインタフェースオブジェクトの第2の外観(例えば、602bを囲む色及び/又は線)(例えば、色、サイズ、第1の境界(例えば、第2のスタイルモードユーザインタフェースオブジェクトを囲む(例えば、時計回り及び/又は反時計回り方向に示される)線であって、第2のスタイルモードユーザインタフェースオブジェクトの一部(例えば、0%~100%)を囲む及び/又はその周りにある線))を変更する。いくつかの実施形態では、第2のスタイルモードユーザインタフェースオブジェクトの第2の外観を変更することの一部として、コンピュータシステムは、第2のスタイルモードユーザインタフェースオブジェクトの第4の視覚的態様(例えば、第2のメディア処理スタイルの少なくとも一部(例えば、第2のスタイルモードユーザインタフェースオブジェクトの周りにある、隣接する、及び/又は取り囲む境界線及び/又は線)のサイズ、長さ、及び/又は塗りつぶしの表示を変更する。いくつかの実施形態では、第4の視覚的態様(例えば、境界及び/又は線(例えば、又はその逆)は、第3の視覚的態様(例えば、色(例えば、又はその逆))とは異なる。特定のパラメータの値が変更されたかどうかに基づいて第2のスタイルモードユーザインタフェースオブジェクトの特定の視覚的要素の表示を変更することは、メディア処理スタイルに対してどのパラメータが変更されたか(及びどのパラメータ(単数又は複数)が変更されなかったか)に関する視覚的フィードバックをユーザに提供し、これは改善された視覚的フィードバックを提供する。
方法1000(例えば、図10A~10B)に関して上述したプロセスの詳細は、本明細書に記載する方法にも同様に当てはまることに留意されたい。例えば、方法1000は、方法900を参照して上述した様々な方法の特性のうちの1つ以上を任意選択的に含む。例えば、方法900は、1つ以上のメディア処理スタイルを選択するために使用することができ、方法1000は、方法900を使用して選択されたメディアを編集するために使用することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本技術の原理、及びそれらの実際の用途を最も良く説明するために、実施形態が選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。
上述のように、本技術の一態様は、ユーザにとって有益な可能性のあるメディア処理スタイル又は任意の他のメディア編集ツールに関するユーザへの配信を改善するために、種々のソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの場合には、この収集されたデータが、特定の人を一意に識別する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを考察する。そのような個人情報データとしては、人口統計データ、ロケーションベースのデータ、電話番号、電子メールアドレス、ツイッターID、自宅の住所、ユーザの健康若しくはフィットネスのレベルに関するデータ若しくは記録(例えば、バイタルサイン測定値、投薬情報、運動情報)、生年月日、又は任意の他の識別情報若しくは個人情報を挙げることができる。
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データは、ユーザにとって有用なメディア処理スタイルに使用することができる。したがって、そのような個人情報データを使用することにより、ユーザは、配信されたメディア処理スタイル及び/又はユーザが最初に利用可能なメディア処理スタイルの計算された制御を有することが可能になる。更に、ユーザに利益をもたらす個人情報データに関する他の使用も本開示によって意図されている。例えば、健康データ及びフィットネスデータは、ユーザの全般的なウェルネスについての洞察を提供するために使用することができ、又は、ウェルネスの目標を追求する技術を使用している個人への、積極的なフィードバックとして使用することもできる。
本開示は、そのような個人情報データの収集、分析、開示、送信、記憶、又は他の使用に関与するエンティティが、確固たるプライバシーポリシー及び/又はプライバシー慣行を遵守するものとなることを想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。そのようなポリシーは、ユーザによって容易にアクセス可能とするべきであり、データの収集及び/又は使用が変更されるにつれて更新されるべきである。ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いては、共有又は販売されるべきではない。更には、そのような収集/共有は、ユーザに告知して同意を得た後に実施されるべきである。その上、そのようなエンティティは、そのような個人情報データへのアクセスを保護及び安全化し、個人情報データへのアクセス権を有する他者が、それらのプライバシーポリシー及び手順を忠実に守ることを保証するための、あらゆる必要な措置を講じることを考慮するべきである。更に、そのようなエンティティは、広く受け入れられているプライバシーポリシー及び慣行に対する自身の遵守を証明するために、サードパーティによる評価を自らが受けることができる。更には、ポリシー及び慣行は、収集及び/又はアクセスされる具体的な個人情報データのタイプに適合されるべきであり、また、管轄権固有の考慮事項を含めた、適用可能な法令及び規格に適合されるべきである。例えば、アメリカ合衆国では、特定の健康データの収集又はそれへのアクセスは、医療保険の相互運用性と説明責任に関する法律(HIPAA)などの、連邦法及び/又は州法に準拠し得る。その一方で、他国における健康データは、他の規制及びポリシーの対象となり得るものであり、それに従って対処されるべきである。それゆえ、各国において、異なる個人データのタイプに関して異なるプライバシー慣行が保たれるべきである。
前述のことがらにも関わらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するために、ハードウェア要素及び/又はソフトウェア要素が提供され得ることを意図している。例えば、メディア処理スタイルをユーザに提供する場合、本技術は、ユーザが、サービスの登録中又はその後のいつでも、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択できるように構成されることができる。別の実施例では、ユーザは、自分のパーソナルデバイス上でキャプチャしたメディアを含む自分のカスタマイズされたメディア処理スタイルに関する日付を共有しないことを選択することができる。更に別の実施例では、ユーザは、キャプチャされたメディアが維持される期間を制限するか、又はキャプチャされたメディアのアクセスを完全に禁止するかを選択することができる。「オプトイン」及び「オプトアウト」のオプションを提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを意図している。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
更には、本開示の意図は、個人情報データを、非意図的若しくは許可のないアクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなると削除することにより、リスクを最小化することができる。追加的に、特定の健康関連アプリケーションにおいて適用可能な場合、ユーザのプライバシーを保護するために、データの匿名化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、場所データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって集約すること)及び/又は他の方法によって、容易にすることができる。
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものであるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することも可能であることを想到する。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部が欠如することにより、動作不可能にされるものではない。例えば、メディア処理スタイルは、ユーザに関連付けられたデバイスによって要求されたコンテンツなどの非個人情報データ又は必要最小限の量の個人情報、利用可能な他の非個人情報、又は公的に利用可能な情報に基づいてユーザに配信することができる。

Claims (103)

  1. 方法であって、
    表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
    前記表示生成構成要素を介して、メディアの表現であって、前記表現の第1の部分及び前記表現の第2の部分が、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示することと、
    前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間に、前記1つ以上の入力デバイスを介して、前記表現に向けられた入力を検出することと、
    前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が第1の方向であるという判定に従って、前記表示生成構成要素を介して、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、を含む方法であって、前記表現の前記第1の部分を表示することは、
    前記表現に向けられた前記入力の第1の部分であって、第1の入力の大きさを有する前記入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分と、前記表現の前記第1の部分と前記表現の第2の部分との間にある前記表現の第3の部分とが前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の第2の部分であって、前記第1の入力の大きさよりも大きい第2の入力の大きさを有する前記入力の第2の部分を検出したことに応じて、前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第3の部分を表示することと、を含む、方法。
  2. 前記表現に向けられた前記入力を検出する前に、前記表現の前記第1の部分及び前記表現の前記第2の部分は、前記第2のメディア処理スタイルを使用して表示されない、請求項1に記載の方法。
  3. 前記第1のメディア処理スタイルは、前記第2のメディア処理スタイルとは異なる、請求項1又は2に記載の方法。
  4. 前記表現に向けられた前記入力の前記第1の部分を検出したことに応じて、前記表現の前記第2の部分及び前記表現の前記第3の部分は、前記第2のメディア処理スタイルを使用して表示されない、請求項1から3のいずれか一項に記載の方法。
  5. 前記第2のメディア処理スタイルが適用される前記表現の量は、前記表現に向けられた前記入力の移動の量に基づく、請求項1から4のいずれか一項に記載の方法。
  6. 前記表現に向けられた前記入力の終了を検出したことに応じて、
    前記表現に向けられた前記入力の前記終了が検出されたときに前記第1のメディア処理スタイルを使用して前記表現の所定の部分より多くの部分が表示されたという判定に従って、前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、
    前記表現に向けられた前記入力の前記終了が検出されたときに前記第1のメディア処理スタイルを使用して前記表現の前記所定の部分より少ない部分が表示されたという判定に従って、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、を更に含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分を表示し続けている間、第3のメディア処理スタイルであって、前記第1のメディア処理スタイル及び前記第2のメディア処理スタイルとは異なる、第3のメディア処理スタイルを使用して前記表現の前記第2の部分を表示することを更に含む、請求項1から6のいずれか一項に記載の方法。
  8. 前記表現に向けられた前記入力を検出したことに応じて、
    前記入力が前記第1の方向であるという判定に従って、第4のメディア処理スタイルに対応する視覚的要素を表示することと、
    前記入力が前記第1の方向とは異なる第3の方向であるという判定に従って、前記第4のメディア処理スタイルとは異なる第5のメディア処理スタイルに対応する視覚的要素を表示することと、を更に含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記表現に向けられた前記入力を検出する前に、前記スタイル選択ユーザインタフェースは、前記第2のメディア処理スタイルに対応する視覚的要素と、第6のメディア処理スタイルに対応する視覚的要素とを含み、前記方法は、
    前記表現に向けられた前記入力を検出したことに応じて、
    前記入力が前記第1の方向であるという判定に従って、前記第2のメディア処理スタイルを使用して前記表現を表示することなく、前記第2のメディア処理スタイルに対応する前記視覚的要素を表示することを中止することと、
    前記入力が前記第1の方向とは異なる第4の方向であるという判定に従って、前記第6のメディア処理スタイルを使用して前記表現を表示することなく、前記第6のメディア処理スタイルに対応する前記視覚的要素の表示を中止することと、を更に含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記表現に向けられた前記入力は、前記第2のメディア処理スタイルの指示において検出されない、請求項1から9のいずれか一項に記載の方法。
  11. 前記メディアの前記表現は、以前にキャプチャされたメディアの表現である、請求項1から10のいずれか一項に記載の方法。
  12. 前記表現に向けられた前記入力を検出した後、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて第7のメディア処理スタイルを使用するオプションを表示することと、
    前記第7のメディア処理スタイルを使用する前記オプションを表示している間に前記第7のメディア処理スタイルを使用する前記オプションに向けられた入力を検出することと、
    前記第7のメディア処理スタイルを使用する前記オプションに向けられた前記入力を検出したことに応じて、前記第7のメディア処理スタイルを使用するように前記コンピュータシステムを構成することと、
    前記コンピュータシステムが前記第7のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする要求を検出することと、
    前記コンピュータシステムが前記第7のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする前記要求を検出したことに応じて、個別のメディアをキャプチャすることと、
    前記個別のメディアをキャプチャした後に、前記個別のメディアの表現であって、前記第7のメディア処理スタイルを使用して前記第1のユーザインタフェースに表示される、個別のメディアの表現を含む第1のユーザインタフェースを表示することと、を更に含む、請求項11に記載の方法。
  13. 前記コンピュータシステムは、第1のカメラを含む1つ以上のカメラと通信しており、
    前記メディアの前記表現は、少なくとも前記第1のカメラの現在の視野の少なくとも一部の表現を含む、請求項1から10のいずれか一項に記載の方法。
  14. 前記表現に向けられた前記入力を検出した後、将来のメディアキャプチャ要求に応じてキャプチャされたメディアについて第8のメディア処理スタイルを使用するオプションを表示することと、
    前記第8のメディア処理スタイルを使用する前記オプションを表示している間に、前記第8のメディア処理スタイルを使用する前記オプションに向けられた入力を検出することと、
    前記第8のメディア処理スタイルを使用する前記オプションに向けられた前記入力を検出したことに応じて、前記第8のメディア処理スタイルを使用するように前記コンピュータシステムを構成することと、
    前記コンピュータシステムが前記第8のメディア処理スタイルを使用するように構成されている間に、メディアをキャプチャする第2の要求を検出することと、
    前記コンピュータシステムが前記第8のメディア処理スタイルを使用するように構成されている間にメディアをキャプチャする前記第2の要求を検出したことに応じて、第2の個別のメディアをキャプチャすることと、
    前記第2の個別のメディアをキャプチャした後に、前記第2の個別のメディアの表現であって、前記第8のメディア処理スタイルを使用して前記第2のユーザインタフェースに表示される、前記第2の個別のメディアの表現を含む第2のユーザインタフェースを表示することと、を更に含む、請求項13に記載の方法。
  15. 個別のメディア処理スタイルをキャプチャされたメディアに適用することは、第1のセットの動作を前記キャプチャされたメディアに適用することを含み、前記個別のメディア処理スタイルを1つ以上のカメラの視野の一部のライブプレビューに適用することは、第2のセットの動作を前記ライブプレビューに適用することを含む、請求項1から14のいずれか一項に記載の方法。
  16. 前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示される間、前記第1のメディア処理スタイルに対応する識別子が表示される、請求項1から15のいずれか一項に記載の方法。
  17. 前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することは、前記表現の前記第1の部分と前記表現の前記第2の部分との間の仕切りを表示することを含む、請求項1から16のいずれか一項に記載の方法。
  18. 前記表現に向けられた前記入力は、移動入力である、請求項1から17のいずれか一項に記載の方法。
  19. 前記コンピュータシステムは、第1のキャプチャモードにあり、前記方法は、
    前記スタイル選択ユーザインタフェースを表示している間、かつ前記コンピュータシステムが前記第1のキャプチャモードにある間、前記スタイル選択ユーザインタフェースに向けられた入力を検出することと、
    前記スタイル選択ユーザインタフェースに向けられた前記入力を検出したことに応じて、前記コンピュータシステムを前記第1のキャプチャモードにある状態から異なるキャプチャモードに遷移させることと、を更に含む、請求項1から18のいずれか一項に記載の方法。
  20. 前記コンピュータシステムを前記第1のキャプチャモードから前記異なるキャプチャモードに遷移させた後、メディアをキャプチャする要求を検出することと、
    メディアをキャプチャする前記要求を検出したことに応じて、現在選択されているメディア処理スタイルに基づいて前記異なるキャプチャモードでメディアをキャプチャすることであって、
    前記現在選択されているメディア処理スタイルが前記第1のメディア処理スタイルであるという判定に従って、前記第1のメディア処理スタイルを使用して前記異なるキャプチャモードで前記メディアをキャプチャすることと、
    前記現在選択されているメディア処理スタイルが前記第2のメディア処理スタイルであるという判定に従って、前記第2のメディア処理スタイルを使用して前記異なるキャプチャモードで前記メディアをキャプチャすることと、を含む、ことと、を更に含む、請求項19に記載の方法。
  21. 前記コンピュータシステムは、第3のキャプチャモードにあり、前記方法は、
    前記表現に向けられた前記入力を検出した後、メディアの第2の表現を含む第2のユーザインタフェースを表示する要求を検出することと、
    前記メディアの第2の表現を含む前記第2のユーザインタフェースを表示する前記要求を検出したことに応じて、前記メディアの前記第2の表現を含む前記第2のユーザインタフェースを表示することと、
    前記第2のユーザインタフェースを表示している間に前記第2の表現に向けられた入力を検出することと、
    前記第2の表現に向けられた前記入力を検出したことに応じて、かつ前記コンピュータシステムが第1のメディア処理スタイル選択モードにないという判定に従って、前記コンピュータシステムを前記第3のキャプチャモードから第4のキャプチャモードに遷移させることと、を更に含む、請求項1から20のいずれか一項に記載の方法。
  22. 前記第2の表現に向けられた前記入力を検出したことに応じて、かつ前記コンピュータシステムが前記第1のメディア処理スタイル選択モードにあるという判定に従って、前記コンピュータシステムを前記第3のキャプチャモードに維持することを更に含む、請求項21に記載の方法。
  23. 前記表現に向けられた前記入力を検出する前に、前記スタイル選択ユーザインタフェースは、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを含む、請求項1から22のいずれか一項に記載の方法。
  24. 前記表現に向けられた前記入力を検出したことに応じて、かつ前記表現に向けられた前記入力が前記第1の方向であるという前記判定に従って、
    前記第2のメディア処理スタイルが前記メディアの前記表現の第4の部分に適用されているという判定に従って、前記第2のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトを表示し、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトの表示を中止することと、
    前記第2のメディア処理スタイルが前記メディアの前記表現の前記第4の部分に適用されていないという判定に従って、前記第2のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示することなく、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示し続けることと、を更に含む、請求項23に記載の方法。
  25. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトは、前記メディアの前記表現上の1つ以上のロケーションに表示される、請求項23又は24に記載の方法。
  26. 前記第1のメディア処理スタイルが使用のために選択されている間にメディアをキャプチャする第1の要求を検出することと、
    メディアをキャプチャする前記第1の要求を検出したことに応じて、前記第1のメディア処理スタイルが適用された状態でメディアをキャプチャすることと、
    前記第1のメディア処理スタイルが適用された状態でメディアをキャプチャした後、かつ前記第2のメディア処理スタイルが使用のために選択されている間に、メディアをキャプチャする第2の要求を検出することと、
    メディアをキャプチャする前記第2の要求を検出したことに応じて、前記第2のメディア処理スタイルが適用された状態でメディアをキャプチャすることと、を更に含む、請求項1から25のいずれか一項に記載の方法。
  27. 前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力の終了が検出されたという判定に従って、
    前記表現に向けられた前記入力が1つ以上の移動基準を満たすという判定に従って、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、
    前記表現に向けられた前記入力が1つ以上の移動基準を満たさないという判定に従って、前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、を更に含む、請求項1から26のいずれか一項に記載の方法。
  28. 前記表現に向けられた前記入力を検出した後、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、
    前記表現及び前記表現の前記第2の部分が前記第2のメディア処理スタイルを使用して表示している間に、前記表現に向けられた第2の入力を検出することと、
    前記表現に向けられた前記第2の入力を検出したことに応じて、前記表現に向けられた前記第2の入力が前記第1の方向であるという判定に従って、前記第2のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、第9のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、を更に含む、請求項1から27のいずれか一項に記載の方法。
  29. 前記第2のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第9のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することは、
    前記表現に向けられた前記第2の入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分及び前記表現の前記第3の部分が、前記第2のメディア処理スタイルを使用して表示される間、前記第9のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することを含む、請求項28に記載の方法。
  30. 前記表現に向けられた前記第2の入力を検出したことに応じて、かつ前記第2の入力の終了が検出されたという判定に従って、
    前記表現に向けられた前記第2の入力が1つ以上の移動基準を満たすという判定に従って、前記第9のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、
    前記表現に向けられた前記入力が1つ以上の移動基準を満たさないという判定に従って、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、を更に含む、請求項28又は29に記載の方法。
  31. 前記第1のメディア処理スタイルを使用して表示される前記メディアの前記表現を含む前記スタイル選択ユーザインタフェースを表示する前に、前記メディアの第4の表現を含む前記ユーザインタフェース内の第1の個別のロケーションに表示される前記スタイル選択ユーザインタフェースを表示するためのユーザインタフェースオブジェクトを含むユーザインタフェースを表示することと、
    前記スタイル選択ユーザインタフェースを表示するための前記ユーザインタフェースオブジェクトを表示している間に、前記スタイル選択ユーザインタフェースを表示するための前記ユーザインタフェースオブジェクトに向けられた入力を検出することと、
    前記スタイル選択ユーザインタフェースを表示するための前記ユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、スタイル選択ユーザインタフェースを表示することと、を更に含む、請求項1から30のいずれか一項に記載の方法。
  32. 前記スタイル選択ユーザインタフェースは、前記スタイル選択ユーザインタフェース内の第2の個別のロケーションにおける設定を制御するためのユーザインタフェースオブジェクトを含み、前記方法は、
    前記スタイル選択ユーザインタフェースと、前記第2の個別のロケーションにおける前記設定を制御するための前記ユーザインタフェースオブジェクトとを表示している間に、前記スタイル選択ユーザインタフェース内の前記第2の個別のロケーションに向けられた入力を検出することと、
    前記スタイル選択ユーザインタフェース内の前記第2の個別のロケーションに向けられた前記入力を検出したことに応じて、前記スタイル選択ユーザインタフェースの表示を中止することと、を更に含む、請求項1から31のいずれか一項に記載の方法。
  33. 前記スタイル選択ユーザインタフェースを表示した後、
    カメラユーザインタフェースを表示する要求を受信することと、
    前記カメラユーザインタフェースを表示する前記要求を受信したことに応じて、カメラユーザインタフェースを表示することと、を含む方法であって、前記カメラユーザインタフェースを表示することは、前記カメラユーザインタフェースにおいて、
    1つ以上のカメラの視野の表現と、
    選択されると、前記スタイル選択ユーザインタフェースを表示させる個別のユーザインタフェースオブジェクトとを同時に表示することを含み、同時に表示することは、
    前記第1のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、前記個別のユーザインタフェースオブジェクトを第1の外観で表示することと、
    前記第2のメディア処理スタイルがメディア処理スタイルとして現在選択されているという判定に従って、前記第1の外観とは異なる第2の外観を有する前記個別のユーザインタフェースオブジェクトを表示することと、を含む、請求項1から32のいずれか一項に記載の方法。
  34. 前記ユーザインタフェースは、前記第1のメディア処理スタイルを使用して表示される前記表現の前記第1の部分及び前記表現の前記第2の部分と同時に表示される第1のユーザインタフェースオブジェクトを含み、前記方法は、
    前記第1のメディア処理スタイルを使用して表示される前記表現の前記第1の部分及び前記表現の前記第2の部分と同時に表示される前記第1のユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のユーザインタフェースオブジェクトに向けられた入力を検出することと、
    前記第1のユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルを使用することなく、前記表現の前記第1の部分及び前記表現の前記第2の部分を表示することと、を更に含む、請求項1から33のいずれか一項に記載の方法。
  35. 前記スタイル選択ユーザインタフェースは、メディアをキャプチャするための選択可能なユーザインタフェースオブジェクトを含み、前記方法は、
    前記第1のメディア処理スタイルと、メディアをキャプチャするための前記選択可能なユーザインタフェースオブジェクトとを使用して前記メディアの前記表現を表示している間に、メディアをキャプチャする前記選択可能なユーザインタフェースオブジェクトに向けられた入力を検出することと、
    メディアをキャプチャするための前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルが適用されたメディアをキャプチャすることと、を更に含む、請求項1から34のいずれか一項に記載の方法。
  36. 前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することは、前記第1のメディア処理スタイルを、前記表現の前記第1の部分内の1つ以上のオブジェクトに対して、前記1つ以上のオブジェクトを含まない前記第1の部分のサブセットに対してとは異なるように適用することを含む、請求項1から35のいずれか一項に記載の方法。
  37. 前記第1のメディア処理スタイルは、コントラスト、鮮やかさ、暖かさ、及びそれらの組み合わせからなる群から選択される1つ以上のパラメータに基づいて前記メディアの前記表現に適用される、請求項1から36のいずれか一項に記載の方法。
  38. 前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記表現の前記第1の部分及び前記表現の前記第3の部分が前記第2のメディア処理スタイルを使用して表示されている間に、前記表現に向けられた前記入力の終了を検出することと、
    前記表現に向けられた前記入力の前記終了を検出したことに応じて、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示することを中止し、前記表現の前記第2の部分のサブセットの視覚的突出を減少させることと、を更に含む、請求項1から37のいずれか一項に記載の方法。
  39. 前記表現の前記第2の部分の前記サブセットが前記低減された視覚的突出で表示されている間に、前記表現に向けられた第3の入力を検出することと、
    前記表現に向けられた前記第3の入力を検出したことに応じて、前記表現の前記第2の部分の前記サブセットの前記視覚的突出を増加させることと、を更に含む、請求項38に記載の方法。
  40. 前記メディアの前記表現を表示することは、
    前記メディアの前記表現が、前記表現に向けられた第4の入力を検出したことに応じて第10のメディア処理スタイルを使用して表示されるという判定に従って、前記表現の第4の部分は第1の外観で表示されることと、
    前記メディアの前記表現が、前記表現に向けられた前記第4の入力を検出したことに応じて前記第10のメディア処理スタイルを使用して表示されないという判定に従って、前記表現の前記第4の部分は、前記第1の外観とは異なる第2の外観で表示されること、を含む、請求項1から39のいずれか一項に記載の方法。
  41. 前記表現に向けられた前記入力を検出する前に、かつ前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示している間、前記メディアの前記表現の第6の部分は、前記第1のメディア処理スタイルを使用して表示される、請求項1から40のいずれか一項に記載の方法。
  42. 前記表現に向けられた前記入力を検出する前に、かつ前記第1のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第2の部分を表示している間、前記メディアの前記表現の第7の部分は、前記第1のメディア処理スタイルを使用して表示されない、請求項1から41のいずれか一項に記載の方法。
  43. 前記表現に向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルを使用して表示されていない状態から前記第1のメディア処理スタイルを使用して表示されている状態に遷移する前記メディアの前記表現の前記第7の部分のアニメーションを表示することを更に含む、請求項42に記載の方法。
  44. 前記表現の前記第1の部分及び前記表現の前記第2の部分が、前記メディアの視覚的コンテンツに適用される前記第1のメディア処理スタイルを使用して表示される、前記スタイル選択ユーザインタフェースを表示する前に、第2のメディア処理スタイル選択モードを有効にするユーザインタフェースオブジェクトを表示することと、
    前記第2のメディア処理スタイル選択モードを有効にする前記ユーザインタフェースオブジェクトを表示している間に、前記第2のメディア処理スタイル選択モードを有効にする前記ユーザインタフェースオブジェクトに向けられた入力を検出することと、
    前記第2のメディア処理スタイル選択モードを有効にする前記ユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルが適用された以前にキャプチャされたメディアの表現と、前記第2のメディア処理スタイルが適用された以前にキャプチャされたメディアの表現とを同時に表示することを含む、個別のユーザインタフェースを表示することと、を更に含む、請求項1から43のいずれか一項に記載の方法。
  45. 前記スタイル選択ユーザインタフェースは、選択されると、前記スタイル選択ユーザインタフェースを表示させる第1のスタイルモードユーザインタフェースオブジェクトを含み、前記第1のスタイルモードユーザインタフェースオブジェクトは、1つ以上のカメラ設定ユーザインタフェースオブジェクトと同時に表示される、請求項1から44のいずれか一項に記載の方法。
  46. 前記スタイル選択ユーザインタフェースは、選択されると、前記スタイル選択ユーザインタフェースを表示させる第2のスタイルモードユーザインタフェースオブジェクトを含み、前記方法は、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間に前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示している間、前記第2のスタイルモードユーザインタフェースオブジェクトを第3の外観で表示することと、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間に前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の前記第2の部分を検出したことに応じて、前記第2のスタイルモードユーザインタフェースオブジェクトを、前記第3の外観で表示されている状態から、前記第3の外観とは異なる第4の外観で表示されている状態に変更することと、を更に含む、請求項1から45のいずれか一項に記載の方法。
  47. 前記第2のスタイルモードユーザインタフェースオブジェクトを前記第3の外観で表示されている状態から前記第4の外観で表示されている状態に変更することは、
    前記第1のメディア処理スタイルの第1のパラメータの値が前記第2のメディア処理スタイルの前記第1のパラメータの値と異なるという判定に従って、前記第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様の表示を変更することと、
    前記第1のパラメータが第2のパラメータとは異なり、前記第1のメディア処理スタイルの前記第2のパラメータの値が前記第2のメディア処理スタイルの前記第2のパラメータの値とは異なるという判定に従って、前記第2のスタイルモードユーザインタフェースオブジェクトの第2の視覚的態様であって、前記第1の視覚的態様とは異なる第2の視覚的態様の表示を変更することと、を含む、請求項46に記載の方法。
  48. 前記コンピュータシステムは、第1のファイルフォーマットでメディアを記憶するように構成され、前記方法は、
    前記コンピュータシステムが前記第1のファイルフォーマットでメディアをキャプチャして記憶するように構成されている間、かつ前記第2のスタイルモードユーザインタフェースオブジェクトがアクティブ状態で表示されている間に、前記第1のファイルフォーマットとは異なる第2のファイルフォーマットでメディアをキャプチャして記憶するように前記コンピュータシステムを構成する要求を検出することと、
    前記第2のファイルフォーマットのメディアをキャプチャして記憶するように前記コンピュータシステムを構成する前記要求を検出したことに応じて、前記アクティブ状態の前記第2のスタイルモードユーザインタフェースオブジェクトを表示することを中止することと、を更に含む、請求項46又は47に記載の方法。
  49. 表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項1から48のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
  50. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
    を備え、前記1つ以上のプログラムは、請求項1から48のいずれか一項に記載の方法を実行する命令を含む、コンピュータシステム。
  51. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    請求項1から48のいずれか一項に記載の方法を実行する手段を備える、コンピュータシステム。
  52. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備え、前記1つ以上のプログラムは、請求項1から48のいずれか一項に記載の方法を実行する命令を含む、コンピュータプログラム製品。
  53. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
    前記表示生成構成要素を介して、メディアの表現であって、前記表現の第1の部分及び前記表現の第2の部分が、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示し、
    前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間に、前記1つ以上の入力デバイスを介して、前記表現に向けられた入力を検出し、
    前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が第1の方向であるという判定に従って、前記表示生成構成要素を介して、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示する、命令を含む非一時的コンピュータ可読記憶媒体であって、前記表現の前記第1の部分を表示することは、
    前記表現に向けられた前記入力の第1の部分であって、第1の入力の大きさを有する前記入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分と、前記表現の前記第1の部分と前記表現の第2の部分との間にある前記表現の第3の部分とが前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の第2の部分であって、前記第1の入力の大きさよりも大きい第2の入力の大きさを有する前記入力の第2の部分を検出したことに応じて、前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第3の部分を表示することと、を含む、非一時的コンピュータ可読記憶媒体。
  54. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
    を備える、コンピュータシステムであって、前記1つ以上のプログラムが、
    前記表示生成構成要素を介して、メディアの表現であって、前記表現の第1の部分及び前記表現の第2の部分が、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示し、
    前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間に、前記1つ以上の入力デバイスを介して、前記表現に向けられた入力を検出し、
    前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が第1の方向であるという判定に従って、前記表示生成構成要素を介して、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示する、命令を含むコンピュータシステムであって、前記表現の前記第1の部分を表示することは、
    前記表現に向けられた前記入力の第1の部分であって、第1の入力の大きさを有する前記入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分と、前記表現の前記第1の部分と前記表現の第2の部分との間にある前記表現の第3の部分とが前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の第2の部分であって、前記第1の入力の大きさよりも大きい第2の入力の大きさを有する前記入力の第2の部分を検出したことに応じて、前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第3の部分を表示することと、を含む、コンピュータシステム。
  55. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    前記表示生成構成要素を介して、メディアの表現であって、前記表現の第1の部分及び前記表現の第2の部分が、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示するための手段と、
    前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間に、前記1つ以上の入力デバイスを介して、前記表現に向けられた入力を検出するための手段と、
    前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が第1の方向であるという判定に従って、前記表示生成構成要素を介して、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示するための手段と、を備えるコンピュータシステムであって、前記表現の前記第1の部分を表示する手段は、
    前記表現に向けられた前記入力の第1の部分であって、第1の入力の大きさを有する前記入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分と、前記表現の前記第1の部分と前記表現の第2の部分との間にある前記表現の第3の部分とが前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示するための手段と、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の第2の部分であって、前記第1の入力の大きさよりも大きい第2の入力の大きさを有する前記入力の第2の部分を検出したことに応じて、前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第3の部分を表示するための手段と、を含む、コンピュータシステム。
  56. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、
    前記表示生成構成要素を介して、メディアの表現であって、前記表現の第1の部分及び前記表現の第2の部分が、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、表現を含むスタイル選択ユーザインタフェースを表示し、
    前記表現の前記第1の部分及び前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間に、前記1つ以上の入力デバイスを介して、前記表現に向けられた入力を検出し、
    前記表現に向けられた前記入力を検出したことに応じて、かつ前記入力が第1の方向であるという判定に従って、前記表示生成構成要素を介して、前記第1のメディア処理スタイルを使用して前記表現の前記第2の部分を表示し続けている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示する、命令を含むコンピュータプログラム製品であって、前記表現の前記第1の部分を表示することは、
    前記表現に向けられた前記入力の第1の部分であって、第1の入力の大きさを有する前記入力の第1の部分を検出したことに応じて、前記表現の前記第2の部分と、前記表現の前記第1の部分と前記表現の第2の部分との間にある前記表現の第3の部分とが前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示することと、
    前記表現の前記第2の部分及び前記表現の前記第3の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分を表示した後、かつ前記表現に向けられた前記入力の第2の部分であって、前記第1の入力の大きさよりも大きい第2の入力の大きさを有する前記入力の第2の部分を検出したことに応じて、前記表現の前記第2の部分が前記第1のメディア処理スタイルを使用して表示されている間、前記第2のメディア処理スタイルを使用して前記表現の前記第1の部分及び前記表現の前記第3の部分を表示することと、を含む、コンピュータプログラム製品。
  57. 方法であって、
    表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムにおいて、
    前記表示生成構成要素を介して、メディアの表現であって、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、メディアの表現を含むユーザインタフェースを表示することと、
    前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、前記表示生成構成要素を介して、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、
    前記第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、
    前記第1のメディア処理スタイルの前記第1のパラメータとは異なる第2のパラメータを編集するための、前記第1のメディア処理スタイルの前記第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示することと、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出することと、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記入力が、前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための第1のコントロールを表示することと、
    前記入力が前記第1のメディア処理スタイルの前記第2のパラメータを編集する前記第2のユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第2のパラメータの前記現在値を調整するための第2のコントロールを表示することと、を含む方法。
  58. 前記第1のコントロールを表示することは、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値の第2の表現を表示することを含み、
    前記第2のコントロールを表示することは、前記第1のメディア処理スタイルの前記第2のパラメータの前記現在値の第2の表現を表示することを含む、請求項57に記載の方法。
  59. 前記第1のメディア処理スタイルと、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトとを使用して前記メディアの前記表現を表示している間に、前記メディアの視覚的コンテンツに適用される第2のメディア処理スタイルを使用して前記メディアの前記表現を表示する要求を検出することと、
    前記メディアの視覚的コンテンツに適用される前記第2のメディア処理スタイルを使用して前記メディアの前記表現を表示する前記要求を検出したことに応じて、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示することを中止することと、を更に含む、請求項57又は58に記載の方法。
  60. 前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための前記第1のコントロールを表示することは、前記第1のメディア処理スタイルの前記第1のパラメータを編集するために前記第1の選択可能なユーザインタフェースオブジェクトを拡張することを含む、請求項57から59のいずれか一項に記載の方法。
  61. 前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための前記第1のコントロールを表示している間に、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の終了を検出することと、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の前記終了を検出したことに応じて、前記第1のパラメータに関する前記現在値を調整するための前記第1のコントロールのサイズを縮小することと、を更に含む、請求項57から60のいずれか一項に記載の方法。
  62. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出する前に、前記第1のパラメータに関する前記現在値は第1の値であり、前記方法は、
    前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための前記第1のコントロールを表示している間に、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の終了を検出することと、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の前記終了を検出したことに応じて、前記第1のパラメータの前記現在値であって、前記現在値は、前記第1の値とは異なる第2の値である、前記現在値の前記表現を表示することと、を更に含む、請求項57から61のいずれか一項に記載の方法。
  63. 前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトは、前記第1のパラメータの第1の値の範囲の第1の表現で表示され、前記第1の値の範囲は、第1の値を表す前記第1の値の範囲の前記第1の表現内の第1の点と、第2の値を表す前記第1の値の範囲の前記第1の表現内の第2の点との間の第1の距離を有し、
    前記第1のコントロールを表示することは、値の範囲の第2の表現を表示することを含み、前記値の範囲は、前記第1の値を表す前記値の範囲の前記第2の表現内の第1の点と、前記第2の値を表す前記値の範囲の前記第2の表現内の第2の点との間に、前記第1の距離よりも大きい第2の距離を有する、請求項57から62のいずれか一項に記載の方法。
  64. 前記第1のコントロールは、前記第1のパラメータの第3の値の範囲の第3の表現で表示され、前記第3の値の範囲は、第3の値を表す前記第3の値の範囲の前記第3の表現内の第1の点と、第4の値を表す前記第3の値の範囲の前記第3の表現内の第2の点との間の第3の距離を有し、前記方法は、
    前記表示生成構成要素を介して、前記第1のパラメータの前記第3の値の範囲の前記第3の表現で前記第1のコントロールを表示している間に、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の終了を検出することと、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力の前記終了を検出したことに応じて、前記第3の値を表す前記値の範囲の前記第5の表現内の第1の点と、前記第4の値を表す前記値の範囲の前記第5の表現内の第2の点との間に、前記第3の距離よりも小さい第4の距離を有する値の範囲の第5の表現で、前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトを表示することと、を更に含む、請求項57から63のいずれか一項に記載の方法。
  65. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、かつ前記入力が前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記第2のパラメータの前記現在値を調整するための前記第2のコントロールを、ユーザインタフェース上の第1のロケーションから前記ユーザインタフェース上の第2のロケーションに移動させることを更に含む、請求項57から64のいずれか一項に記載の方法。
  66. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、かつ前記入力が前記第1のメディア処理スタイルの前記第1のパラメータを編集する前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記第2のパラメータの前記現在値を調整するための前記第2のコントロールを表示することを中止することを更に含む、請求項57から64のいずれか一項に記載の方法。
  67. 前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、かつ前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出する前に、前記第1のメディア処理スタイルに対応する第1の識別子が表示され、前記方法は、
    前記第1のメディア処理スタイルの前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記第1のパラメータの前記現在値が、前記第1のメディア処理スタイルの前記第1のパラメータのデフォルト値とは異なる値に変化したという判定に従って、第3のメディア処理スタイルに対応する第2の識別子であって、前記第1の識別子とは異なる、第2の識別子を表示することを更に含む、請求項57から66のいずれか一項に記載の方法。
  68. 前記ユーザインタフェースは、前記第1のメディア処理スタイルの1つ以上のパラメータをリセットするための選択可能なユーザインタフェースオブジェクトを含み、前記方法は、
    前記第1のメディア処理スタイルの1つ以上のパラメータをリセットする前記選択可能なユーザインタフェースオブジェクトを表示している間に、前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットする前記選択可能なユーザインタフェースオブジェクトに向けられた入力を検出することと、
    前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットする前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値の前記表現を、前記第1のメディア処理スタイルの前記第1のパラメータの第2のデフォルト値として表示することと、
    前記第1のメディア処理スタイルの前記第2のパラメータの前記現在値の前記表現を、前記第1のメディア処理スタイルの前記第2のパラメータの第2のデフォルト値として表示することと、を更に含む、請求項57から67のいずれか一項に記載の方法。
  69. 前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットするための前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値が前記第1のメディア処理スタイルの前記第1のパラメータの前記第2のデフォルト値に変化するアニメーションを表示することを更に含む、請求項68に記載の方法。
  70. 前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットするための前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットすることを確認するプロンプトを表示することを更に含む、請求項68に記載の方法。
  71. 前記プロンプトは、前記第1のメディア処理スタイルの前記1つ以上のパラメータのうちの少なくとも1つがどのようにリセットされるかについての指示で表示される、請求項70に記載の方法。
  72. 前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットするための前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出する前に、選択されると、第1の選択されたメディア処理スタイルを適用させるか、又は前記第1の選択された個別のメディア処理スタイルを適用せずに前記表現を表示させる第1のスタイルモードユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値に基づく第1の外観で表示される、第1のスタイルモードユーザインタフェースオブジェクトを表示することと、
    前記第1のメディア処理スタイルの前記1つ以上のパラメータをリセットする前記選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値に基づく前記第1の外観で表示されている状態から、前記第1のメディア処理スタイルの前記第1のパラメータの前記第2のデフォルト値に基づく第2の外観で表示されている状態に遷移する前記第1のスタイルモードユーザインタフェースオブジェクトのアニメーションを表示することと、を更に含む、請求項68から71のいずれか一項に記載の方法。
  73. 前記第1のパラメータの前記現在値を調整するための前記第1のコントロールを表示している間、かつ前記第1のコントロールに向けられた入力の移動を検出したことに応じて、前記第1のパラメータの前記現在値を前記第1のパラメータの第3の値から前記第1のパラメータの第4の値に変更することを更に含む、請求項57から72のいずれか一項に記載の方法。
  74. 前記第1のパラメータの前記現在値を調整するための前記第1のコントロールを表示している間に、前記第1のコントロールに向けられた前記入力の前記移動を検出したことに応じて、修正された第1のメディア処理スタイルを使用するメディアの第2の表現であって、前記第1のメディア処理スタイルを使用する前記メディアの前記表現とは異なる、前記修正された第1のメディア処理スタイルを使用する前記メディアの前記第2の表現、を表示することを更に含む、請求項73に記載の方法。
  75. 前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間にメディアをキャプチャする第1の要求を検出することと、
    メディアをキャプチャする前記第1の要求を検出したことに応じて、第1のメディアをキャプチャすることと、
    前記第1のメディア処理スタイルを使用してメディアの前記第2の表現を表示している間にメディアをキャプチャするための第2の要求を検出することと、
    メディアをキャプチャする前記第1の要求を検出したことに応じて、第2のメディアをキャプチャすることと、
    前記第1のメディア及び前記第2のメディアをキャプチャした後、
    前記第1のメディア処理スタイルを有する前記第1のメディアの表現を表示することと、
    前記修正された第1のメディア処理スタイルを有する前記第2のメディアの表現を表示することと、を更に含む、請求項74に記載の方法。
  76. 前記ユーザインタフェースは、メディアをキャプチャするための第2の選択可能なユーザインタフェースオブジェクトを含み、
    前記第1のメディア処理スタイルと、メディアをキャプチャするための前記第2の選択可能なユーザインタフェースオブジェクトとを使用して前記メディアの前記表現を表示している間に、メディアをキャプチャする前記第2の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出することと、
    メディアをキャプチャするための前記第2の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、前記第1のメディア処理スタイルが適用された第3のメディアをキャプチャすることと、を更に含む、請求項57から75のいずれか一項に記載の方法。
  77. 前記第1のメディア処理スタイルを使用して前記表現を表示することは、前記第1のメディア処理スタイルを、前記表現の第1の部分内の1つ以上のオブジェクトに対して、前記1つ以上のオブジェクトを含まない前記表現の第2の部分に対してとは異なるように適用することを含む、請求項57から76のいずれか一項に記載の方法。
  78. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記メディアの前記表現に向けられた第1の入力を検出することと、
    前記メディアの前記表現に向けられた前記第1の入力を検出したことに応じて、
    第4のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値の前記表現を表示することを中止することと、を更に含む、請求項57から77のいずれか一項に記載の方法。
  79. 前記第4のメディア処理スタイルの前記第1のパラメータの前記現在値の前記表現を表示することは、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値の前記表現を前記第4のメディア処理スタイルの前記第1のパラメータの前記現在値の前記表現に変更するアニメーションを表示することを含む、請求項78に記載の方法。
  80. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記メディアの前記表現に向けられた第2の入力を検出することと、
    前記メディアの前記表現に向けられた前記第2の入力を検出したことに応じて、第5のメディア処理スタイルを使用して前記メディアの前記表現の一部を表示することと、
    前記第5のメディア処理スタイルを使用して前記メディアの前記表現の前記一部を表示している間に、前記第5のメディア処理スタイルを使用する前記メディアの前記表現の前記一部が前記表現の閾値量よりも大きいという判定に従って、前記第5のメディア処理スタイルの第1のパラメータの現在値の表現を表示し、前記第1のメディア処理スタイルの前記第1のパラメータの前記現在値の表現を表示することを中止することと、を更に含む、請求項57から79のいずれか一項に記載の方法。
  81. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、かつ前記第1のメディア処理スタイルの1つ以上のパラメータの少なくとも1つの現在値が前記第1のメディア処理スタイルの前記1つ以上のパラメータの1つ以上のデフォルト値と異なるという判定に従って、前記第1のメディア処理スタイルとは異なる第1のカスタムメディア処理スタイルを利用可能なメディア処理スタイルのセットに追加することとを更に含む、請求項57から80のいずれか一項に記載の方法。
  82. 前記利用可能なメディア処理スタイルのセットが前記第1のカスタムメディア処理スタイルを含んでいる間に、前記第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第1の要求を検出することと、
    前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを変更する前記第1の要求を検出したことに応じて、かつ前記第1の要求が実施された後に前記第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイルと同じとなるという判定に従って、前記利用可能なメディア処理スタイルのセットから前記第1のカスタムメディア処理スタイルを削除することと、を更に含む、請求項81に記載の方法。
  83. 前記第1のカスタムメディア処理スタイルを前記利用可能なメディア処理スタイルのセットに追加した後に、個別のメディア処理スタイルを使用して表示されるメディアの個別の表現を含む個別のユーザインタフェースを表示することと、
    前記個別のメディア処理スタイルを使用して表示されるメディアの前記個別の表現を含む前記個別のユーザインタフェースを表示している間、かつ前記利用可能なメディア処理スタイルのセットが前記第1のカスタムメディア処理スタイルを含む間に、前記利用可能なメディア処理スタイルのセットからの次の利用可能なメディア処理スタイルを使用してメディアの前記個別の表現を表示する要求を検出することと、
    前記メディアの個別の表現が前記個別のメディア処理スタイルを使用して表示されている間に、前記次の利用可能なメディア処理スタイルを使用して前記メディアの個別の表現を表示する前記要求を検出したことに応じて、
    前記個別のメディア処理スタイルが前記第1のメディア処理スタイルであるという判定に従って、前記第1のカスタムメディア処理スタイルを使用して前記メディアの前記個別の表現の少なくとも一部を表示することと、
    前記個別のメディア処理スタイルが前記第1のメディア処理スタイルではないという判定に従って、前記第1のカスタムメディア処理スタイルを使用して前記メディアの前記個別の表現の少なくとも一部を表示することを見合わせることと、を更に含む、請求項81又は82に記載の方法。
  84. 前記利用可能なメディア処理スタイルのセットが前記第1のカスタムメディア処理スタイルを含む間に、前記第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第2の要求を検出することと、
    前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを変更する前記第2の要求を検出したことに応じて、前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを更新することと、を更に含む、請求項81から83のいずれか一項に記載の方法。
  85. 前記利用可能なメディア処理スタイルのセットが前記第1のカスタムメディア処理スタイルを含んでいる間に、前記第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求を検出することと、
    前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを変更する前記第3の要求を検出したことに応じて、
    前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを更新することなく、第2のカスタムメディア処理スタイルを前記利用可能なメディア処理スタイルのセットに追加することと、を更に含む、請求項81から83のいずれか一項に記載の方法。
  86. 前記第1のカスタムメディア処理スタイル及び前記第2のカスタムメディア処理スタイルは、同じ個別のテキスト識別子を有し、前記方法は、
    メディアの前記表現を含むユーザインタフェースを表示している間に、
    前記第1のカスタムメディア処理スタイルが前記メディアの前記表現に適用されているという判定に従って、前記第1のカスタムメディア処理スタイルのパラメータの指示と同時に、前記同じ個別のテキスト識別子を表示することと、
    前記第2のカスタムメディア処理スタイルが前記メディアの前記表現に適用されているという判定に従って、前記第2のカスタムメディア処理スタイルについての前記パラメータの指示と同時に前記同じ個別のテキスト識別子を表示することと、を更に含み、前記第1のカスタムメディア処理スタイルについての前記パラメータの前記指示は、前記第2のカスタムメディア処理スタイルについての前記パラメータの前記指示とは異なる、請求項85に記載の方法。
  87. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、かつ前記第1のメディア処理スタイルについての1つ以上のパラメータの少なくとも1つの現在値が前記第1のメディア処理スタイルの前記1つ以上のパラメータの1つ以上のデフォルト値と異なるという判定に従って、
    前記第1のメディア処理スタイルについての前記1つ以上のパラメータの前記少なくとも1つの現在値と前記第1のメディア処理スタイルについての前記1つ以上のパラメータの前記1つ以上のデフォルト値との間の第1の差が第1の差であるという判定に従って、前記第1のカスタムメディア処理スタイルについての第1のテキスト識別子を表示することと、
    前記第1のカスタムメディア処理スタイルについての前記1つ以上のパラメータの前記少なくとも1つの現在値と前記第1のメディア処理スタイルについての前記1つ以上のパラメータの前記1つ以上のデフォルト値との間の差が前記第1の差とは異なる第2の差であるという判定に従って、前記第1のカスタムメディア処理スタイルについての、前記第1のテキスト識別子とは異なる第2のテキスト識別子を表示することと、を更に含む、請求項81から86のいずれか一項に記載の方法。
  88. 前記第1のメディア処理スタイルは、前記第1のテキスト識別子及び前記第2のテキスト識別子とは異なる第3のテキスト識別子を有し、前記方法は、
    前記利用可能なメディア処理スタイルのセットが前記第1のカスタムメディア処理スタイルを含む間に、前記第1のカスタムメディア処理スタイルの1つ以上のパラメータを変更する第3の要求を検出することと、
    前記第1のカスタムメディア処理スタイルの前記1つ以上のパラメータを変更する前記第3の要求を検出したことに応じて、かつ前記第1の要求が実施された後に前記第1のカスタムメディア処理スタイルが1つ以上の他の利用可能なメディア処理スタイルと同じであるという判定に従って、前記第3のテキスト識別子を表示することと、を更に含む、請求項87に記載の方法。
  89. 前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトは、前記第1のメディア処理スタイルを編集する前記要求を検出したことに応じて表示される、請求項57から88のいずれか一項に記載の方法。
  90. 前記メディアの前記表現を含む前記ユーザインタフェースは、選択されると、第2の選択されたメディア処理スタイルが適用された状態で前記表現を表示させる第2のスタイルモードユーザインタフェースオブジェクトを含み、前記方法は、
    個別の入力を検出することと、
    前記個別の入力を検出したことに応じて、かつ前記個別の入力が前記第1のパラメータの前記現在値を調整する前記第1のコントロールに向けられているという判定に従って、前記第2のスタイルモードユーザインタフェースオブジェクトの第1の外観を変更することと、を更に含む、請求項57から89のいずれか一項に記載の方法。
  91. 前記第2のスタイルモードユーザインタフェースオブジェクトの前記第1の外観は、前記第1のパラメータの前記現在値が修正されるにつれて徐々に変更される、請求項90に記載の方法。
  92. 前記第2のスタイルモードユーザインタフェースオブジェクトの前記第1の外観を変更することは、
    前記個別の入力が第1の方向であるという判定に従って、前記第2のスタイルモードユーザインタフェースオブジェクトの第1の視覚的態様を第1の方式で更新することと、
    前記個別の入力が前記第1の方向とは異なる第2の方向であるという判定に従って、前記第1の方式とは異なる第2の方式で前記第1の視覚的態様を更新することと、を更に含む、請求項90又は91に記載の方法。
  93. 前記第2のスタイルモードユーザインタフェースオブジェクトの前記第1の外観を変更することは、開口部を有する開放形状である視覚的要素で前記第2のスタイルモードユーザインタフェースオブジェクトを表示することを含み、
    前記個別の入力が前記第1のパラメータの第2の現在値を前記第1のパラメータの最大値に設定したという判定に従って、前記開口部が前記開放形状の第1の側にあり、
    前記個別の入力が前記第1のパラメータの前記第2の現在値を前記第1のパラメータの前記最大値とは異なる前記第1のパラメータの最小値に設定したという判定に従って、前記開口部は、前記第1の側とは異なる前記開放形状の第2の側にある、請求項87から92のいずれか一項に記載の方法。
  94. 前記第2のスタイルモードユーザインタフェースオブジェクトの外観を変更することは、前記第2のスタイルモードユーザインタフェースオブジェクトの第3の視覚的態様の表示を変更することを含む、請求項87から93のいずれか一項に記載の方法。
  95. 前記個別の入力を検出したことに応じて、かつ前記個別の入力が前記第1のパラメータの前記現在値を調整するための前記第1のコントロールに向けられているという判定に従って、前記第2のスタイルモードユーザインタフェースオブジェクトの第2の外観を変更することを更に含み、前記第2のスタイルモードユーザインタフェースオブジェクトの前記第2の外観を変更することは、前記第2のスタイルモードユーザインタフェースオブジェクトの第4の視覚的態様の表示を変更することを含み、前記第4の視覚的態様は前記第3の視覚的態様とは異なる、請求項94に記載の方法。
  96. 表示生成構成要素及び1つ以上の入力デバイスと通信するコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、請求項57から95のいずれか一項に記載の方法を実行する命令を含む、非一時的コンピュータ可読記憶媒体。
  97. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
    を備え、前記1つ以上のプログラムが、請求項57から95のいずれか一項に記載の方法を実行する命令を含む、コンピュータシステム。
  98. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    請求項57から95のいずれか一項に記載の方法を実行する手段を備える、コンピュータシステム。
  99. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備え、前記1つ以上のプログラムは、請求項57から95のいずれか一項に記載の方法を実行する命令を含む、コンピュータプログラム製品。
  100. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
    前記表示生成構成要素を介して、メディアの表現であって、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、メディアの表現を含むユーザインタフェースを表示し、
    前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、前記表示生成構成要素を介して、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、
    前記第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、
    前記第1のメディア処理スタイルの前記第1のパラメータとは異なる第2のパラメータを編集するための、前記第1のメディア処理スタイルの前記第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記入力が、前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための第1のコントロールを表示し、
    前記入力が前記第1のメディア処理スタイルの前記第2のパラメータを編集する前記第2のユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第2のパラメータの前記現在値を調整するための第2のコントロールを表示する、命令を含む、非一時的コンピュータ可読記憶媒体。
  101. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
    を備える、コンピュータシステムであって、前記1つ以上のプログラムが、
    前記表示生成構成要素を介して、メディアの表現であって、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、メディアの表現を含むユーザインタフェースを表示し、
    前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、前記表示生成構成要素を介して、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、
    前記第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと
    前記第1のメディア処理スタイルの前記第1のパラメータとは異なる第2のパラメータを編集するための、前記第1のメディア処理スタイルの前記第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記入力が、前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための第1のコントロールを表示し、
    前記入力が前記第1のメディア処理スタイルの前記第2のパラメータを編集する前記第2のユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第2のパラメータの前記現在値を調整するための第2のコントロールを表示する、命令を含む、コンピュータシステム。
  102. 表示生成構成要素及び1つ以上の入力デバイスと通信するように構成されたコンピュータシステムであって、
    前記表示生成構成要素を介して、メディアの表現であって、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、メディアの表現を含むユーザインタフェースを表示する手段と、
    前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、前記表示生成構成要素を介して、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、
    前記第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、
    前記第1のメディア処理スタイルの前記第1のパラメータとは異なる第2のパラメータを編集するための、前記第1のメディア処理スタイルの前記第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示する手段と、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出する手段と、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記入力が、前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための第1のコントロールを表示し、
    前記入力が前記第1のメディア処理スタイルの前記第2のパラメータを編集する前記第2のユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第2のパラメータの前記現在値を調整するための第2のコントロールを表示する、手段と、を備える、コンピュータシステム。
  103. 表示生成構成要素及び1つ以上の入力デバイスと通信しているコンピュータシステムの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを備えるコンピュータプログラム製品であって、前記1つ以上のプログラムは、
    前記表示生成構成要素を介して、メディアの表現であって、前記メディアの視覚的コンテンツに適用される第1のメディア処理スタイルを使用して表示される、メディアの表現を含むユーザインタフェースを表示し、
    前記第1のメディア処理スタイルを使用して前記メディアの前記表現を表示している間、前記表示生成構成要素を介して、前記第1のメディア処理スタイルについての複数の選択可能なユーザインタフェースオブジェクトであって、
    前記第1のメディア処理スタイルの第1のパラメータを編集するための第1の選択可能なユーザインタフェースオブジェクトであって、前記第1のメディア処理スタイルの前記第1のパラメータの現在値の表現で表示される第1の選択可能なユーザインタフェースオブジェクトと、
    前記第1のメディア処理スタイルの前記第1のパラメータとは異なる第2のパラメータを編集するための、前記第1のメディア処理スタイルの前記第2のパラメータの現在値の表現で表示される第2の選択可能なユーザインタフェースオブジェクトとを含む、複数の選択可能なユーザインタフェースオブジェクトを同時に表示し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトを表示している間に、前記1つ以上の入力デバイスを介して、前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた入力を検出し、
    前記第1のメディア処理スタイルについての前記複数の選択可能なユーザインタフェースオブジェクトに向けられた前記入力を検出したことに応じて、
    前記入力が、前記第1のメディア処理スタイルの前記第1のパラメータを編集するための前記第1の選択可能なユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第1のパラメータの前記現在値を調整するための第1のコントロールを表示し、
    前記入力が前記第1のメディア処理スタイルの前記第2のパラメータを編集する前記第2のユーザインタフェースオブジェクトに向けられているという判定に従って、前記表示生成構成要素を介して、前記第2のパラメータの前記現在値を調整するための第2のコントロールを表示する、命令、を含む、コンピュータプログラム製品。
JP2023560219A 2021-06-01 2022-05-24 メディアスタイルを管理するためのユーザインタフェース Pending JP2024514783A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US202163195679P 2021-06-01 2021-06-01
US63/195,679 2021-06-01
US202163243633P 2021-09-13 2021-09-13
US63/243,633 2021-09-13
US17/721,039 2022-04-14
US17/721,039 US12112024B2 (en) 2021-06-01 2022-04-14 User interfaces for managing media styles
PCT/US2022/030704 WO2022256200A1 (en) 2021-06-01 2022-05-24 User interfaces for managing media styles

Publications (2)

Publication Number Publication Date
JP2024514783A true JP2024514783A (ja) 2024-04-03
JPWO2022256200A5 JPWO2022256200A5 (ja) 2024-05-27

Family

ID=84193026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023560219A Pending JP2024514783A (ja) 2021-06-01 2022-05-24 メディアスタイルを管理するためのユーザインタフェース

Country Status (5)

Country Link
US (1) US12112024B2 (ja)
EP (1) EP4298500A1 (ja)
JP (1) JP2024514783A (ja)
KR (1) KR20230164069A (ja)
CN (2) CN117178250A (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
USD1015361S1 (en) * 2020-12-30 2024-02-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US20230308769A1 (en) * 2022-03-25 2023-09-28 Google Llc Methods and Systems for User Adjustable Region based Brightness Settings

Family Cites Families (881)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58190931A (ja) 1982-04-30 1983-11-08 Olympus Optical Co Ltd オ−トストロボの露光適否表示装置
JPH0812318B2 (ja) 1988-02-19 1996-02-07 富士写真光機株式会社 カメラの夜景撮影装置
SU1610470A1 (ru) 1988-12-05 1990-11-30 Предприятие П/Я Г-4046 Устройство дл контрол работы видоискател - дальномера фотоаппарата
JPH02179078A (ja) 1988-12-28 1990-07-12 Olympus Optical Co Ltd 電子カメラ
US5557358A (en) 1991-10-11 1996-09-17 Minolta Camera Kabushiki Kaisha Camera having an electronic viewfinder for displaying an object image under different photographic conditions
US5463443A (en) 1992-03-06 1995-10-31 Nikon Corporation Camera for preventing camera shake
JP2813728B2 (ja) 1993-11-01 1998-10-22 インターナショナル・ビジネス・マシーンズ・コーポレイション ズーム/パン機能付パーソナル通信機
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
JPH09116792A (ja) 1995-10-19 1997-05-02 Sony Corp 撮像装置
JPH09198224A (ja) 1995-11-13 1997-07-31 Internatl Business Mach Corp <Ibm> グラフィカル・ユーザ・インターフェース内で値を指定する方法および装置
US6621524B1 (en) 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
US6262769B1 (en) 1997-07-31 2001-07-17 Flashpoint Technology, Inc. Method and system for auto rotating a graphical user interface for managing portrait and landscape images in an image capture unit
US6148113A (en) 1998-02-03 2000-11-14 Micrografx, Inc. System for stimulating the depth of field of an image in two dimensional space and method of operation
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6278466B1 (en) 1998-06-11 2001-08-21 Presenter.Com, Inc. Creating animation from a video
US6268864B1 (en) 1998-06-11 2001-07-31 Presenter.Com, Inc. Linking a video and an animation
JP2000207549A (ja) 1999-01-11 2000-07-28 Olympus Optical Co Ltd 画像処理装置
JP2000244905A (ja) 1999-02-22 2000-09-08 Nippon Telegr & Teleph Corp <Ntt> 映像観察システム
US20060033831A1 (en) 1999-09-14 2006-02-16 Nikon Corporation Electronic still camera
US6677981B1 (en) 1999-12-31 2004-01-13 Stmicroelectronics, Inc. Motion play-back of still pictures comprising a panoramic view for simulating perspective
JP2001298649A (ja) 2000-02-14 2001-10-26 Hewlett Packard Co <Hp> タッチスクリーンを有するデジタル画像形成装置
JP3752951B2 (ja) 2000-03-01 2006-03-08 カシオ計算機株式会社 撮像装置および輝度分布表示方法
US6900840B1 (en) 2000-09-14 2005-05-31 Hewlett-Packard Development Company, L.P. Digital camera and method of using same to view image in live view mode
JP4608766B2 (ja) 2000-11-27 2011-01-12 ソニー株式会社 固体撮像素子の駆動方法、及びカメラ
JP2002175538A (ja) 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
WO2002052565A1 (en) * 2000-12-22 2002-07-04 Muvee Technologies Pte Ltd System and method for media production
JP3780178B2 (ja) 2001-05-09 2006-05-31 ファナック株式会社 視覚センサ
JP2003008964A (ja) 2001-06-27 2003-01-10 Konica Corp 電子カメラ
JP2003018438A (ja) 2001-07-05 2003-01-17 Fuji Photo Film Co Ltd 画像撮像装置
JP2003032597A (ja) 2001-07-13 2003-01-31 Mega Chips Corp 撮像再生システム、撮像装置、再生装置及び撮像再生方法
US6930718B2 (en) 2001-07-17 2005-08-16 Eastman Kodak Company Revised recapture camera and method
US6539177B2 (en) 2001-07-17 2003-03-25 Eastman Kodak Company Warning message camera and method
CN1190053C (zh) 2002-02-04 2005-02-16 华为技术有限公司 一种通信设备的数据离线配置方法
JP3788942B2 (ja) 2002-02-22 2006-06-21 株式会社東芝 情報処理装置およびコンピュータの操作支援方法
JP4006347B2 (ja) 2002-03-15 2007-11-14 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
US7271838B2 (en) 2002-05-08 2007-09-18 Olympus Corporation Image pickup apparatus with brightness distribution chart display capability
JP3977684B2 (ja) 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
JP2004015595A (ja) 2002-06-10 2004-01-15 Minolta Co Ltd デジタルカメラ
JP3754943B2 (ja) * 2002-08-19 2006-03-15 キヤノン株式会社 画像処理方法、装置、記憶媒体及びプログラム
US7035462B2 (en) 2002-08-29 2006-04-25 Eastman Kodak Company Apparatus and method for processing digital images having eye color defects
JP2004128584A (ja) 2002-09-30 2004-04-22 Minolta Co Ltd 撮像装置
JP2004135074A (ja) 2002-10-10 2004-04-30 Calsonic Kansei Corp 撮像装置
KR100506199B1 (ko) 2002-11-11 2005-08-05 삼성전자주식회사 무선 모바일 단말기에서 인디케이터 표시 제어 방법
JP2003241293A (ja) 2002-12-16 2003-08-27 Fuji Photo Film Co Ltd リモコン装置付きカメラ
US7039222B2 (en) 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
JP3872041B2 (ja) 2003-06-24 2007-01-24 埼玉日本電気株式会社 カメラ付き携帯電話機およびその撮影停止方法ならびにプログラム
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
JP2005031466A (ja) 2003-07-07 2005-02-03 Fujinon Corp 撮像装置および撮像方法
US7383181B2 (en) 2003-07-29 2008-06-03 Microsoft Corporation Multi-sensory speech detection system
US20050024517A1 (en) 2003-07-29 2005-02-03 Xerox Corporation. Digital camera image template guide apparatus and method thereof
JP3926316B2 (ja) 2003-10-31 2007-06-06 松下電器産業株式会社 撮像装置
CN100440944C (zh) 2003-11-11 2008-12-03 精工爱普生株式会社 图像处理装置以及图像处理方法
JP4342926B2 (ja) 2003-12-24 2009-10-14 三菱電機株式会社 画像入力方法および画像入力装置
JP4387183B2 (ja) 2003-12-26 2009-12-16 京セラ株式会社 デジタルカメラ
JP2005269604A (ja) 2004-02-20 2005-09-29 Fuji Photo Film Co Ltd 撮像装置、撮像方法、及び撮像プログラム
US7616834B2 (en) * 2004-03-03 2009-11-10 Virtual Iris Studios, Inc. System for delivering and enabling interactivity with images
TWI246847B (en) 2004-03-16 2006-01-01 Benq Corp Method and apparatus for improving quality of a scanned image through a preview operation
US7328411B2 (en) 2004-03-19 2008-02-05 Lexmark International, Inc. Scrollbar enhancement for browsing data
JP4446787B2 (ja) 2004-04-21 2010-04-07 富士フイルム株式会社 撮像装置、および表示制御方法
KR100703281B1 (ko) 2004-04-30 2007-04-03 삼성전자주식회사 휴대단말기의 특정 상태에서 화면 표시장치 및 방법
US8045009B2 (en) 2004-05-10 2011-10-25 Hewlett-Packard Development Company, L.P. Image-exposure systems and methods using detecting motion of a camera to terminate exposure
US20050270397A1 (en) 2004-06-02 2005-12-08 Battles Amy E System and method for indicating settings
JP4707368B2 (ja) 2004-06-25 2011-06-22 雅貴 ▲吉▼良 立体視画像作成方法および装置
KR20070086037A (ko) 2004-11-12 2007-08-27 목3, 인크. 장면 간 전환 방법
US8537224B2 (en) 2005-01-31 2013-09-17 Hewlett-Packard Development Company, L.P. Image capture device having a shake metter
WO2006082883A1 (ja) 2005-02-03 2006-08-10 Nikon Corporation 表示装置、電子機器およびカメラ
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
WO2006094199A2 (en) 2005-03-03 2006-09-08 Pixar Hybrid hardware-accelerated relighting system for computer cinematography
KR100740189B1 (ko) 2005-05-13 2007-07-16 노키아 코포레이션 그래픽 사용자 인터페이스를 지닌 장치
JP2006332809A (ja) 2005-05-23 2006-12-07 Fujifilm Holdings Corp 撮像装置
JP2006345172A (ja) 2005-06-08 2006-12-21 Olympus Imaging Corp ファインダ装置及びカメラ
JP2007028211A (ja) 2005-07-15 2007-02-01 Canon Inc 撮像装置及びその制御方法
KR100630190B1 (ko) 2005-07-22 2006-10-02 삼성전자주식회사 이동 통신 단말의 기본화면 설정 방법
US8384763B2 (en) 2005-07-26 2013-02-26 Her Majesty the Queen in right of Canada as represented by the Minster of Industry, Through the Communications Research Centre Canada Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US7424218B2 (en) 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US7460730B2 (en) 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching
WO2007031808A1 (en) 2005-09-14 2007-03-22 Nokia Corporation System and method for implementing motion-driven multi-shot image stabilization
US20070228259A1 (en) 2005-10-20 2007-10-04 Hohenberger Roger T System and method for fusing an image
JP4665718B2 (ja) 2005-10-28 2011-04-06 株式会社ニコン 撮影装置
US20070097088A1 (en) 2005-10-31 2007-05-03 Battles Amy E Imaging device scrolling touch pad with tap points
KR100725356B1 (ko) 2005-11-03 2007-06-07 삼성전자주식회사 컨텐츠를 동적으로 표현하는 장치 및 방법
JP4793179B2 (ja) 2005-11-14 2011-10-12 オムロン株式会社 認証装置及び携帯端末
US20100066895A1 (en) 2005-12-06 2010-03-18 Panasonic Corporation Digital camera
US8223242B2 (en) 2005-12-06 2012-07-17 Panasonic Corporation Digital camera which switches the displays of images with respect to a plurality of display portions
US20100066890A1 (en) 2005-12-06 2010-03-18 Panasonic Corporation Digital camera
RU2384968C1 (ru) 2005-12-06 2010-03-20 Панасоник Корпорэйшн Цифровой фотоаппарат
JP4956988B2 (ja) 2005-12-19 2012-06-20 カシオ計算機株式会社 撮像装置
JP5083855B2 (ja) 2006-01-30 2012-11-28 ソニー株式会社 撮影装置
US7868921B2 (en) * 2006-02-17 2011-01-11 Canon Kabushiki Kaisha Image processing file setting system
US7792355B2 (en) 2006-03-30 2010-09-07 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image capturing apparatus
US20070248330A1 (en) 2006-04-06 2007-10-25 Pillman Bruce H Varying camera self-determination based on subject motion
JP5007523B2 (ja) 2006-05-02 2012-08-22 カシオ計算機株式会社 撮像装置及びそのプログラム
JP4457358B2 (ja) 2006-05-12 2010-04-28 富士フイルム株式会社 顔検出枠の表示方法、文字情報の表示方法及び撮像装置
US8189100B2 (en) 2006-07-25 2012-05-29 Qualcomm Incorporated Mobile device with dual digital camera sensors and methods of using the same
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
JP4483841B2 (ja) 2006-09-06 2010-06-16 カシオ計算機株式会社 撮像装置
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
JP2008096584A (ja) 2006-10-10 2008-04-24 Nikon Corp カメラ
WO2008047664A1 (fr) 2006-10-19 2008-04-24 Panasonic Corporation Dispositif de création d'image et procédé de création d'image
JP2008116823A (ja) 2006-11-07 2008-05-22 Nikon Corp カメラ
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
NZ598897A (en) 2006-12-04 2013-09-27 Lynx System Developers Inc Autonomous systems and methods for still and moving picture production
KR100835956B1 (ko) 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
US20080143840A1 (en) 2006-12-19 2008-06-19 Texas Instruments Incorporated Image Stabilization System and Method for a Digital Camera
KR100785071B1 (ko) 2007-02-08 2007-12-12 삼성전자주식회사 터치스크린을 갖는 휴대 단말기에서 터치 입력에 대한 정보표시 방법
KR101049188B1 (ko) 2007-03-05 2011-07-14 테쎄라 테크놀로지스 아일랜드 리미티드 사진에서의 눈동자 결함의 2단계 검출
KR101406289B1 (ko) 2007-03-08 2014-06-12 삼성전자주식회사 스크롤 기반 아이템 제공 장치 및 방법
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
JP4760742B2 (ja) 2007-03-22 2011-08-31 カシオ計算機株式会社 デジタルカメラ、及び情報表示方法、情報表示制御プログラム
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
EP1981262A1 (en) 2007-04-02 2008-10-15 Research In Motion Limited Camera with multiple viewfinders
US7911513B2 (en) 2007-04-20 2011-03-22 General Instrument Corporation Simulating short depth of field to maximize privacy in videotelephony
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
JP4954800B2 (ja) 2007-06-06 2012-06-20 オリンパス株式会社 顕微鏡撮像システム
US8185839B2 (en) 2007-06-09 2012-05-22 Apple Inc. Browsing or searching user interfaces and other aspects
US8717412B2 (en) 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
US8068693B2 (en) 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
JP2009027298A (ja) 2007-07-18 2009-02-05 Ricoh Co Ltd 撮像装置および撮像装置の制御方法
JP5039786B2 (ja) 2007-07-23 2012-10-03 パナソニック株式会社 撮像装置
JP2009033469A (ja) 2007-07-26 2009-02-12 Olympus Imaging Corp 撮像装置
JP4845832B2 (ja) 2007-08-07 2011-12-28 キヤノン株式会社 撮像装置および制御方法
US20090046097A1 (en) 2007-08-09 2009-02-19 Scott Barrett Franklin Method of making animated video
KR101341095B1 (ko) 2007-08-23 2013-12-13 삼성전기주식회사 야경 환경에서 최적의 화질을 갖는 영상 획득 장치 및 방법
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
JP4930297B2 (ja) 2007-09-10 2012-05-16 株式会社ニコン 撮像装置
US8390628B2 (en) 2007-09-11 2013-03-05 Sony Computer Entertainment America Llc Facial animation using motion capture data
JP4466702B2 (ja) 2007-09-12 2010-05-26 カシオ計算機株式会社 撮像装置、及び撮像制御プログラム
JP4930302B2 (ja) 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
US8381086B2 (en) 2007-09-18 2013-02-19 Microsoft Corporation Synchronizing slide show events with audio
CN101802705B (zh) 2007-10-15 2013-06-26 松下电器产业株式会社 相机本体和摄影装置
US8395661B1 (en) 2009-02-16 2013-03-12 Seektech, Inc. Pipe inspection system with selective image capture
JP2009111844A (ja) 2007-10-31 2009-05-21 Fujifilm Corp 撮影装置
US7391442B1 (en) 2007-11-01 2008-06-24 International Business Machines Corporation Digital camera including a distortion correction system
US8892999B2 (en) 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
WO2009078091A1 (ja) 2007-12-17 2009-06-25 Pioneer Corporation 情報処理装置、制御方法、制御プログラム、および記録媒体
US8179363B2 (en) 2007-12-26 2012-05-15 Sharp Laboratories Of America, Inc. Methods and systems for display source light management with histogram manipulation
US8207932B2 (en) 2007-12-26 2012-06-26 Sharp Laboratories Of America, Inc. Methods and systems for display source light illumination level selection
KR101411910B1 (ko) 2008-01-04 2014-06-26 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US20130085935A1 (en) 2008-01-18 2013-04-04 Mitek Systems Systems and methods for mobile image capture and remittance processing
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP5036599B2 (ja) 2008-03-05 2012-09-26 株式会社リコー 撮像装置
JP4483962B2 (ja) 2008-03-25 2010-06-16 ソニー株式会社 撮像装置、撮像方法
JP2009246468A (ja) 2008-03-28 2009-10-22 Fujifilm Corp 撮影装置及び撮影装置の制御方法
US20090251484A1 (en) 2008-04-03 2009-10-08 Motorola, Inc. Avatar for a portable device
JP4544332B2 (ja) 2008-04-07 2010-09-15 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US8099462B2 (en) 2008-04-28 2012-01-17 Cyberlink Corp. Method of displaying interactive effects in web camera communication
US20090276700A1 (en) 2008-04-30 2009-11-05 Nokia Corporation Method, apparatus, and computer program product for determining user status indicators
JP4980982B2 (ja) 2008-05-09 2012-07-18 富士フイルム株式会社 撮像装置、撮像方法、合焦制御方法及びプログラム
US8395671B2 (en) 2008-06-09 2013-03-12 Panasonic Corporation Imaging device and imaging method for correcting effects of motion on a captured image
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
US8035728B2 (en) 2008-06-27 2011-10-11 Aptina Imaging Corporation Method and apparatus providing rule-based auto exposure technique preserving scene dynamic range
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP5153512B2 (ja) 2008-08-08 2013-02-27 キヤノン株式会社 表示処理装置、表示処理方法、プログラム及び記憶媒体
CN101651775B (zh) 2008-08-14 2011-08-24 鸿富锦精密工业(深圳)有限公司 影像撷取装置及其曝光方法
US8930817B2 (en) 2008-08-18 2015-01-06 Apple Inc. Theme-based slideshows
US8400518B2 (en) 2008-09-10 2013-03-19 Panasonic Corporation Imaging apparatus
US9250797B2 (en) 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
KR101555055B1 (ko) 2008-10-10 2015-09-22 엘지전자 주식회사 이동단말기 및 그 디스플레이방법
JP2010117444A (ja) 2008-11-11 2010-05-27 Sigma Corp レンズ鏡筒
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
KR101450580B1 (ko) 2008-11-19 2014-10-14 삼성전자주식회사 이미지 합성 방법 및 장치
JP4395808B2 (ja) 2008-12-04 2010-01-13 富士フイルム株式会社 画面表示部を有する機器の操作装置、デジタルカメラおよびタッチパネル操作方法
US20100153847A1 (en) 2008-12-17 2010-06-17 Sony Computer Entertainment America Inc. User deformation of movie character images
KR20100078295A (ko) 2008-12-30 2010-07-08 삼성전자주식회사 이종의 터치영역을 이용한 휴대단말의 동작 제어 방법 및 장치
JP2010160581A (ja) 2009-01-06 2010-07-22 Olympus Imaging Corp ユーザインタフェース装置、カメラ、ユーザインタフェース方法およびユーザインタフェース用プログラム
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
JP5185150B2 (ja) 2009-02-04 2013-04-17 富士フイルム株式会社 携帯機器および操作制御方法
JP5262928B2 (ja) 2009-02-13 2013-08-14 富士通株式会社 撮像装置、携帯端末装置および合焦機構制御方法
EP2399182B1 (en) 2009-02-20 2014-04-09 Koninklijke Philips N.V. System, method and apparatus for causing a device to enter an active mode
US8532346B2 (en) 2009-03-11 2013-09-10 Sony Corporation Device, method and computer program product
JP5259464B2 (ja) 2009-03-13 2013-08-07 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
US8542287B2 (en) 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
US8413054B2 (en) 2009-04-13 2013-04-02 Cisco Technology, Inc. Graphical user interface for still image capture from video footage
US20100277470A1 (en) 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US9144714B2 (en) 2009-05-02 2015-09-29 Steven J. Hollinger Ball with camera for reconnaissance or recreation and network for operating the same
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
JP5775659B2 (ja) 2009-05-07 2015-09-09 オリンパス株式会社 撮像装置および撮像装置におけるモード切換え方法
JP5478935B2 (ja) 2009-05-12 2014-04-23 キヤノン株式会社 撮像装置
KR101857564B1 (ko) 2009-05-15 2018-05-15 삼성전자 주식회사 휴대 단말기의 이미지 처리 방법
JP5326802B2 (ja) 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
US8340654B2 (en) 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
US8610741B2 (en) 2009-06-02 2013-12-17 Microsoft Corporation Rendering aligned perspective images
CN101576996B (zh) 2009-06-05 2012-04-25 腾讯科技(深圳)有限公司 一种实现图像缩放中的处理方法及装置
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
KR101527037B1 (ko) 2009-06-23 2015-06-16 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5552769B2 (ja) 2009-07-29 2014-07-16 ソニー株式会社 画像編集装置、画像編集方法及びプログラム
JP5404221B2 (ja) 2009-07-13 2014-01-29 キヤノン株式会社 撮像装置
US8723988B2 (en) 2009-07-17 2014-05-13 Sony Corporation Using a touch sensitive display to control magnification and capture of digital images by an electronic device
JP2011045039A (ja) 2009-07-21 2011-03-03 Fujifilm Corp 複眼撮像装置
JP2011028345A (ja) 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
CA2772607A1 (en) 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
EP3260969B1 (en) 2009-09-22 2021-03-03 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US20110074830A1 (en) 2009-09-25 2011-03-31 Peter William Rapp Device, Method, and Graphical User Interface Using Mid-Drag Gestures
JP2011087167A (ja) 2009-10-16 2011-04-28 Olympus Imaging Corp カメラ
JP5396231B2 (ja) 2009-10-21 2014-01-22 オリンパスイメージング株式会社 撮像装置
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
JP5343829B2 (ja) 2009-12-03 2013-11-13 株式会社リコー 情報処理装置及び情報処理装置の制御方法
JP5532214B2 (ja) 2009-12-11 2014-06-25 日本電気株式会社 カメラ付き携帯電話機
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
CN101860668A (zh) 2010-01-15 2010-10-13 英华达(上海)科技有限公司 数码相机及其操作方法
US8638371B2 (en) 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
JP4870218B2 (ja) 2010-02-26 2012-02-08 オリンパス株式会社 撮像装置
CN101778220A (zh) 2010-03-01 2010-07-14 华为终端有限公司 一种自动切换夜景模式的方法和摄像设备
US20110221755A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
CN102202208A (zh) 2010-03-23 2011-09-28 华为终端有限公司 一种信息交互方法及界面控制系统
JP4787906B1 (ja) 2010-03-30 2011-10-05 富士フイルム株式会社 撮像装置、方法およびプログラム
JP5719608B2 (ja) 2010-04-02 2015-05-20 オリンパスイメージング株式会社 撮影機器
FR2958487A1 (fr) 2010-04-06 2011-10-07 Alcatel Lucent Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video
US8744420B2 (en) 2010-04-07 2014-06-03 Apple Inc. Establishing a video conference during a phone call
US8405680B1 (en) 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
KR101666919B1 (ko) 2010-08-13 2016-10-24 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
WO2012001947A1 (ja) 2010-06-28 2012-01-05 株式会社ニコン 撮像装置、画像処理装置、画像処理プログラム記録媒体
US8885978B2 (en) 2010-07-05 2014-11-11 Apple Inc. Operating a device to capture high dynamic range images
JP5464083B2 (ja) 2010-07-07 2014-04-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8619093B2 (en) * 2010-07-20 2013-12-31 Apple Inc. Keying an image
US8421898B2 (en) 2010-07-27 2013-04-16 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Method for detecting and showing quality of a preview or stored picture in an electronic imaging device
US8781152B2 (en) 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
US8468465B2 (en) * 2010-08-09 2013-06-18 Apple Inc. Two-dimensional slider control
JP5621422B2 (ja) 2010-09-07 2014-11-12 ソニー株式会社 情報処理装置、プログラム及び制御方法
KR101700363B1 (ko) 2010-09-08 2017-01-26 삼성전자주식회사 적절한 밝기를 갖는 입체 영상을 생성하는 디지털 영상 촬영 장치 및 이의 제어 방법
US20120069028A1 (en) 2010-09-20 2012-03-22 Yahoo! Inc. Real-time animations of emoticons using facial recognition during a video chat
US8830226B2 (en) 2010-09-28 2014-09-09 Apple Inc. Systems, methods, and computer-readable media for integrating a three-dimensional asset with a three-dimensional model
KR101743632B1 (ko) 2010-10-01 2017-06-07 삼성전자주식회사 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP5613005B2 (ja) 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
KR20130138270A (ko) 2010-10-22 2013-12-18 유니버시티 오브 뉴 브런즈윅 카메라 이미징 시스템 및 방법
KR101674959B1 (ko) 2010-11-02 2016-11-10 엘지전자 주식회사 이동 단말기 및 이것의 영상 촬영 제어 방법
KR20120048397A (ko) 2010-11-05 2012-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2012109898A (ja) 2010-11-19 2012-06-07 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
KR101716420B1 (ko) 2010-11-19 2017-03-27 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
JP2012119858A (ja) 2010-11-30 2012-06-21 Aof Imaging Technology Ltd 撮影装置、撮影方法、およびプログラム
JP2012124608A (ja) 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
CN102567953A (zh) 2010-12-20 2012-07-11 上海杉达学院 图像光影效果处理装置
KR101710631B1 (ko) 2010-12-23 2017-03-08 삼성전자주식회사 손 떨림 보정 모듈을 구비하는 디지털 영상 촬영 장치 및 이의 제어 방법
JP5652652B2 (ja) 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US20120169776A1 (en) 2010-12-29 2012-07-05 Nokia Corporation Method and apparatus for controlling a zoom function
CN102075727A (zh) 2010-12-30 2011-05-25 中兴通讯股份有限公司 一种可视电话中图像处理方法和装置
JP5717453B2 (ja) 2011-01-14 2015-05-13 キヤノン株式会社 撮像装置及び撮像装置の制御方法
KR101692401B1 (ko) 2011-01-21 2017-01-03 삼성전자주식회사 영상 처리 방법 및 장치
JP5246275B2 (ja) 2011-01-25 2013-07-24 株式会社ニコン 撮像装置およびプログラム
KR101836381B1 (ko) 2011-01-28 2018-03-08 삼성전자주식회사 터치스크린 단말기에서 화면 디스플레이 제어 방법 및 장치
US8717464B2 (en) 2011-02-09 2014-05-06 Blackberry Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US9058098B2 (en) 2011-02-14 2015-06-16 Sony Corporation Display control device
TWI433534B (zh) 2011-02-15 2014-04-01 Ability Entpr Co Ltd 感光度校正方法及成像裝置
US8780140B2 (en) 2011-02-16 2014-07-15 Sony Corporation Variable display scale control device and variable playing speed control device
GB201102794D0 (en) 2011-02-17 2011-03-30 Metail Ltd Online retail system
US9288476B2 (en) 2011-02-17 2016-03-15 Legend3D, Inc. System and method for real-time depth modification of stereo images of a virtual reality environment
US8896652B2 (en) 2011-02-28 2014-11-25 Soryn Technologies Llc System and method for real-time video communications
JP5250070B2 (ja) 2011-03-15 2013-07-31 富士フイルム株式会社 画像処理装置および画像処理方法、ならびに、画像処理システム
WO2012126135A1 (en) 2011-03-21 2012-09-27 Intel Corporation Method of augmented makeover with 3d face modeling and landmark alignment
US20120243802A1 (en) 2011-03-25 2012-09-27 William Vernon Fintel Composite image formed from an image sequence
US20120244969A1 (en) 2011-03-25 2012-09-27 May Patents Ltd. System and Method for a Motion Sensing Device
US8736704B2 (en) 2011-03-25 2014-05-27 Apple Inc. Digital camera for capturing an image sequence
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
JP5921080B2 (ja) 2011-04-28 2016-05-24 キヤノン株式会社 撮像装置及びその制御方法
JP5762115B2 (ja) 2011-04-28 2015-08-12 キヤノン株式会社 撮像装置及びその制御方法
KR101756839B1 (ko) 2011-05-17 2017-07-11 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
CA2837192A1 (en) 2011-05-23 2012-11-29 Blu Homes, Inc. Method, apparatus and system for customizing a building via a virtual environment
CN102855079B (zh) 2011-05-24 2016-06-08 Lg电子株式会社 移动终端
US9117483B2 (en) 2011-06-03 2015-08-25 Michael Edward Zaletel Method and apparatus for dynamically recording, editing and combining multiple live video clips and still photographs into a finished composition
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8832284B1 (en) 2011-06-16 2014-09-09 Google Inc. Virtual socializing
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
JP5855862B2 (ja) 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
WO2012149983A1 (en) 2011-07-08 2012-11-08 Visual Retailing Holding B.V. Imaging apparatus and controller for photographing products
US9024938B2 (en) 2011-07-29 2015-05-05 Adobe Systems Incorporated Methods and apparatus for sweep-based freeform deformation of 3-D models
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP5516532B2 (ja) 2011-08-09 2014-06-11 カシオ計算機株式会社 電子機器、及びプログラム
US20130055119A1 (en) 2011-08-23 2013-02-28 Anh Luong Device, Method, and Graphical User Interface for Variable Speed Navigation
EP2562628A1 (en) 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
JP5791433B2 (ja) 2011-08-31 2015-10-07 任天堂株式会社 情報処理プログラム、情報処理システム、情報処理装置および情報処理方法
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US9001255B2 (en) 2011-09-30 2015-04-07 Olympus Imaging Corp. Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
US20130088413A1 (en) 2011-10-05 2013-04-11 Google Inc. Method to Autofocus on Near-Eye Display
KR101792641B1 (ko) 2011-10-07 2017-11-02 엘지전자 주식회사 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법
US8830191B2 (en) 2011-10-17 2014-09-09 Facebook, Inc. Soft control user interface with touchpad input device
US9448708B1 (en) 2011-10-19 2016-09-20 Google Inc. Theming for virtual collaboration
WO2013059599A1 (en) 2011-10-19 2013-04-25 The Regents Of The University Of California Image-based measurement tools
JP2013101528A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
CN202330968U (zh) 2011-11-11 2012-07-11 东莞市台德实业有限公司 带拍照闪光的摄像头
JP5741395B2 (ja) 2011-11-16 2015-07-01 コニカミノルタ株式会社 撮像装置
CN105653031B (zh) 2011-11-23 2019-10-01 英特尔公司 带有多个视图、显示器以及物理学的姿势输入
GB2496893A (en) 2011-11-25 2013-05-29 Nokia Corp Presenting Name Bubbles at Different Image Zoom Levels
EP2600316A1 (en) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US8767034B2 (en) 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
US8941707B2 (en) 2011-12-01 2015-01-27 Tangome, Inc. Video messaging
US9626013B2 (en) 2011-12-05 2017-04-18 Sony Corporation Imaging apparatus
US20130147933A1 (en) 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
US20130155308A1 (en) 2011-12-20 2013-06-20 Qualcomm Incorporated Method and apparatus to enhance details in an image
US20130159900A1 (en) 2011-12-20 2013-06-20 Nokia Corporation Method, apparatus and computer program product for graphically enhancing the user interface of a device
US9207837B2 (en) 2011-12-20 2015-12-08 Nokia Technologies Oy Method, apparatus and computer program product for providing multiple levels of interaction with a program
KR101873747B1 (ko) 2011-12-27 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN106961621A (zh) 2011-12-29 2017-07-18 英特尔公司 使用化身的通信
JP5854848B2 (ja) 2012-01-10 2016-02-09 キヤノン株式会社 撮像装置、撮像装置の制御方法、プログラム、記憶媒体
US9204099B2 (en) 2012-02-01 2015-12-01 Magor Communications Corporation Videoconferencing system providing virtual physical context
US8723796B2 (en) 2012-02-02 2014-05-13 Kodak Alaris Inc. Multi-user interactive display system
US8849028B2 (en) * 2012-02-06 2014-09-30 Apple Inc. Color selection tool for selecting a custom color component
US9230306B2 (en) 2012-02-07 2016-01-05 Semiconductor Components Industries, Llc System for reducing depth of field with digital image processing
US10044938B2 (en) 2012-02-08 2018-08-07 Abukai, Inc. Method and apparatus for processing images of receipts
TWI519155B (zh) 2012-02-24 2016-01-21 宏達國際電子股份有限公司 影像連續拍攝方法與相關影像擷取系統
US8675113B2 (en) 2012-02-24 2014-03-18 Research In Motion Limited User interface for a digital camera
JP6041500B2 (ja) 2012-03-01 2016-12-07 キヤノン株式会社 撮像装置、撮像システム、撮像装置の駆動方法、撮像システムの駆動方法
EP2634751B1 (en) 2012-03-01 2018-12-26 BlackBerry Limited Drag handle for applying image filters in picture editor
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US8934045B2 (en) 2012-03-12 2015-01-13 Apple Inc. Digital camera system having remote control
US20130235234A1 (en) 2012-03-12 2013-09-12 Megan Lyn Cucci Digital camera having multiple image capture systems
US20130235226A1 (en) 2012-03-12 2013-09-12 Keith Stoll Karn Digital camera having low power capture mode
EP2640060A1 (en) 2012-03-16 2013-09-18 BlackBerry Limited Methods and devices for producing an enhanced image
US20130246948A1 (en) 2012-03-16 2013-09-19 Lenovo (Beijing) Co., Ltd. Control method and control device
CN103324329B (zh) 2012-03-23 2016-07-06 联想(北京)有限公司 一种触摸控制方法和装置
US9264660B1 (en) 2012-03-30 2016-02-16 Google Inc. Presenter control during a video conference
CN104170318B (zh) 2012-04-09 2018-06-01 英特尔公司 使用交互化身的通信
CN104170358B (zh) 2012-04-09 2016-05-11 英特尔公司 用于化身管理和选择的系统和方法
JP2013219556A (ja) 2012-04-09 2013-10-24 Olympus Imaging Corp 撮像装置
US9785883B2 (en) 2012-04-27 2017-10-10 Excalibur Ip, Llc Avatars for use with personalized generalized content recommendations
KR101683868B1 (ko) 2012-05-09 2016-12-07 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN107124546B (zh) 2012-05-18 2020-10-16 华为终端有限公司 一种自动切换终端对焦模式的方法及终端
JP6455147B2 (ja) 2012-05-22 2019-01-23 株式会社ニコン 電子カメラ、画像表示装置および画像表示プログラム
US10681304B2 (en) 2012-06-08 2020-06-09 Apple, Inc. Capturing a panoramic image using a graphical user interface having a scan guidance indicator
US8842888B2 (en) 2012-06-15 2014-09-23 Aoptix Technologies, Inc. User interface for combined biometric mobile device
CN104395929B (zh) 2012-06-21 2017-10-03 微软技术许可有限责任公司 使用深度相机的化身构造
JP2014010777A (ja) 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
KR101937708B1 (ko) 2012-07-09 2019-04-11 삼성전자 주식회사 카메라 제어 시스템과 이를 포함하는 단말기 및 카메라 제어 방법
CN104335157A (zh) 2012-07-20 2015-02-04 三菱电机株式会社 信息显示装置、显示切换方法以及显示切换程序
JP2014023083A (ja) 2012-07-23 2014-02-03 Nikon Corp 表示装置、撮像装置及び画像編集プログラム
US8780219B2 (en) 2012-07-23 2014-07-15 Wooblue, Inc. Wireless viewing and control interface for imaging devices
US9019415B2 (en) 2012-07-26 2015-04-28 Qualcomm Incorporated Method and apparatus for dual camera shutter
KR101900097B1 (ko) 2012-07-30 2018-09-20 삼성전자주식회사 이미지 캡처 방법 및 이미지 캡처 장치
KR20140019631A (ko) 2012-08-06 2014-02-17 삼성전자주식회사 방사선 영상 촬영 장치 및 방법
TWI470598B (zh) 2012-08-07 2015-01-21 Wistron Corp 顯示調整方法及其電腦程式產品
KR20140021821A (ko) 2012-08-09 2014-02-21 삼성전자주식회사 이미지 캡처 장치 및 이미지 캡처 방법
US8910082B2 (en) 2012-08-10 2014-12-09 Modiface Inc. Method and system for modification of digital images through rotational cascading-effect interface
WO2014030161A1 (en) 2012-08-20 2014-02-27 Ron Levy Systems and methods for collection-based multimedia data packaging and display
US8957892B2 (en) 2012-08-20 2015-02-17 Disney Enterprises, Inc. Stereo composition based on multiple camera rigs
US8928724B2 (en) 2012-08-31 2015-01-06 Microsoft Corporation Unified user experience for mobile calls
KR101343591B1 (ko) 2012-09-03 2013-12-19 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9602559B1 (en) 2012-09-07 2017-03-21 Mindmeld, Inc. Collaborative communication system with real-time anticipatory computing
US20140071061A1 (en) 2012-09-12 2014-03-13 Chih-Ping Lin Method for controlling execution of camera related functions by referring to gesture pattern and related computer-readable medium
JP5999336B2 (ja) 2012-09-13 2016-09-28 カシオ計算機株式会社 撮像装置及び撮像処理方法並びにプログラム
KR101487516B1 (ko) 2012-09-28 2015-01-30 주식회사 팬택 연속 자동 초점을 이용한 멀티 초점 이미지 캡처 장치 및 방법
US9619133B2 (en) 2012-10-10 2017-04-11 Sk Planet Co., Ltd. Method and system for displaying contents scrolling at high speed and scroll bar
US20140123005A1 (en) 2012-10-25 2014-05-01 Apple Inc. User interface for streaming media stations with virtual playback
KR101984921B1 (ko) 2012-10-18 2019-05-31 엘지전자 주식회사 휴대 단말기의 동작 방법
CN103777742B (zh) 2012-10-19 2017-08-25 广州三星通信技术研究有限公司 用于在显示装置中提供用户界面的方法和显示装置
ES2640926T5 (es) 2012-10-24 2021-07-26 Signify Holding Bv Asistencia a un usuario para seleccionar un diseño de dispositivo de iluminación
US8762895B2 (en) 2012-10-28 2014-06-24 Google Inc. Camera zoom indicator in mobile devices
US9807263B2 (en) 2012-10-31 2017-10-31 Conduent Business Services, Llc Mobile document capture assistance using augmented reality
WO2014078598A1 (en) 2012-11-14 2014-05-22 invi Labs, Inc. System for and method of embedding rich media into text messages
WO2014076791A1 (ja) 2012-11-15 2014-05-22 三菱電機株式会社 ユーザインタフェース装置
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
WO2014083489A1 (en) 2012-11-28 2014-06-05 Corephotonics Ltd. High-resolution thin multi-aperture imaging systems
AU2012258467A1 (en) 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9459768B2 (en) 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
CN104782120B (zh) 2012-12-17 2018-08-10 英特尔公司 化身动画制作方法、计算设备和存储介质
CN103051837A (zh) 2012-12-17 2013-04-17 广东欧珀移动通信有限公司 一种提高摄像头暗拍效果的方法和装置
KR101418552B1 (ko) 2012-12-20 2014-07-16 주식회사 팬택 디밍 상태를 위한 사용자 인터페이스 장치 및 그 방법
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9264630B2 (en) 2013-01-04 2016-02-16 Nokia Technologies Oy Method and apparatus for creating exposure effects using an optical image stabilizing device
CN103051841B (zh) 2013-01-05 2016-07-06 小米科技有限责任公司 曝光时间的控制方法及装置
US8977077B2 (en) * 2013-01-21 2015-03-10 Apple Inc. Techniques for presenting user adjustments to a digital image
TWI537813B (zh) 2013-01-25 2016-06-11 宏達國際電子股份有限公司 電子裝置及其照相機切換方法
CN103093490B (zh) 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
US10477087B2 (en) 2017-11-16 2019-11-12 Duelight Llc System, method, and computer program for capturing a flash image based on ambient and flash metering
KR102013331B1 (ko) 2013-02-23 2019-10-21 삼성전자 주식회사 듀얼 카메라를 구비하는 휴대 단말기의 이미지 합성 장치 및 방법
JP5729407B2 (ja) 2013-02-28 2015-06-03 カシオ計算機株式会社 撮像装置、表示制御方法及びプログラム
KR20140108078A (ko) 2013-02-28 2014-09-05 삼성전자주식회사 논-스테레오스코픽 카메라를 이용하여 스테레오스코픽 이미지를 생성하는 방법과 기기 및 장치
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9342230B2 (en) 2013-03-13 2016-05-17 Microsoft Technology Licensing, Llc Natural user interface scrolling and targeting
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
KR102063915B1 (ko) 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
US9886160B2 (en) 2013-03-15 2018-02-06 Google Llc Managing audio at the tab level for user notification and control
US20140281966A1 (en) * 2013-03-15 2014-09-18 Canon Kabushiki Kaisha Electronic apparatus, and control method therefor
JP2014183425A (ja) 2013-03-19 2014-09-29 Sony Corp 画像処理方法、画像処理装置および画像処理プログラム
JP5851651B2 (ja) 2013-03-21 2016-02-03 株式会社日立国際電気 映像監視システム、映像監視方法、および映像監視装置
US9066017B2 (en) 2013-03-25 2015-06-23 Google Inc. Viewfinder display based on metering images
US20150145950A1 (en) 2013-03-27 2015-05-28 Bae Systems Information And Electronic Systems Integration Inc. Multi field-of-view multi sensor electro-optical fusion-zoom camera
KR102099635B1 (ko) 2013-04-09 2020-04-13 삼성전자 주식회사 카메라의 가이드 제공 방법 및 그 전자 장치
JP6034740B2 (ja) 2013-04-18 2016-11-30 オリンパス株式会社 撮像装置および撮像方法
IL226047A (en) 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
AU2014262897B2 (en) 2013-05-04 2018-03-22 Christopher Decharms Mobile security technology
KR20140133363A (ko) 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
JP6248412B2 (ja) 2013-05-13 2017-12-20 ソニー株式会社 撮像装置、撮像方法、プログラム
JP2014222439A (ja) 2013-05-14 2014-11-27 ソニー株式会社 情報処理装置、パーツ生成利用方法及びプログラム
JP6244655B2 (ja) 2013-05-16 2017-12-13 ソニー株式会社 画像処理装置および画像処理方法
WO2014189484A1 (en) 2013-05-20 2014-11-27 Intel Corporation Technologies for increasing the accuracy of depth camera images
KR20140138424A (ko) 2013-05-23 2014-12-04 삼성전자주식회사 제스쳐를 이용한 사용자 인터페이스 방법 및 장치
US20140355960A1 (en) 2013-05-31 2014-12-04 Microsoft Corporation Touch optimized design for video editing
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
WO2014194439A1 (en) 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
US9452354B2 (en) 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US9542907B2 (en) 2013-06-09 2017-01-10 Apple Inc. Content adjustment in graphical user interface based on background content
US10168882B2 (en) 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
CN108234851B (zh) 2013-06-13 2019-08-16 核心光电有限公司 双孔径变焦数字摄影机
US20140372856A1 (en) 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
US9509913B2 (en) 2013-06-18 2016-11-29 Olympus Corporation Image pickup apparatus, method of controlling image pickup apparatus, image pickup apparatus system, and image pickup control program stored in storage medium of image pickup apparatus
JP6173060B2 (ja) 2013-06-18 2017-08-02 オリンパス株式会社 撮影機器及びその制御方法
KR102092330B1 (ko) 2013-06-20 2020-03-23 삼성전자주식회사 촬영 제어 방법 및 그 전자 장치
JP2015005255A (ja) 2013-06-24 2015-01-08 シャープ株式会社 情報表示装置ならびにスクロール制御プログラムおよび方法、情報表示装置を用いた画像読取装置および情報表示装置を用いた画像形成装置
GB2515797A (en) 2013-07-04 2015-01-07 Sony Corp A method, apparatus and system for image processing
KR20150014290A (ko) 2013-07-29 2015-02-06 엘지전자 주식회사 영상표시장치 및 영상표시장치 동작방법
KR102101740B1 (ko) 2013-07-08 2020-04-20 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10079970B2 (en) 2013-07-16 2018-09-18 Texas Instruments Incorporated Controlling image focus in real-time using gestures and depth sensor data
KR102133529B1 (ko) 2013-07-16 2020-07-13 삼성전자주식회사 영상 필터 정렬 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 디지털 영상 장치
WO2015011703A1 (en) 2013-07-21 2015-01-29 Pointgrab Ltd. Method and system for touchless activation of a device
JP6102602B2 (ja) 2013-07-23 2017-03-29 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US20150033192A1 (en) 2013-07-23 2015-01-29 3M Innovative Properties Company Method for creating effective interactive advertising content
JP6288975B2 (ja) 2013-07-25 2018-03-07 オリンパス株式会社 撮影機器及びその制御方法
US10015308B2 (en) 2013-07-26 2018-07-03 Lg Electronics Inc. Mobile terminal and method of controlling the same
US9299188B2 (en) 2013-08-08 2016-03-29 Adobe Systems Incorporated Automatic geometry and lighting inference for realistic image editing
KR102047703B1 (ko) 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN104346080A (zh) 2013-08-09 2015-02-11 昆达电脑科技(昆山)有限公司 屏幕控制系统及其方法
US10289265B2 (en) 2013-08-15 2019-05-14 Excalibur Ip, Llc Capture and retrieval of a personalized mood icon
KR102065408B1 (ko) 2013-08-16 2020-01-13 엘지전자 주식회사 이동 단말기
US9881645B2 (en) 2013-08-20 2018-01-30 Google Llc Systems, methods, and media for editing video during playback via gestures
GB2531441B (en) 2013-08-21 2016-10-26 Canon Kk Image capturing apparatus and control method thereof
US9804760B2 (en) 2013-08-22 2017-10-31 Apple Inc. Scrollable in-line camera for capturing and sharing content
US8917329B1 (en) 2013-08-22 2014-12-23 Gopro, Inc. Conversion between aspect ratios in camera
CN104423946B (zh) 2013-08-30 2018-02-27 联想(北京)有限公司 一种图像处理方法以及电子设备
KR102124604B1 (ko) 2013-09-02 2020-06-19 삼성전자주식회사 이미지 안정화 방법 그 전자 장치
JP5769768B2 (ja) 2013-09-03 2015-08-26 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP5893594B2 (ja) 2013-09-03 2016-03-23 富士フイルム株式会社 画像表示制御装置、方法、プログラム及び画像表示システム
JP6476658B2 (ja) 2013-09-11 2019-03-06 ソニー株式会社 画像処理装置および方法
KR102077108B1 (ko) 2013-09-13 2020-02-14 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
US20160227285A1 (en) 2013-09-16 2016-08-04 Thomson Licensing Browsing videos by searching multiple user comments and overlaying those into the content
KR102065046B1 (ko) 2013-09-16 2020-01-10 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US10944917B2 (en) 2013-09-16 2021-03-09 Kyle L. Baltz Camera and image processing method
US9652475B2 (en) 2013-09-17 2017-05-16 Google Technology Holdings LLC Highlight reels
US9544574B2 (en) 2013-12-06 2017-01-10 Google Inc. Selecting camera pairs for stereoscopic imaging
US9361319B2 (en) 2013-09-30 2016-06-07 Duelight Llc Systems, methods, and computer program products for digital photography
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
JP6234151B2 (ja) 2013-10-09 2017-11-22 キヤノン株式会社 撮像装置
KR102063768B1 (ko) 2013-10-16 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
EP3058714A4 (en) 2013-10-18 2017-11-22 The Lightco Inc. Methods and apparatus for capturing and/or combining images
GB2519363A (en) 2013-10-21 2015-04-22 Nokia Technologies Oy Method, apparatus and computer program product for modifying illumination in an image
KR102124014B1 (ko) 2013-10-29 2020-06-17 삼성전자주식회사 영상 촬상 장치 및 이의 보케 영상 생성 방법
US9508173B2 (en) 2013-10-30 2016-11-29 Morpho, Inc. Image processing device having depth map generating unit, image processing method and non-transitory computer redable recording medium
US10271010B2 (en) 2013-10-31 2019-04-23 Shindig, Inc. Systems and methods for controlling the display of content
JP6273782B2 (ja) 2013-11-07 2018-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2015073924A1 (en) 2013-11-14 2015-05-21 Smiletime, Inc. Social multi-camera interactive live engagement system
US9386235B2 (en) 2013-11-15 2016-07-05 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
JP5744161B2 (ja) 2013-11-18 2015-07-01 シャープ株式会社 画像処理装置
US10157294B2 (en) 2013-11-26 2018-12-18 CaffeiNATION Signings (Series 3 of Caffeinaton Series, LLC) Systems, methods and computer program products for managing remote execution of transaction documents
KR20150061277A (ko) 2013-11-27 2015-06-04 삼성전자주식회사 영상 촬영 장치 및 이의 영상 촬영 방법
US20150149927A1 (en) 2013-11-27 2015-05-28 Facebook, Inc. Communication user interface systems and methods
US9246961B2 (en) 2013-11-27 2016-01-26 Facebook, Inc. Communication user interface systems and methods
JP6432130B2 (ja) 2013-11-29 2018-12-05 カシオ計算機株式会社 表示システム、表示装置、撮影装置、表示方法及びプログラム
CN103702029B (zh) 2013-12-20 2017-06-06 百度在线网络技术(北京)有限公司 拍摄时提示对焦的方法及装置
JP6247527B2 (ja) 2013-12-24 2017-12-13 キヤノン株式会社 撮像装置及び制御方法、プログラム、並びに記憶媒体
CN104754203B (zh) 2013-12-31 2018-07-31 华为技术有限公司 拍摄方法、装置及终端
US9462169B2 (en) 2013-12-31 2016-10-04 Huawei Technologies Co., Ltd. Shooting method, apparatus, and terminal
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
KR102114617B1 (ko) 2014-01-08 2020-05-25 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6255109B2 (ja) 2014-01-23 2017-12-27 アップル インコーポレイテッド タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、プログラム及び方法
WO2015115203A1 (ja) 2014-01-28 2015-08-06 ソニー株式会社 撮影装置、撮影方法、及び、プログラム
US9207844B2 (en) 2014-01-31 2015-12-08 EyeGroove, Inc. Methods and devices for touch-based media creation
EP3100135A4 (en) 2014-01-31 2017-08-30 Hewlett-Packard Development Company, L.P. Camera included in display
DE102014202490A1 (de) 2014-02-12 2015-08-13 Volkswagen Aktiengesellschaft Vorrichtung und Verfahren zur Signalisierung einer erfolgreichen Gesteneingabe
GB201402534D0 (en) 2014-02-13 2014-04-02 Piksel Inc Crowd based content delivery
KR102243653B1 (ko) 2014-02-17 2021-04-23 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9703446B2 (en) 2014-02-28 2017-07-11 Prezi, Inc. Zooming user interface frames embedded image frame sequence
DE102014102689A1 (de) 2014-02-28 2015-09-03 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Laufbildkameraanordnung und Verfahren zum Betreiben einer Laufbildkameraanordnung
US9538078B2 (en) 2014-03-02 2017-01-03 Google Inc. User interface for wide angle photography
JP6490430B2 (ja) 2014-03-03 2019-03-27 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US10235587B2 (en) 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
US9313401B2 (en) 2014-03-04 2016-04-12 Here Global B.V. Frame rate designation region
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
KR102257620B1 (ko) 2014-03-20 2021-05-28 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US20150277686A1 (en) 2014-03-25 2015-10-01 ScStan, LLC Systems and Methods for the Real-Time Modification of Videos and Images Within a Social Network Format
EP3123449B1 (en) 2014-03-25 2020-01-01 Apple Inc. Method and system for representing a virtual object in a view of a real environment
WO2015146241A1 (ja) 2014-03-27 2015-10-01 Nkワークス株式会社 画像処理装置
JP6646936B2 (ja) 2014-03-31 2020-02-14 キヤノン株式会社 画像処理装置、その制御方法、およびプログラム
US9258480B2 (en) 2014-03-31 2016-02-09 Facebook, Inc. Techniques to selectively capture visual media using a single interface element
US9801613B2 (en) 2014-04-18 2017-10-31 Fujifilm Sonosite, Inc. Hand-held medical imaging system with thumb controller and associated systems and methods
GB201407267D0 (en) 2014-04-24 2014-06-11 Cathx Res Ltd Underwater surveys
US9589321B2 (en) 2014-04-24 2017-03-07 Google Inc. Systems and methods for animating a view of a composite image
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
JP6493395B2 (ja) 2014-04-30 2019-04-03 ソニー株式会社 画像処理装置と画像処理方法
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US9507420B2 (en) 2014-05-13 2016-11-29 Qualcomm Incorporated System and method for providing haptic feedback to assist in capturing images
US20150332534A1 (en) 2014-05-15 2015-11-19 Narvii Inc. Systems and methods implementing user interface objects
KR102158214B1 (ko) 2014-05-19 2020-09-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20150341536A1 (en) 2014-05-23 2015-11-26 Mophie, Inc. Systems and methods for orienting an image
US9628416B2 (en) 2014-05-30 2017-04-18 Cisco Technology, Inc. Photo avatars
US9313397B2 (en) 2014-05-30 2016-04-12 Apple Inc. Realtime capture exposure adjust gestures
WO2015183755A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for captured and transmittal of media and location
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9485540B2 (en) 2014-06-03 2016-11-01 Disney Enterprises, Inc. System and method for multi-device video image display and modification
US20150350504A1 (en) 2014-06-03 2015-12-03 2P & M Holdings, LLC RAW Camera Peripheral for Handheld Mobile Unit
CN114630079A (zh) 2014-06-04 2022-06-14 苹果公司 视频通信数据的动态显示
US9360671B1 (en) 2014-06-09 2016-06-07 Google Inc. Systems and methods for image zoom
KR102182401B1 (ko) 2014-06-11 2020-11-24 엘지전자 주식회사 이동단말기 및 그 제어방법
US10091411B2 (en) 2014-06-17 2018-10-02 Lg Electronics Inc. Mobile terminal and controlling method thereof for continuously tracking object included in video
US9910505B2 (en) 2014-06-17 2018-03-06 Amazon Technologies, Inc. Motion control for managing content
US10579236B2 (en) 2014-06-20 2020-03-03 Ati Technologies Ulc Responding to user input including providing user feedback
US9224044B1 (en) 2014-07-07 2015-12-29 Google Inc. Method and system for video zone monitoring
US10074158B2 (en) 2014-07-08 2018-09-11 Qualcomm Incorporated Systems and methods for stereo depth estimation using global minimization and depth interpolation
US9641759B2 (en) 2014-07-10 2017-05-02 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN104156149B (zh) 2014-07-18 2016-04-13 小米科技有限责任公司 拍摄参数调节方法及装置
US9785323B2 (en) 2014-07-23 2017-10-10 Adobe Systems Incorporated Touch-based user interface control tiles
US20160134840A1 (en) 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
KR20160019145A (ko) 2014-08-11 2016-02-19 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9749532B1 (en) 2014-08-12 2017-08-29 Amazon Technologies, Inc. Pixel readout of a charge coupled device having a variable aperture
KR102145542B1 (ko) 2014-08-14 2020-08-18 삼성전자주식회사 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법
JP3194297U (ja) 2014-08-15 2014-11-13 リープ モーション, インコーポレーテッドLeap Motion, Inc. 自動車用及び産業用のモーション感知制御装置
WO2016028807A1 (en) 2014-08-18 2016-02-25 Fuhu, Inc. System and method for providing curated content items
US9230355B1 (en) 2014-08-21 2016-01-05 Glu Mobile Inc. Methods and systems for images with interactive filters
KR102155094B1 (ko) 2014-08-28 2020-09-11 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
US10671252B2 (en) * 2014-09-04 2020-06-02 Home Box Office, Inc. Styling system
KR20160029536A (ko) 2014-09-05 2016-03-15 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US10212111B2 (en) 2014-09-12 2019-02-19 Google Llc System and interface that facilitate selecting videos to share in a messaging application
KR102234709B1 (ko) 2014-09-15 2021-04-01 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US11472338B2 (en) 2014-09-15 2022-10-18 Magna Electronics Inc. Method for displaying reduced distortion video images via a vehicular vision system
JP6252414B2 (ja) 2014-09-16 2017-12-27 カシオ計算機株式会社 図形表示装置、図形表示方法およびプログラム
US10547825B2 (en) 2014-09-22 2020-01-28 Samsung Electronics Company, Ltd. Transmission of three-dimensional video
CN106575444B (zh) 2014-09-24 2020-06-30 英特尔公司 用户姿势驱动的化身装置和方法
JP2016066978A (ja) 2014-09-26 2016-04-28 キヤノンマーケティングジャパン株式会社 撮像装置、その制御方法とプログラム
JP2016072965A (ja) 2014-09-29 2016-05-09 パナソニックIpマネジメント株式会社 撮像装置
US10361986B2 (en) 2014-09-29 2019-07-23 Disney Enterprises, Inc. Gameplay in a chat thread
US20160098094A1 (en) 2014-10-02 2016-04-07 Geegui Corporation User interface enabled by 3d reversals
KR102240302B1 (ko) 2014-10-21 2021-04-14 삼성전자주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
KR102251483B1 (ko) 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
WO2016064435A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
KR102225947B1 (ko) 2014-10-24 2021-03-10 엘지전자 주식회사 이동단말기 및 그 제어방법
US9704250B1 (en) 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
EP3217679B1 (en) 2014-11-05 2020-05-13 LG Electronics Inc. Image output device, mobile terminal, and control method therefor
US20160132201A1 (en) 2014-11-06 2016-05-12 Microsoft Technology Licensing, Llc Contextual tabs in mobile ribbons
CN105589637A (zh) 2014-11-11 2016-05-18 阿里巴巴集团控股有限公司 基于手势的缩放方法及装置
US9412169B2 (en) 2014-11-21 2016-08-09 iProov Real-time visual feedback for user positioning with respect to a camera and a display
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
CN107509037B (zh) 2014-11-28 2019-10-18 Oppo广东移动通信有限公司 使用不同视场角摄像头拍照的方法和终端
US20160173869A1 (en) 2014-12-15 2016-06-16 Nokia Corporation Multi-Camera System Consisting Of Variably Calibrated Cameras
JP6518069B2 (ja) 2015-01-09 2019-05-22 キヤノン株式会社 表示装置、撮像システム、表示装置の制御方法、プログラム、及び記録媒体
CN105843494B (zh) 2015-01-15 2020-06-09 中兴通讯股份有限公司 一种实现区域屏幕截图的方法、装置和终端
US9626589B1 (en) 2015-01-19 2017-04-18 Ricoh Co., Ltd. Preview image acquisition user interface for linear panoramic image stitching
US9712751B2 (en) 2015-01-22 2017-07-18 Apple Inc. Camera field of view effects based on device orientation and scene content
JP6529267B2 (ja) 2015-01-23 2019-06-12 キヤノン株式会社 情報処理装置及びその制御方法、プログラム、並びに記憶媒体
US9767613B1 (en) 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
JP6152125B2 (ja) 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
GB2534847A (en) 2015-01-28 2016-08-10 Sony Computer Entertainment Europe Ltd Display
JP6525611B2 (ja) 2015-01-29 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
JP6525617B2 (ja) 2015-02-03 2019-06-05 キヤノン株式会社 画像処理装置およびその制御方法
CN105991915B (zh) 2015-02-03 2020-06-09 中兴通讯股份有限公司 拍照的方法和装置以及终端
CN105847670B (zh) 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
US9979885B2 (en) 2015-02-09 2018-05-22 Steven Christopher Sparks Apparatus and method for capture of 360° panoramic video image and simultaneous assembly of 360° panoramic zoetropic video image
US10055887B1 (en) 2015-02-19 2018-08-21 Google Llc Virtual/augmented reality transition system and method
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
EP3268096A4 (en) 2015-03-09 2018-10-10 Ventana 3D LLC Avatar control system
US9959623B2 (en) 2015-03-09 2018-05-01 Here Global B.V. Display of an annotation representation
NZ773826A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
JP6642054B2 (ja) 2015-03-19 2020-02-05 株式会社デンソーウェーブ ロボット操作装置、及びロボット操作プログラム
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
KR102450865B1 (ko) 2015-04-07 2022-10-06 인텔 코포레이션 아바타 키보드
US10303973B2 (en) 2015-04-15 2019-05-28 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
JP5802853B2 (ja) 2015-04-15 2015-11-04 グリー株式会社 表示データ作成方法、制御プログラム及びコンピュータ
CN108353126B (zh) 2015-04-23 2019-08-23 苹果公司 处理相机的内容的方法、电子设备和计算机可读存储介质
US20160321833A1 (en) 2015-04-29 2016-11-03 Seerslab, Inc. Method and apparatus for generating moving photograph based on moving effect
CN106210550B (zh) 2015-05-06 2019-02-19 小米科技有限责任公司 模式调节方法及装置
CN104836947B (zh) 2015-05-06 2017-11-14 广东欧珀移动通信有限公司 一种图像拍摄方法和装置
KR20160131720A (ko) 2015-05-08 2016-11-16 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106303690A (zh) 2015-05-27 2017-01-04 腾讯科技(深圳)有限公司 一种视频处理方法及装置
US9967467B2 (en) 2015-05-29 2018-05-08 Oath Inc. Image capture with display context
US10038838B2 (en) 2015-05-29 2018-07-31 Hover Inc. Directed image capture
US10871868B2 (en) 2015-06-05 2020-12-22 Apple Inc. Synchronized content scrubber
WO2016196988A1 (en) 2015-06-05 2016-12-08 Apple Inc. Quick review of captured image data
US9860451B2 (en) * 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
KR20160146281A (ko) 2015-06-12 2016-12-21 삼성전자주식회사 전자 장치 및 전자 장치에서 이미지 표시 방법
US20160366323A1 (en) 2015-06-15 2016-12-15 Mediatek Inc. Methods and systems for providing virtual lighting
KR101751347B1 (ko) 2015-06-16 2017-07-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US20160370974A1 (en) 2015-06-22 2016-12-22 Here Global B.V. Causation of Expansion of a Supplemental Content Overlay
KR20170006559A (ko) 2015-07-08 2017-01-18 엘지전자 주식회사 이동단말기 및 그 제어방법
US11006095B2 (en) 2015-07-15 2021-05-11 Fyusion, Inc. Drone based capture of a multi-view interactive digital media
US20170018289A1 (en) 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
KR102399049B1 (ko) 2015-07-15 2022-05-18 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 처리 방법
KR102429427B1 (ko) 2015-07-20 2022-08-04 삼성전자주식회사 촬영 장치 및 그 동작 방법
CN105138259B (zh) 2015-07-24 2018-07-27 小米科技有限责任公司 操作执行方法及装置
KR101678861B1 (ko) 2015-07-28 2016-11-23 엘지전자 주식회사 이동단말기 및 그 제어방법
CN106412214B (zh) 2015-07-28 2019-12-10 中兴通讯股份有限公司 一种终端及终端拍摄的方法
US10068179B2 (en) * 2015-07-29 2018-09-04 Adobe Systems Incorporated Positioning text in digital designs based on an underlying image
JP6546474B2 (ja) 2015-07-31 2019-07-17 キヤノン株式会社 撮像装置およびその制御方法
CN105049726B (zh) 2015-08-05 2018-09-04 广东欧珀移动通信有限公司 一种移动终端拍照方法及移动终端
KR102292985B1 (ko) 2015-08-10 2021-08-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102349428B1 (ko) 2015-08-12 2022-01-10 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자장치
CN106470336A (zh) 2015-08-17 2017-03-01 深圳富泰宏精密工业有限公司 相机色温补偿系统及智能终端
US20170064184A1 (en) 2015-08-24 2017-03-02 Lustrous Electro-Optic Co.,Ltd. Focusing system and method
US9639945B2 (en) 2015-08-27 2017-05-02 Lytro, Inc. Depth-based application of image effects
US10397469B1 (en) 2015-08-31 2019-08-27 Snap Inc. Dynamic image-based adjustment of image capture parameters
US10334154B2 (en) 2015-08-31 2019-06-25 Snap Inc. Automated adjustment of digital image capture parameters
KR20170027052A (ko) * 2015-09-01 2017-03-09 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
US10440288B2 (en) * 2015-09-02 2019-10-08 Microsoft Technology Licensing, Llc Methods and apparatuses for capturing image frames with interlaced exposure
KR20170029837A (ko) 2015-09-08 2017-03-16 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170029978A (ko) 2015-09-08 2017-03-16 엘지전자 주식회사 이동단말기 및 그 제어방법
CN105245774B (zh) 2015-09-15 2018-12-21 努比亚技术有限公司 一种图片处理方法及终端
US9349414B1 (en) 2015-09-18 2016-05-24 Odile Aimee Furment System and method for simultaneous capture of two video streams
KR101667736B1 (ko) 2015-09-25 2016-10-20 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6335394B2 (ja) 2015-09-25 2018-05-30 富士フイルム株式会社 撮像システム及び撮像制御方法
US20170094019A1 (en) 2015-09-26 2017-03-30 Microsoft Technology Licensing, Llc Providing Access to Non-Obscured Content Items based on Triggering Events
JP2017069776A (ja) 2015-09-30 2017-04-06 カシオ計算機株式会社 撮像装置、判定方法及びプログラム
US9769419B2 (en) 2015-09-30 2017-09-19 Cisco Technology, Inc. Camera system for video conference endpoints
US10104282B2 (en) 2015-09-30 2018-10-16 Ricoh Co., Ltd. Yaw user interface
US20170109912A1 (en) 2015-10-15 2017-04-20 Motorola Mobility Llc Creating a composite image from multi-frame raw image data
US10044927B2 (en) 2015-10-19 2018-08-07 Stmicroelectronics International N.V. Capturing a stable image using an ambient light sensor-based trigger
EP3366033A4 (en) 2015-10-19 2018-09-19 Corephotonics Ltd. Dual-aperture zoom digital camera user interface
US9686497B1 (en) 2015-10-29 2017-06-20 Crater Group Co. Video annotation and dynamic video call display for multi-camera devices
CN105430295B (zh) 2015-10-30 2019-07-12 努比亚技术有限公司 图像处理装置及方法
WO2017077751A1 (ja) 2015-11-04 2017-05-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9857953B2 (en) * 2015-11-17 2018-01-02 Adobe Systems Incorporated Image color and tone style transfer
CN105338256A (zh) 2015-11-19 2016-02-17 广东欧珀移动通信有限公司 一种拍摄方法及装置
US10742889B2 (en) 2015-11-25 2020-08-11 Huawei Technologies Co., Ltd. Image photographing method, image photographing apparatus, and terminal
US20170180811A1 (en) 2015-12-21 2017-06-22 Facebook, Inc. Systems and methods to optimize music access in a news feed
US20170178287A1 (en) 2015-12-21 2017-06-22 Glen J. Anderson Identity obfuscation
CN105630290B (zh) 2015-12-24 2019-02-15 青岛海信电器股份有限公司 一种基于移动设备的界面处理方法和装置
US10007990B2 (en) 2015-12-24 2018-06-26 Intel Corporation Generating composite images using estimated blur kernel size
CN105620393B (zh) 2015-12-25 2017-08-04 福建省汽车工业集团云度新能源汽车股份有限公司 一种自适应的车辆人机交互方法及其系统
CN106921829A (zh) 2015-12-25 2017-07-04 北京奇虎科技有限公司 一种拍照方法和装置及拍照设备
KR20230100749A (ko) 2015-12-29 2023-07-05 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
CN105611215A (zh) 2015-12-30 2016-05-25 掌赢信息科技(上海)有限公司 一种视频通话方法及装置
US10194089B2 (en) 2016-02-08 2019-01-29 Qualcomm Incorporated Systems and methods for implementing seamless zoom function using multiple cameras
KR102445699B1 (ko) 2016-02-18 2022-09-21 삼성전자주식회사 전자 장치 및 그의 동작 방법
KR20170097860A (ko) 2016-02-19 2017-08-29 삼성전자주식회사 디스플레이를 이용하여 이미지를 촬영하는 전자 장치 및 이미지 촬영 방법
KR20170098089A (ko) 2016-02-19 2017-08-29 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN107102499A (zh) 2016-02-22 2017-08-29 深圳富泰宏精密工业有限公司 多镜头系统及具有该多镜头系统的便携式电子装置
US20170244482A1 (en) 2016-02-24 2017-08-24 Qualcomm Incorporated Light-based communication processing
US20190051032A1 (en) 2016-02-24 2019-02-14 Vivhist Inc. Personal life story simulation system
US9871962B2 (en) 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
GB2548154A (en) 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
US10225471B2 (en) 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
DE112017000986B4 (de) 2016-03-23 2020-02-20 Fujifilm Corporation Digitalkamera und Anzeigeverfahren einer Digitalkamera
CN107230187B (zh) 2016-03-25 2022-05-24 北京三星通信技术研究有限公司 多媒体信息处理的方法和装置
US20170285916A1 (en) 2016-03-30 2017-10-05 Yan Xu Camera effects for photo story generation
KR102279063B1 (ko) 2016-03-31 2021-07-20 삼성전자주식회사 이미지 합성 방법 및 그 전자장치
DE112017001625B4 (de) 2016-03-31 2021-06-24 Fujifilm Corporation Digitalkamera und Anzeigeverfahren für die Digitalkamera
KR20170112497A (ko) 2016-03-31 2017-10-12 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9990775B2 (en) 2016-03-31 2018-06-05 Verizon Patent And Licensing Inc. Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content
US10187587B2 (en) 2016-04-13 2019-01-22 Google Llc Live updates for synthetic long exposures
JP6724982B2 (ja) 2016-04-13 2020-07-15 ソニー株式会社 信号処理装置および撮像装置
JP6323729B2 (ja) 2016-04-25 2018-05-16 パナソニックIpマネジメント株式会社 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法
KR20170123125A (ko) 2016-04-28 2017-11-07 엘지전자 주식회사 이동단말기 및 그 제어방법
US10609093B2 (en) 2016-05-06 2020-03-31 Facebook, Inc. Instantaneous call sessions over a communications application
WO2017201326A1 (en) 2016-05-18 2017-11-23 Apple Inc. Applying acknowledgement options in a graphical messaging user interface
US10592098B2 (en) 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
DK179831B1 (en) 2016-05-18 2019-07-22 Apple Inc. Devices, methods and graphical user interfaces for messaging
US11743583B2 (en) 2016-05-20 2023-08-29 Maxell, Ltd. Imaging apparatus and setting screen thereof
KR102440848B1 (ko) 2016-05-20 2022-09-06 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20190206031A1 (en) 2016-05-26 2019-07-04 Seerslab, Inc. Facial Contour Correcting Method and Device
US9852768B1 (en) 2016-06-03 2017-12-26 Maverick Co., Ltd. Video editing using mobile terminal and remote computer
KR101831516B1 (ko) 2016-06-08 2018-02-22 주식회사 시어스랩 멀티 스티커를 이용한 영상 생성 방법 및 장치
DK179635B1 (en) 2016-06-12 2019-03-05 Apple Inc. USER INTERFACE FOR CAMERA EFFECTS
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
DK179757B1 (en) 2016-06-12 2019-05-08 Apple Inc. User Interface for Camera Effects
DK179754B1 (en) 2016-06-12 2019-05-08 Apple Inc. USER INTERFACE FOR CAMERA EFFECTS
JP6684158B2 (ja) 2016-06-13 2020-04-22 株式会社キーエンス 画像処理センサ、画像処理方法
US11794108B2 (en) 2016-06-13 2023-10-24 Sony Interactive Entertainment LLC Method and system for saving a snapshot of game play and used to begin later execution of the game play by any user as executed on a game cloud system
US10313605B2 (en) 2016-06-15 2019-06-04 Canon Kabushiki Kaisha Image processing apparatus and control method thereof for generating high dynamic range image data
KR102520225B1 (ko) 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
US10360708B2 (en) 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
KR20180006782A (ko) 2016-07-11 2018-01-19 삼성전자주식회사 영상의 초점을 제어하는 전자 장치와 이의 동작 방법
JP6714791B2 (ja) 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
WO2018017625A1 (en) * 2016-07-18 2018-01-25 mPerpetuo, Inc. User interface for smart digital camera
US10179290B2 (en) 2016-07-21 2019-01-15 Sony Interactive Entertainment America Llc Method and system for accessing previously stored game play via video recording as executed on a game cloud system
CN106067947A (zh) 2016-07-25 2016-11-02 深圳市金立通信设备有限公司 一种拍照方法及终端
US20180035031A1 (en) 2016-07-27 2018-02-01 Samsung Electro-Mechanics Co., Ltd. Camera module and portable electronic device including the same
US10572005B2 (en) 2016-07-29 2020-02-25 Microsoft Technology Licensing, Llc Private communication with gazing
US9955061B2 (en) 2016-08-03 2018-04-24 International Business Machines Corporation Obtaining camera device image data representing an event
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
WO2018049430A2 (en) 2016-08-11 2018-03-15 Integem Inc. An intelligent interactive and augmented reality based user interface platform
KR101926018B1 (ko) 2016-08-12 2018-12-06 라인 가부시키가이샤 동영상 녹화 방법 및 시스템
CN106161956A (zh) 2016-08-16 2016-11-23 深圳市金立通信设备有限公司 一种拍摄时预览画面的处理方法和终端
KR20180019392A (ko) 2016-08-16 2018-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10313652B1 (en) 2016-08-18 2019-06-04 Relay Cars LLC Cubic or spherical mapped content for presentation of pre-rendered images viewed from a fixed point of view in HTML, javascript and/or XML for virtual reality applications
CN107800945A (zh) 2016-08-31 2018-03-13 北京小米移动软件有限公司 全景拍照的方法及装置、电子设备
KR102593824B1 (ko) 2016-08-31 2023-10-25 삼성전자주식회사 카메라를 제어하기 위한 방법 및 그 전자 장치
WO2018048838A1 (en) 2016-09-06 2018-03-15 Apple Inc. Still image stabilization/optical image stabilization synchronization in multi-camera image capture
CN106303280A (zh) 2016-09-09 2017-01-04 广东欧珀移动通信有限公司 一种拍照补光方法、装置和终端
JP2018042198A (ja) 2016-09-09 2018-03-15 オリンパス株式会社 撮像装置及び撮像方法
CN106375662B (zh) 2016-09-22 2019-04-12 宇龙计算机通信科技(深圳)有限公司 一种基于双摄像头的拍摄方法、装置和移动终端
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
EP3920052A1 (en) 2016-09-23 2021-12-08 Apple Inc. Image data for enhanced user interactions
WO2018057268A1 (en) 2016-09-23 2018-03-29 Apple Inc. Image data for enhanced user interactions
EP3654290A1 (en) 2016-09-23 2020-05-20 Apple Inc. Avatar creation and editing
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
US10297034B2 (en) 2016-09-30 2019-05-21 Qualcomm Incorporated Systems and methods for fusing images
US10163008B2 (en) 2016-10-04 2018-12-25 Rovi Guides, Inc. Systems and methods for recreating a reference image from a media asset
US20180096506A1 (en) 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US10198171B2 (en) 2016-10-14 2019-02-05 Sap Se User interface control for smart range slider
KR102609464B1 (ko) 2016-10-18 2023-12-05 삼성전자주식회사 영상을 촬영하는 전자 장치
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
US10180615B2 (en) 2016-10-31 2019-01-15 Google Llc Electrochromic filtering in a camera
WO2018085426A1 (en) 2016-11-01 2018-05-11 Snap Inc. Systems and methods for fast video capture and sensor adjustment
EP3901951B1 (en) 2016-11-07 2024-09-18 Snap Inc. Selective identification and order of image modifiers
CN106791357A (zh) 2016-11-15 2017-05-31 维沃移动通信有限公司 一种拍摄方法和移动终端
CN106534619A (zh) 2016-11-29 2017-03-22 努比亚技术有限公司 一种调整对焦区域的方法、装置和终端
CN106791377B (zh) 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106412445A (zh) 2016-11-29 2017-02-15 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106341611A (zh) 2016-11-29 2017-01-18 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
JP6765956B2 (ja) 2016-12-27 2020-10-07 キヤノン株式会社 撮像制御装置及びその制御方法
JP6873688B2 (ja) 2016-12-27 2021-05-19 キヤノン株式会社 画像処理装置および画像処理方法、撮像装置、プログラム
CN106791420B (zh) 2016-12-30 2019-11-05 深圳先进技术研究院 一种拍摄控制方法及装置
KR102289837B1 (ko) 2017-01-06 2021-08-17 삼성전자주식회사 촬영 방법 및 전자 장치
JP6748582B2 (ja) 2017-01-10 2020-09-02 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記録媒体
US10176622B1 (en) 2017-01-24 2019-01-08 Amazon Technologies, Inc. Filtering of virtual reality images to mitigate playback transformation artifacts
JP6789833B2 (ja) 2017-01-26 2020-11-25 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US10681286B2 (en) 2017-01-26 2020-06-09 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, image processing method, and recording medium
US20180227482A1 (en) 2017-02-07 2018-08-09 Fyusion, Inc. Scene-aware selection of filters and effects for visual digital media content
US10630888B2 (en) 2017-02-09 2020-04-21 Samsung Electronics Co., Ltd. Method and apparatus for selecting capture configuration based on scene analysis
US9913246B1 (en) 2017-02-10 2018-03-06 International Business Machines Corporation Intelligent notification redirection
KR20180095331A (ko) 2017-02-17 2018-08-27 엘지전자 주식회사 이동단말기 및 그 제어 방법
US10268842B2 (en) 2017-02-21 2019-04-23 Motorola Solutions, Inc. Device for operating a camera in a private mode and a non-private mode
WO2018159864A1 (ko) 2017-02-28 2018-09-07 엘지전자 주식회사 이동 단말기 및 그 이동 단말기의 제어 방법
US10338897B2 (en) 2017-03-03 2019-07-02 Stratedigm, Inc. Visual protocol designer
JP6456422B2 (ja) 2017-03-17 2019-01-23 株式会社Pfu サムネイル画像表示装置、サムネイル画像表示装置の制御方法及びコンピュータの制御プログラム
KR102386398B1 (ko) 2017-03-17 2022-04-14 삼성전자주식회사 촬영 모드에 따라 이미지에 대한 표시자를 다르게 제공하는 방법 및 그 전자 장치
US20180278823A1 (en) 2017-03-23 2018-09-27 Intel Corporation Auto-exposure technologies using odometry
KR102361885B1 (ko) 2017-03-28 2022-02-11 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
KR20180116574A (ko) 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
JP2018179911A (ja) 2017-04-20 2018-11-15 株式会社デンソー 測距装置及び距離情報取得方法
US10467775B1 (en) 2017-05-03 2019-11-05 Amazon Technologies, Inc. Identifying pixel locations using a transformation function
CN111694486B (zh) 2017-05-16 2023-08-22 苹果公司 用于在用户界面之间导航的设备、方法和图形用户界面
DK179867B1 (en) 2017-05-16 2019-08-06 Apple Inc. RECORDING AND SENDING EMOJI
CN110378987B (zh) 2017-05-16 2021-08-31 苹果公司 表情符号录制和发送
DK179932B1 (en) * 2017-05-16 2019-10-11 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES
WO2018144339A2 (en) 2017-05-16 2018-08-09 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
KR102439054B1 (ko) 2017-05-16 2022-09-02 애플 인크. 이모지 레코딩 및 전송
WO2018222244A1 (en) 2017-06-02 2018-12-06 Apple Inc. Device, Method, and Graphical User Interface for Handling Data Encoded in Machine-Readable Format
DK180859B1 (en) * 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US10972672B2 (en) 2017-06-05 2021-04-06 Samsung Electronics Co., Ltd. Device having cameras with different focal lengths and a method of implementing cameras with different focal lengths
US10218697B2 (en) 2017-06-09 2019-02-26 Lookout, Inc. Use of device risk evaluation to manage access to services
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
US20190007589A1 (en) 2017-06-30 2019-01-03 Qualcomm Incorporated Camera initialization for multiple camera devices
US11051691B2 (en) 2017-07-31 2021-07-06 Vye, Llc Ocular analysis
CN108305317B (zh) 2017-08-04 2020-03-17 腾讯科技(深圳)有限公司 一种图像处理方法、装置及存储介质
KR102423175B1 (ko) 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
CN109891874B (zh) 2017-08-18 2020-12-15 华为技术有限公司 一种全景拍摄方法及装置
KR102338576B1 (ko) 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
CN107566721B (zh) 2017-08-30 2020-06-26 北京天耀宏图科技有限公司 一种信息显示方法、终端及计算机可读存储介质
WO2019047028A1 (zh) 2017-09-05 2019-03-14 广东欧珀移动通信有限公司 拍摄界面显示方法、装置及终端
CN110456979B (zh) 2017-09-09 2021-11-02 苹果公司 用于在背景上显示示能表示的设备、方法和电子设备
JP2019054461A (ja) 2017-09-15 2019-04-04 オリンパス株式会社 撮像装置および撮像方法
KR102385360B1 (ko) 2017-09-19 2022-04-12 삼성전자주식회사 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US11210799B2 (en) 2017-10-04 2021-12-28 Google Llc Estimating depth using a single camera
US10467729B1 (en) 2017-10-12 2019-11-05 Amazon Technologies, Inc. Neural network-based image processing
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
CN107770448A (zh) 2017-10-31 2018-03-06 努比亚技术有限公司 一种图像采集方法、移动终端和计算机存储介质
US10498971B2 (en) 2017-11-03 2019-12-03 Qualcomm Incorporated Systems and methods for high-dynamic range imaging
CN107820011A (zh) 2017-11-21 2018-03-20 维沃移动通信有限公司 拍照方法和拍照装置
US10645272B2 (en) 2017-12-04 2020-05-05 Qualcomm Incorporated Camera zoom level and image frame capture control
US20190205861A1 (en) 2018-01-03 2019-07-04 Marjan Bace Customer-directed Digital Reading and Content Sales Platform
US10630903B2 (en) 2018-01-12 2020-04-21 Qualcomm Incorporated Systems and methods for image exposure
CN111630837B (zh) 2018-01-25 2022-08-09 索尼半导体解决方案公司 图像处理装置、输出信息控制方法以及程序
JP7071137B2 (ja) 2018-01-26 2022-05-18 キヤノン株式会社 電子機器およびその制御方法
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10374994B1 (en) 2018-02-21 2019-08-06 King.Com Ltd. Messaging system
KR102661019B1 (ko) 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
CN108419030B (zh) 2018-03-01 2021-04-20 思特威(上海)电子科技股份有限公司 具有led闪烁衰减的hdr图像传感器像素结构及成像系统
CN108391053A (zh) 2018-03-16 2018-08-10 维沃移动通信有限公司 一种拍摄控制方法及终端
EP3633975B1 (en) 2018-03-27 2023-05-10 Huawei Technologies Co., Ltd. Photographic method, photographic apparatus, and mobile terminal
CN108549522A (zh) 2018-03-30 2018-09-18 深圳市万普拉斯科技有限公司 拍照设置方法、装置、移动终端和计算机可读存储介质
CN108513070B (zh) 2018-04-04 2020-09-04 维沃移动通信有限公司 一种图像处理方法、移动终端及计算机可读存储介质
US10643386B2 (en) 2018-04-11 2020-05-05 Zillow Group, Inc. Presenting image transition sequences between viewing locations
DK180640B1 (en) 2018-05-07 2021-11-09 Apple Inc Devices and methods of measurement using augmented reality
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870353A1 (en) 2018-05-07 2019-12-04 Apple Inc. USER INTERFACES FOR RECOMMENDING AND CONSUMING CONTENT ON AN ELECTRONIC DEVICE
US10482583B1 (en) 2018-05-10 2019-11-19 Google Llc Generating and displaying blur in images
CN108712609A (zh) 2018-05-17 2018-10-26 Oppo广东移动通信有限公司 对焦处理方法、装置、设备及存储介质
WO2019227281A1 (zh) 2018-05-28 2019-12-05 华为技术有限公司 一种拍摄的方法及电子设备
WO2019230225A1 (ja) 2018-05-29 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法、プログラム
KR102597680B1 (ko) 2018-06-07 2023-11-03 삼성전자주식회사 맞춤형 화질 이미지를 제공하는 전자 장치 및 그 제어 방법
CN108848308B (zh) 2018-06-27 2019-12-31 维沃移动通信有限公司 一种拍摄方法及移动终端
CN108769562B (zh) 2018-06-29 2021-03-26 广州酷狗计算机科技有限公司 生成特效视频的方法和装置
EP3790271B1 (en) 2018-06-30 2023-10-25 Huawei Technologies Co., Ltd. Photographing control method and terminal
CN108668083B (zh) 2018-07-24 2020-09-01 维沃移动通信有限公司 一种拍照方法及终端
KR102598109B1 (ko) 2018-08-08 2023-11-06 삼성전자주식회사 이미지 분석에 기반하여, 디스플레이를 통해 표시된 영상과 메모리에 저장된 영상과 관련하여 알림을 제공하는 전자 장치 및 방법
CN110839129A (zh) 2018-08-17 2020-02-25 Oppo广东移动通信有限公司 图像处理方法、装置以及移动终端
CN109005366B (zh) 2018-08-22 2020-04-28 Oppo广东移动通信有限公司 摄像模组夜景摄像处理方法、装置、电子设备及存储介质
JP6427711B1 (ja) 2018-08-27 2018-11-21 京セラ株式会社 電子機器、方法及びプログラム
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11120528B1 (en) 2018-09-11 2021-09-14 Apple Inc. Artificial aperture adjustment for synthetic depth of field rendering
JP7072995B2 (ja) 2018-09-12 2022-05-23 アルパイン株式会社 操作装置
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11422692B2 (en) 2018-09-28 2022-08-23 Apple Inc. System and method of controlling devices using motion gestures
US10785413B2 (en) 2018-09-29 2020-09-22 Apple Inc. Devices, methods, and graphical user interfaces for depth-based annotation
US11223772B2 (en) 2018-10-15 2022-01-11 Huawei Technologies Co., Ltd. Method for displaying image in photographing scenario and electronic device
US10902661B1 (en) 2018-11-28 2021-01-26 Snap Inc. Dynamic composite user identifier
CN109639970B (zh) 2018-12-17 2021-07-30 维沃移动通信有限公司 一种拍摄方法及终端设备
CN109756784B (zh) 2018-12-21 2020-11-17 广州酷狗计算机科技有限公司 音乐播放方法、装置、终端及存储介质
US11288880B2 (en) 2019-01-18 2022-03-29 Snap Inc. Template-based generation of personalized videos
US11381739B2 (en) 2019-01-23 2022-07-05 Intel Corporation Panoramic virtual reality framework providing a dynamic user experience
JP7268369B2 (ja) 2019-01-30 2023-05-08 株式会社リコー 撮像システム、現像システム、撮像方法、及びプログラム
US20220134226A1 (en) 2019-02-22 2022-05-05 Sony Group Corporation Information processing apparatus, information processing method, and program
RU2701092C1 (ru) 2019-04-22 2019-09-24 Общество с ограниченной ответственностью "Ай Ти Ви групп" Система и способ сопровождения движущихся объектов
EP3959896A1 (en) 2019-04-22 2022-03-02 Soclip! Automated audio-video content generation
US10992619B2 (en) 2019-04-30 2021-04-27 Snap Inc. Messaging system with avatar generation
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
CN111901475A (zh) 2019-05-06 2020-11-06 苹果公司 用于捕获和管理视觉媒体的用户界面
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN111567033A (zh) 2019-05-15 2020-08-21 深圳市大疆创新科技有限公司 拍摄装置、无人飞行器、控制终端和拍摄方法
US12039661B2 (en) 2019-06-02 2024-07-16 Apple Inc. Parameterized generation of two-dimensional images from a three-dimensional model
US11074753B2 (en) 2019-06-02 2021-07-27 Apple Inc. Multi-pass object rendering using a three- dimensional geometric constraint
CN112333380B (zh) 2019-06-24 2021-10-15 华为技术有限公司 一种拍摄方法及设备
US11295494B2 (en) * 2019-06-26 2022-04-05 Adobe Inc. Image modification styles learned from a limited set of modified images
US20200412975A1 (en) 2019-06-28 2020-12-31 Snap Inc. Content capture with audio input feedback
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
KR102241153B1 (ko) 2019-07-01 2021-04-19 주식회사 시어스랩 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US11189104B2 (en) 2019-08-28 2021-11-30 Snap Inc. Generating 3D data in a messaging system
US11488359B2 (en) 2019-08-28 2022-11-01 Snap Inc. Providing 3D data for messages in a messaging system
CN112449099B (zh) 2019-08-30 2022-08-19 华为技术有限公司 一种图像处理方法、电子设备及云服务器
CN110769152A (zh) 2019-09-27 2020-02-07 华为技术有限公司 摄像处理方法、装置、终端设备及存储介质
CN110662083B (zh) 2019-09-30 2022-04-22 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备及存储介质
US11252274B2 (en) 2019-09-30 2022-02-15 Snap Inc. Messaging application sticker extensions
EP3800615A1 (en) 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
CN112637477A (zh) 2019-10-08 2021-04-09 华为技术有限公司 一种图像处理方法及电子设备
CN114915726A (zh) 2019-11-15 2022-08-16 华为技术有限公司 一种拍摄方法及电子设备
CN110913132B (zh) 2019-11-25 2021-10-26 维沃移动通信有限公司 对象跟踪方法及电子设备
CN116112786A (zh) 2019-11-29 2023-05-12 华为技术有限公司 一种视频拍摄方法与电子设备
CN113194242B (zh) 2020-01-14 2022-09-20 荣耀终端有限公司 一种长焦场景下的拍摄方法及移动终端
CN114157804B (zh) 2020-01-23 2022-09-09 华为技术有限公司 一种长焦拍摄的方法及电子设备
CN113365013A (zh) 2020-03-06 2021-09-07 华为技术有限公司 一种音频处理方法及设备
CN113365012A (zh) 2020-03-06 2021-09-07 华为技术有限公司 一种音频处理方法及设备
JP2021145209A (ja) 2020-03-11 2021-09-24 キヤノン株式会社 電子機器
CN113542581A (zh) 2020-04-22 2021-10-22 华为技术有限公司 多路录像的取景方法、图形用户界面及电子设备
CN113747048B (zh) 2020-05-30 2022-12-02 华为技术有限公司 一种图像内容的去除方法及相关装置
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
CN111695471B (zh) 2020-06-02 2023-06-27 北京百度网讯科技有限公司 虚拟形象生成方法、装置、设备以及存储介质
US11604562B2 (en) 2020-06-10 2023-03-14 Snap Inc. Interface carousel for use with image processing software development kit
KR20220009601A (ko) 2020-07-16 2022-01-25 삼성전자주식회사 전자 장치 및 전자 장치에서 이미지 전송 방법
US11140313B1 (en) 2020-07-29 2021-10-05 Gopro, Inc. Image capture device with scheduled capture capability
CN111917980B (zh) 2020-07-29 2021-12-28 Oppo(重庆)智能科技有限公司 拍照控制方法及装置、存储介质和电子设备
CN116405783A (zh) 2020-07-31 2023-07-07 华为技术有限公司 一种拍摄的补光方法及相关装置
US11625874B2 (en) 2020-08-04 2023-04-11 Triple Lift, Inc. System and method for intelligently generating digital composites from user-provided graphics
KR20220017242A (ko) 2020-08-04 2022-02-11 삼성전자주식회사 피사체와 배경에 효과를 적용하여 이미지를 생성하는 전자 장치 및 그 방법
KR20230047055A (ko) 2020-08-13 2023-04-06 엘지전자 주식회사 이미지 표시 장치 및 그 제어 방법
CN112004136A (zh) 2020-08-25 2020-11-27 广州市百果园信息技术有限公司 一种视频剪辑的方法、装置、设备和存储介质
CN113556501A (zh) 2020-08-26 2021-10-26 华为技术有限公司 音频处理方法及电子设备
CN115835010A (zh) 2020-08-27 2023-03-21 荣耀终端有限公司 一种拍摄方法及终端
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112291627B (zh) 2020-10-12 2022-12-09 广州市百果园网络科技有限公司 一种视频编辑方法、装置、移动终端和存储介质
CN112492212B (zh) 2020-12-02 2022-05-06 维沃移动通信有限公司 拍照方法、装置、电子设备及存储介质
CN112511751B (zh) 2020-12-04 2021-10-29 维沃移动通信(杭州)有限公司 拍摄方法及装置、电子设备和可读存储介质
US11861800B2 (en) 2020-12-30 2024-01-02 Snap Inc. Presenting available augmented reality content items in association with multi-video clip capture
US12108146B2 (en) 2020-12-30 2024-10-01 Snap Inc. Camera mode for capturing multiple video clips within a messaging system
US11924540B2 (en) 2020-12-30 2024-03-05 Snap Inc. Trimming video in association with multi-video clip capture
EP4203458A4 (en) 2021-01-13 2024-04-17 Samsung Electronics Co., Ltd. ELECTRONIC IMAGE CAPTURE DEVICE, METHOD AND NON-TRANSITIOUS STORAGE MEDIUM
CN113268622A (zh) 2021-04-21 2021-08-17 北京达佳互联信息技术有限公司 图片浏览方法、装置、电子设备及存储介质
EP4109884A1 (en) 2021-04-30 2022-12-28 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
CN115480852A (zh) * 2021-05-31 2022-12-16 北京字跳网络技术有限公司 应用程序的页面显示方法、装置和电子设备
US20220382443A1 (en) 2021-06-01 2022-12-01 Apple Inc. Aggregated content item user interfaces
CN113727017B (zh) 2021-06-16 2022-07-05 荣耀终端有限公司 拍摄方法、图形界面及相关装置
CN118695083A (zh) 2021-06-16 2024-09-24 荣耀终端有限公司 拍摄方法、图形用户界面及电子设备
EP4398563A1 (en) 2021-12-07 2024-07-10 Samsung Electronics Co., Ltd. Electronic device including multiple cameras and method for operating electronic device
EP4273678A1 (en) 2022-05-06 2023-11-08 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US20230359316A1 (en) 2022-05-06 2023-11-09 Apple Inc. Devices, Methods, and Graphical User Interfaces for Updating a Session Region
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US20230359315A1 (en) 2022-05-06 2023-11-09 Apple Inc. Devices, Methods, and Graphical User Interfaces for Updating a Session Region
US20230418426A1 (en) 2022-05-06 2023-12-28 Apple Inc. Devices, Methods, and Graphical User Interfaces for Updating a Session Region

Also Published As

Publication number Publication date
CN117178250A (zh) 2023-12-05
CN117539375A (zh) 2024-02-09
KR20230164069A (ko) 2023-12-01
EP4298500A1 (en) 2024-01-03
US12112024B2 (en) 2024-10-08
US20220382440A1 (en) 2022-12-01

Similar Documents

Publication Publication Date Title
DK180452B1 (en) USER INTERFACES FOR RECEIVING AND HANDLING VISUAL MEDIA
US12112024B2 (en) User interfaces for managing media styles
JP7247390B2 (ja) ユーザインタフェースカメラ効果
JP7450664B2 (ja) シミュレートされた深度効果のためのユーザインタフェース
CN116719595A (zh) 用于媒体捕获和管理的用户界面
KR20210020987A (ko) 시각적 미디어를 캡처 및 관리하기 위한 사용자 인터페이스들
US20240323313A1 (en) User interfaces for providing live video
JP2024041887A (ja) メディアを管理するためのユーザインタフェース
US20240080543A1 (en) User interfaces for camera management
CN113454983B (zh) 用于管理媒体的用户界面
WO2022256200A1 (en) User interfaces for managing media styles
US20240361898A1 (en) Multi-type media user interface
WO2023239620A1 (en) Sticker creation for messaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230928

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A525

Effective date: 20230928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240517

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241010