JP7461523B2 - 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース - Google Patents

複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP7461523B2
JP7461523B2 JP2023016295A JP2023016295A JP7461523B2 JP 7461523 B2 JP7461523 B2 JP 7461523B2 JP 2023016295 A JP2023016295 A JP 2023016295A JP 2023016295 A JP2023016295 A JP 2023016295A JP 7461523 B2 JP7461523 B2 JP 7461523B2
Authority
JP
Japan
Prior art keywords
representative image
affordance
images
input
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023016295A
Other languages
English (en)
Other versions
JP2023071668A (ja
Inventor
ベキシュ, ジェイ. マンザリ,
ブリット, エス. ミウラ,
スティーブン, オー. ルメイ,
ドス サントス, アンドレ サウザ
チャールズ, エー. ミザク,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2023071668A publication Critical patent/JP2023071668A/ja
Application granted granted Critical
Publication of JP7461523B2 publication Critical patent/JP7461523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/54Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • G11B27/007Reproducing at a different information rate from the information rate of recording reproducing continuously a part of the information, i.e. repeating
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Description

本出願は概して、複数のユーザ選択可能な表示モードを有するメディアアイテムをナビゲート、表示、及び/又は編集するタッチ感知面を有する電子デバイスを含むがそれに限定されない、タッチ感知面を有する電子デバイスに関する。
デジタルコンテンツをキャプチャ、閲覧、編集、及び共有するための電子デバイスの使用は、近年著しく増加している。ユーザは、ユーザのポータブル電子デバイス(例えば、スマートフォン、タブレット、及び専用デジタルカメラ)でメディアアイテム(例えば、Cupertino、CaliforniaのApple Inc.からのLive Photosなどの画像及び/又はビデオ)を頻繁に作成し、画像管理アプリケーション(例えば、Cupertino、CaliforniaのApple Inc.のPhotos)及び/又はデジタルコンテンツ管理アプリケーション(例えば、Cupertino、CaliforniaのApple Inc.からのiTunes)内でユーザのメディアアイテムを閲覧及び編集し、インスタントメッセージ、電子メール、ソーシャルメディアアプリケーション、及び他の通信アプリケーションを介して、ユーザのデジタルコンテンツを他の人と共有する。
いくつかのメディアアイテムは、複数の異なる表示モードで表示される場合がある。複数の表示モードが所与のメディアアイテムを表示し編集するための複数のオプションを生成するため、ユーザがそのようなメディアアイテムをナビゲート、表示、及び編集することは困難である場合がある。
したがって、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための、より速く、より効率的な方法及びインタフェースを備える電子デバイスが必要とされている。そのような方法及びインタフェースは、任意選択的に、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための従来の方法を補完する、又は置き換える。このような方法及びインタフェースは、ユーザからの入力の数、範囲、及び/又は種類を減少させ、より効率的な人間機械インタフェースを生成する。バッテリ動作デバイスに関しては、そのような方法及びインタフェースは、電力を節約し、バッテリ充電間の時間を延ばす。
タッチ感知面を有する電子デバイスのためのユーザインタフェースと関連付けられた上記の欠陥及び他の問題は、本開示のデバイスによって削減又は除去される。いくつかの実施形態では、デバイスは、デスクトップコンピュータである。いくつかの実施形態では、このデバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態では、デバイスは、パーソナル電子デバイス(例えば、時計などのウェアラブル電子デバイス)である。いくつかの実施形態では、デバイスは、タッチパッドを有する。いくつかの実施形態では、デバイスは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、デバイスは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためのメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは主にタッチ感知面上のスタイラス並びに/又は指の接触及びジェスチャを通じてGUIと相互作用する。いくつかの実施形態では、機能は任意選択で、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ取り、及び/又はデジタルビデオの再生を含む。それらの機能を実行する実行可能命令は任意選択で、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に含まれる。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有する電子デバイスにおいて実行される。方法は、ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムからの1つ以上の画像を、一連の画像に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの1つである対応する表示モードで表示することと、対応する表示モードでメディアアイテムからの1つ以上の画像を表示している間に、第1の入力を検出することと、第1の入力を検出したことに応じて、ディスプレイ上に、対応する表示モード用の編集ユーザインタフェースであって、対応する表示モード用の編集ユーザインタフェースが、メディアアイテムが対応する表示モードで表示されたときに、どの画像がメディアアイテムに含まれるかを変更するように構成されており、対応する表示モード用の編集ユーザインタフェースが、一連の画像内の画像を表示するように構成された第1の領域と、一連の画像内の画像の表現、一連の画像を通して再生するための第1の境界を示すユーザ調整可能な開始トリムアフォーダンス、及び一連の画像を通して再生するための第2の境界を示すユーザ調整可能な終了トリムアフォーダンスを含む、第1の領域とは別個の第2の領域と、を並行して表示する、編集ユーザインタフェースを表示することと、対応する表示モード用の編集ユーザインタフェースを表示している間に、1つ以上の編集入力に従ってメディアアイテムを調整することと、対応する表示モード用の編集ユーザインタフェースを出る入力を検出することと、対応する表示モード用の編集ユーザインタフェースを出ることと、第1のユーザインタフェース内に、対応する表示モードで編集されたメディアアイテムを表示することと、を含む。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有する電子デバイスにおいて実行される。方法は、ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムからの1つ以上の画像を、一連の画像に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの1つである第1の表示モードで表示することと、第1の表示モードでメディアアイテムからの1つ以上の画像を表示している間に、第1の入力を検出することと、第1の入力を検出したことに応じて、ディスプレイ上に、表示モード選択ユーザインタフェースであって、表示モード選択ユーザインタフェースが、第1の表示モードとは異なる第2の表示モードに対応するメディアアイテムの第2の表現を含む、メディアアイテムの複数の表現を並行して表示する、表示モード選択ユーザインタフェースを表示することと、表示モード選択ユーザインタフェースをディスプレイ上に表示している間に、メディアアイテムの複数の表現のうちの第2の表現上の入力を検出することと、メディアアイテムの複数の表現のうちの第2の表現上の入力を検出したことに応じて、メディアアイテムの複数の表現のうちの第2の表現に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの第2の表示モードを選択することと、を含む。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有する電子デバイスにおいて実行される。方法は、ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムであって、メディアアイテムが、第1の表示モードにおける一連の画像からの代表画像を含む、メディアアイテムの表現を表示することと、第1の表示モードで一連の画像に対応するメディアアイテムの表現を表示している間に、第1の入力を検出することと、第1の入力を検出したことに応じて、ディスプレイ上に第1の表示モードで、メディアアイテムの編集ユーザインタフェースであって、編集ユーザインタフェースが、第1の倍率で一連の画像内の画像を順次表示するように構成された第1の領域と、第1の倍率未満の第2の倍率での一連の画像内の画像の表現と、ユーザ調整可能な代表画像選択アフォーダンスであって、第2の領域内の代表画像選択アフォーダンスの位置を介して一連の画像内の新しい代表画像を選択するように構成された代表画像選択アフォーダンスと、一連の画像を通して再生するための第1の境界を示すユーザ調整可能な開始トリムアフォーダンス及び一連の画像を通して再生するための第2の境界を示すユーザ調整可能な終了トリムアフォーダンスを含む、複数の範囲トリムアフォーダンスと、を含む、第1の領域とは別個の第2の領域と、を並行して表示する、編集ユーザインタフェースを表示することと、編集ユーザインタフェースを表示している間に、代表画像選択アフォーダンスに向けられた第2の入力を検出することと、代表画像選択アフォーダンスに向けられた第2の入力を検出している間に、第2の入力に従って、第2の領域内の代表画像選択アフォーダンスを移動させることと、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する第2の領域内の画像の視覚的強調表現を表示することと、第1の領域内に、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する一連の画像からの画像を表示することと、を含む。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有する電子デバイスにおいて実行される。方法は、ディスプレイ上の第1のユーザインタフェース内に、複数のユーザ選択可能な表示モードの第1の表示モードにおける一連の画像に対応する第1のメディアアイテムであって、第1のメディアアイテムは、メディアアイテムのコレクションの一部であり、メディアアイテムのコレクションは、所定の基準に基づく順序で配列され、1つ以上の前方メディアアイテムは、その順序で第1のメディアアイテムに先行し、1つ以上の後方メディアアイテムは、その順序で第1のメディアアイテムに後続する、第1のメディアアイテムの表現を表示することと、第1のメディアアイテムの表現を表示している間に、タッチ感知面上の対応する方向の移動を含むタッチ入力を検出することと、タッチ入力を検出したことに応じて、移動が第1の方向の移動であり、かつ第2の一連の画像に対応する後方メディアアイテムが第1の表示モードで表示されるものとして指定されているという判定に従って、第1の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第1の表示モードで後方メディアアイテムを表示することと、移動が第1の方向の移動であり、かつ後方メディアアイテムが第1の表示モードとは異なる第2の表示モードで表示されるものとして指定されているという判定に従って、第2の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第2の表示モードで後方メディアアイテムを表示することと、を含む。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知面を有する電子デバイスにおいて実行される。方法は、ディスプレイ上の第1のユーザインタフェース内に、複数のユーザ選択可能な表示モードの対応する表示モードにおける一連の画像に対応する第1のメディアアイテムの第1の表現を表示することと、ディスプレイ上に、対応する表示モードで第1のメディアアイテムの第1の表現を表示している間に、第1のメディアアイテムの表現に対応する位置でのタッチ感知面上のタッチ入力を検出することと、タッチ入力を検出したことに応じて、かつタッチ入力が第1のメディアアイテムの表現に対応する位置でタッチ感知面上で検出され続けている間に、タッチ入力がタッチの対応する特性の大きさに基づく表現変更基準を満たし、かつ第1のメディアアイテムの対応する表示モードが、第1のメディアアイテムの第1の表現が経時的に変化する第1のメディアアイテムの動的表現である表示モードであるとの判定に従って、メディアアイテムの第1の表現の表示を経時的に変化しない第1のメディアアイテムの静的表現に置き換えることと、タッチ入力が表現変更基準を満たさないとの判定に従って、第1のメディアアイテムの第1の表現の表示を動的表現として維持することと、を含む。
いくつかの実施形態によると、電子デバイスは、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、1つ以上のプロセッサ、及び1つ以上のプログラムを記憶したメモリを含み、1つ以上のプログラムは、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書で説明される方法のいずれかの動作を実行し又は実行させるための命令群を含む。いくつかの実施形態によると、コンピュータ可読記憶媒体は、内部に命令群を記憶しており、命令群は、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、及び任意選択的に、1つ以上の触知出力生成器を有する電子デバイスによって実行されると、本明細書で説明される方法のいずれかの動作をデバイスに実行させる、又は動作の実行を行わせる。いくつかの実施形態によると、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、メモリ、及びメモリに記憶された1つ以上のプログラムを実行する1つ以上のプロセッサを有する電子デバイス上のグラフィカルユーザインタフェースは、本明細書で説明される方法のいずれかにおいて表示される要素のうちの1つ以上を含み、要素は、本明細書で説明される方法のいずれかにおいて説明されるように、入力に応じて更新される。いくつかの実施形態によると、電子デバイスは、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器、及び本明細書で説明される方法のいずれかの動作を実行し、又は実行させる手段を含む。いくつかの実施形態によると、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、任意選択的に、1つ以上の触知出力生成器を有する電子デバイスにおける使用のための情報処理装置は、本明細書で説明される方法のいずれかの動作を実行し又は実行させる手段を含む。
したがって、ディスプレイ、タッチ感知面、任意選択的に、タッチ感知面との接触の強度を検出する1つ以上のセンサ、及び任意選択的に、1つ以上の触知出力生成器を有する電子デバイスには、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための改善された方法及びインタフェースが提供され、それにより、そのようなデバイスの有効性、効率、及びユーザ満足度が向上する。そのような方法及びインタフェースは、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための従来の方法を補完する、又は置き換えることができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図のすべてを通じて、対応する部分を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。
いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。
いくつかの実施形態に係る、タッチスクリーンを有するポータブル多機能デバイスを示す。
いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。
いくつかの実施形態に係る、ポータブル多機能デバイス上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、ディスプレイと分離したタッチ感知面を有する多機能デバイスのための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、動的強度閾値の例を示す。 いくつかの実施形態に係る、動的強度閾値の例を示す。 いくつかの実施形態に係る、動的強度閾値の例を示す。
いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。
いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図である。
いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図である。 いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図である。
いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。 いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。 いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。 いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。 いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。 いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。
いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。
いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すための方法のフロー図である。 いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すための方法のフロー図である。
複数のユーザ選択可能な表示モードを有するメディアアイテムをナビゲート、表示、及び/又は編集するための多数の異なる手法が、本明細書に記載される。これらの手法のうちの1つ以上を(任意選択的に互いに併せて)使用することにより、ユーザからの入力の数、範囲、及び/又は種類を低減し、より効率的なヒューマンマシンインタフェースを提供する。これにより、ユーザが、複数の表示モードを有するメディアアイテムとより高速かつより効率的に相互作用することを可能にする。バッテリ動作デバイスに関しては、これらの改善により、電力が節約され、バッテリを充電する間隔が増大する。本明細書で説明する手法のいくつかは、以下を含む。
●複数の表示モードを有するメディアアイテムを編集すること、
●複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択すること、
●一連の画像に対応するメディアアイテムに対する代表画像を変更すること、
●メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートすること、及び
●メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すこと。
以下では、図1A、図1B、図2、及び図3は、例示的なデバイスの説明を提供する。図4A~図4B及び図5A~図5DWは、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。図6A~図6Fは、いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法のフロー図を示す。図7A~図7Dは、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図を示す。図8A~図8Fは、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図を示す。図9A~図9Iは、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートする方法のフロー図を示す。図10A~図10Cは、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すための方法のフロー図を示す。図5A~図5DWのユーザインタフェースは、図6A~図6F、図7A~図7D、図8A~図8F、図9A~図9I、及び図10A~図10Cのプロセスを示すために使用される。
例示的なデバイス
ここで、添付図面に実施例が示される実施形態への詳細な参照が行われる。以下の詳細な説明では、説明される様々な実施形態の完全な理解を提供するために数多くの具体的な詳細が記載されている。しかしながら、記載されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、回路、及びネットワークは、実施形態の態様を不必要に不明瞭にしないよう詳細には説明されていない。
本明細書では、第1、第2などの用語は、いくつかの実施例で、様々な要素を説明するために使用されるが、これらの要素は、それらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1の接触は、第2の接触と称することができ、同様に、第2の接触は、第1の接触と称し得る。第1の接触及び第2の接触は両方とも接触であるが、文脈がそうではないことを明確に示さない限り、それらは同じ接触ではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
本明細書に記載される場合、用語「if(~の場合)」は、任意選択で、文脈に依存して「when(~のとき)」、「upon(~すると)」、「in response to determining(~と判定したことに応じて)」、又は「in response to detecting(~を検出したことに応じて)」を意味するものと解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if[a stated condition or event]is detected)」という語句は、任意選択的に、文脈に応じて、「~と判定したとき(upon determining)」若しくは「~と判定したことに応じて(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting[the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応じて(in response to detecting[the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、Cupertino、CaliforniaのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含むが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなどの他のポータブル電子デバイスが任意選択で使用される。いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは任意選択で、物理キーボード、マウス、及び/又はジョイスティックなどの、1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、一般的に、メモ取りアプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションをサポートする。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調節及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ分かり易いユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイシステム112は、便宜上「タッチスクリーン」と呼ばれる場合があり、単にタッチ感知ディスプレイと呼ばれる場合もある。デバイス100は、メモリ102(任意選択で、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、音声回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、その他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は任意選択で、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出する1つ以上の強度センサ165を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求の範囲で使用するとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対する、そのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位である。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。触知出力を使用して触覚フィードバックをユーザに提供することで、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、デバイスを操作する/デバイスと相互作用するとき、ユーザが適切な入力を提供するのを助け、ユーザの誤りを低減させることによって)、加えて、ユーザがデバイスをより迅速かつ効率的に使用することを可能にすることによって、電力使用を低減させ、デバイスの電池寿命を改善する。
いくつかの実施形態では、触知出力パターンは、触知出力の振幅、触知出力の動き波形の形状、触知出力の周波数、及び/又は触知出力の持続時間などの触知出力の特性を指定する。
異なる触知出力パターンを有する触知出力がデバイスによって生成されると(例えば、触知出力を生成するために可動質量を移動させる1つ以上の触知出力生成器を介して)、触知出力は、ユーザがデバイスを保持又はタッチする際に異なる触覚感覚を引き起こし得る。ユーザの感覚は、触知出力のユーザの知覚に基づいているとき、ほとんどのユーザは、デバイスによって生成される触知出力の波形、周波数、及び振幅の変化を識別することが可能である。したがって、波形、周波数、及び振幅を調整して、異なる動作が実行されたことをユーザに示すことができる。したがって、いくつかの状況では、所与の環境(例えば、グラフィカル特徴及びオブジェクトを含むユーザインタフェース、仮想の境界及び仮想のオブジェクトを有するシミュレートされた物理的環境、物理的な境界及び物理的な物体を有する実際の物理的環境、並びに/又は上記の任意の組合せ)において、物体の特性(例えば、サイズ、材料、重量、剛性、平滑度、など)、挙動(例えば、振動、変位、加速、回転、膨張など)、及び/又は相互作用(例えば、衝突、粘着、反発、吸引、摩擦など)をシミュレートするように設計、選択、及び/又は開発された触知出力パターンを有する触知出力は、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる有用なフィードバックをユーザに提供する。加えて、触知出力は、任意選択的に、入力閾値又はオブジェクトの選択などのシミュレートされた物理的特性に関係ないフィードバックに対応するように生成される。いくつかの状況では、そのような触知出力は、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる有用なフィードバックをユーザに提供する。
いくつかの実施形態では、適した触知出力パターンを有する触知出力は、ユーザインタフェース内又はデバイス内のシーンの後ろにおける対象イベントの出現に対する合図として働く。対象となるイベントの例は、デバイス上又はユーザインタフェース内で提供されるアフォーダンス(例えば、実ボタン、仮想ボタン、又はトグルスイッチ)のアクティブ化、要求された動作の成功又は失敗、ユーザインタフェース内の境界に到達すること又は超えること、新たな状態に入ること、オブジェクト間の入力の焦点を切り替えること、新たなモードのアクティブ化、入力閾値に到達すること又は超えること、入力又はジェスチャのタイプの検出又は認識などを含む。いくつかの実施形態では、触知出力は、リダイレクション又は中断入力が時宜を得て検出されない限り発生する、近いうち起こるイベント又は結果に対する警告又はアラートとしての役割を果たすように提供される。触知出力はまた、他の文脈で、ユーザエクスペリエンスの向上、視覚若しくは運動の障害又は他のアクセシビリティに関する必要を有するユーザに対するデバイスのアクセシビリティの改善、並びに/あるいはユーザインタフェース及び/又はデバイスの効率及び機能性の改善のために使用される。触知出力は、任意選択的に、オーディオ出力及び/又は可視のユーザインタフェースの変化を伴い、ユーザがユーザインタフェース及び/又はデバイスと相互作用するときのユーザのエクスペリエンスを更に向上させ、ユーザインタフェース及び/又はデバイスの状態に関する情報のより良好な伝達を容易にし、入力エラーを低減させ、デバイスのユーザの動作の効率を増大させる。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組合せるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせで実装される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。CPU(単数又は複数)120及び周辺機器インタフェース118などのデバイス100の他の構成要素によるメモリ102へのアクセスは任意選択で、メモリコントローラ122により制御される。
周辺機器インタフェース118が使用され、デバイスの入力及び出力周辺機器を、CPU(単数又は複数)120及びメモリ102と結合することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させる、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。
いくつかの実施形態では、周辺機器インタフェース118、CPU(単数又は複数)120、及びメモリコントローラ122は任意選択で、チップ104などの単一チップ上で実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。無線通信は任意選択で、移動通信のためのグローバルシステム(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data-Only(EV-DO)、HSPA、HSPA+、デュアルセルHSPA(DC-HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W-CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、Wireless Fidelity(Wi-Fi)(例えば、IEEE 802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g、及び/若しくはIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi-MAX、電子メールのためのプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/若しくはポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、並びに/又はショートメッセージサービス(SMS)、あるいは本文書の出願日現在までにまだ開発されていない通信プロトコルを含む任意の他の適切な通信プロトコルを含むが、それらに限定されない、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、音声回路110は、更にヘッドセットジャック(例えば、212、図2)も含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチ感知ディスプレイシステム112及びその他の入力又は制御デバイス116などのデバイス100上の入出力周辺機器を周辺機器インタフェース118と結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、その他の入力又は制御デバイス116から電気信号を受信し、それらへ電気信号を送信する。その他の入力又は制御デバイス116は任意選択で、物理的ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的実施形態では、入力コントローラ(単数又は複数)160は任意選択で、キーボード、赤外線ポート、USBポート、スタイラス、及び/又はマウスなどのポインタデバイスのうちのいずれかと結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば、208、図2)は、任意選択で、スピーカ111及び/又はマイクロフォン113の音量制御のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択で、プッシュボタン(例えば、206、図2)を含む。
タッチ感知ディスプレイシステム112は、デバイスとユーザの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチ感知ディスプレイシステム112から電気信号を受信し、及び/又はタッチ感知ディスプレイシステム112へ電気信号を送信する。タッチ感知ディスプレイシステム112は、ユーザに視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組合せ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又はすべては、ユーザインタフェースオブジェクトに対応する。本明細書で使用されるとき、用語「アフォーダンス」は、ユーザ対話形式のグラフィカルユーザインタフェースオブジェクト(例えば、グラフィカルユーザインタフェースオブジェクトに向かって向けられた入力に応答するように構成されたグラフィカルユーザインタフェースオブジェクト)である。ユーザ対話形式のグラフィカルユーザインタフェースオブジェクトの例は、ボタン、スライダ、アイコン、選択可能メニュー項目、スイッチ、ハイパーリンク、又はその他のユーザインタフェース制御を含むが、それらに限定されない。
タッチ感知ディスプレイシステム112は、触覚及び/又は触知の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有する。(メモリ102内の任意の関連するモジュール及び/又は命令セットとともに)タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は、タッチ感知ディスプレイシステム112上の接触(及び、接触の任意の移動又は中断)を検出し、検出された接触をタッチ感知ディスプレイシステム112上で表示されるユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。いくつかの実施形態では、タッチ感知ディスプレイシステム112とユーザとの間の接触点は、ユーザの指又はスタイラスに対応する。
タッチ感知ディスプレイシステム112は任意選択で、LCD(liquid crystal display)(液晶ディスプレイ)技術、LPD(light emitting polymer display)(発光ポリマディスプレイ)技術、又はLED(light emitting diode)(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は任意選択で、容量技術、抵抗性技術、赤外線技術、及び表面音響波技術、並びに、タッチ感知ディスプレイシステム112との1つ以上の接触点を判定するためのその他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在既知の又は後に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びその任意の移動又は中断を検出する。いくつかの実施形態では、Cupertino、CaliforniaのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影型相互キャパシタンス検知技術が使用される。
タッチ感知ディスプレイシステム112は任意選択で、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンの映像解像度は、400dpiを超える(例えば、500dpi、800dpi、又はより高い)。ユーザは任意選択で、スタイラス、指などの任意の適切な物体又は付属物を使用して、タッチ感知ディスプレイシステム112と接触する。いくつかの実施形態では、ユーザインタフェースは、指に基づく接触及びジェスチャで機能するように設計されるが、これらは、指の接触がタッチスクリーン上での面積がより広いことに起因して、スタイラスに基づく入力よりも精度が低い場合がある。いくつかの実施形態では、デバイスは、指に基づく粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、装置のタッチ感知エリアである。タッチパッドは任意選択で、タッチ感知ディスプレイシステム112と分離したタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
デバイス100は、また、様々なコンポーネントに電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158と結合された光センサを示す。光センサ(単数又は複数)164は、任意選択で、電荷結合デバイス(CCD)又は相補的金属酸化膜半導体(CMOS)フォトトランジスタを含む。光センサ(単数又は複数)164は、1つ以上のレンズを通じて投影された、環境からの光を受信し、画像を表すデータに光を変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と連携して、光センサ(単数又は複数)164は任意選択で、静止画像及び/又はビデオをキャプチャする。いくつかの実施形態では、タッチスクリーンを静止画像及び/又はビデオ画像取得のためのビューファインダとして使用することができるように、光センサは、デバイスの前面上のタッチ感知ディスプレイシステム112の反対である、デバイス100の背面上に配置される。いくつかの実施形態では、ユーザの画像が取得されるように(例えば、自撮りのため、ユーザがタッチスクリーン上でその他のビデオ会議参加者を見ている間のビデオ会議のためなど)、別の光センサがデバイスの前面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の接触強度センサ165を含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159と結合された接触強度センサを示す。接触強度センサ(単数又は複数)165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(若しくは圧力)を測定するために使用されるセンサ)を任意選択で含む。接触強度センサ(単数又は複数)165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のためのプロキシ)を受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、デバイス100の前面上に位置するタッチスクリーンディスプレイシステム112の反対である、デバイス100の背面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118と結合された近接センサ166を示す。代わりに、近接センサ166は、I/Oサブシステム106内の入力コントローラ160と結合される。いくつかの実施形態では、多機能デバイスがユーザの耳の近くに配置されるとき(例えば、ユーザが電話通話を行っているとき)、近接センサは、タッチ感知ディスプレイシステム112をターンオフ及び無効にする。
また、デバイス100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161と結合され触知出力生成器を示す。いくつかの実施形態では、触知出力生成器(単数又は複数)167は、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)など、エネルギーを線形の動きに変換する電気機械デバイスを含む。触知出力生成器(単数又は複数)167は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサは、デバイス100の前面上に位置するタッチ感知ディスプレイシステム112の反対である、デバイス100の背面上に配置される。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118と結合された加速度計168を示す。代わりに、加速度計168は任意選択で、I/Oサブシステム106内の入力コントローラ160と結合される。いくつかの実施形態では、情報は、1つ以上の加速度計から受信されたデータの分析に基づいて、縦方向ビュー又は横方向ビュー内でタッチスクリーンディスプレイ上に表示される。デバイス100は任意選択で、加速度計(単数又は複数)168に加えて、磁気計(図示せず)並びにデバイス100の位置及び向き(例えば、縦向き又は横向き)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機(図示せず)を含む。
いくつかの実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は、命令セット)128、接触/動きモジュール(又は、命令セット)130、グラフィックモジュール(又は、命令セット)132、触覚フィードバックモジュール(又は、命令セット)133、テキスト入力モジュール(又は、命令セット)134、全地球測位システム(Global Positioning System)(GPS)モジュール(又は、命令セット)135、及びアプリケーション(又は、命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示されるように、メモリ102は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチ感知ディスプレイシステム112の様々な領域を占有しているかを示す表示状態、デバイスの様々なセンサ及びその他の入力又は制御デバイス116から取得される情報を含むセンサ状態、並びにデバイスの位置及び/又は姿勢に関する位置及び/若しくは位置情報、のうちの1つ以上を含む。
オペレーティングシステム126(例えば、iOS、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステム)は、全体的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素の間の通信を促進する。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、Cupertino、CaliforniaのApple Inc.からのいくつかのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイス内で使用される30ピンコネクタと同一若しくは類似した、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。いくつかの実施形態では、外部ポートは、Cupertino、CaliforniaのApple Inc.からのいくつかのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイス内で使用されるLightningコネクタと同一若しくは類似した、及び/又は互換性のあるLightningコネクタである。
接触/動きモジュール130は任意選択で、タッチ感知ディスプレイシステム112との接触(ディスプレイコントローラ156と連携して)、及び他のタッチ感知デバイスとの接触(例えば、タッチパッド又は物理クリックホイール)を検出する。接触/動きモジュール130は、接触が発生したかを判定すること(例えば、指ダウンイベントを検出する)、接触の強度を判定すること(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力に代替するもの)、接触の動きがあるかを判定すること及びタッチ感知面を横切る動きを追跡すること(例えば、1つ以上の指のドラッグイベントを検出する)、及び接触が停止したかどうかを判定すること(例えば、指アップイベント又は接触の中断を検出する)などの、接触の検出(例えば、指又はスタイラスによる)に関連する様々な動作を実行するためのソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択で、単一の接触(例えば、1本の指の接触又はスタイラスの接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指のタップジェスチャを検出することは、指ダウンイベントを検出し、続いて(例えば、アイコンの位置での)その指ダウンイベントと同一の位置(又は、実質的に同一の位置)で指アップ(リフトオフ)イベントを検出することを含む。別の実施例として、タッチ感知面上の指のスワイプジェスチャの検出は、指ダウンイベントを検出し、続いて1つ以上の指のドラッグイベントを検出し、その後、指アップ(リフトオフ)イベントを検出することを含む。同様に、タップ、スワイプ、ドラッグ、及びその他のジェスチャは任意選択で、スタイラスに対して、スタイラスに対する特定の接触パターンを検出することにより、検出される。
いくつかの実施形態では、指のタップジェスチャを検出することは、指ダウンイベントを検出することと指アップイベントを検出することとの間の時間の長さに依存するが、指ダウンイベントを検出することと指アップイベントを検出することとの間の指の接触の強度とは関連しない。いくつかの実施形態では、タップジェスチャは、タップの間の指の接触の強度が、軽い押圧又は深い押圧強度閾値などの所与の強度閾値を満たす(名目上の接触検出強度閾値よりも大きい)かに関わらず、指ダウンイベントと指アップイベントの間の時間の長さが予め定められた値よりも短い(例えば、0.1、0.2、0.3、0.4又は0.5秒よりも短い)との判定に従って検出される。したがって、指のタップジェスチャは、特定の入力基準が満たされるために、接触の特性強度が所与の強度閾値を満たすことを必要としない特定の入力基準を満たすことができる。明確にするために、タップジェスチャにおける指の接触は一般的に、指ダウンイベントを検出するために、それを下回ると接触が検出されない名目上の接触検出強度閾値を満たす必要がある。同様の分析は、スタイラスによるタップジェスチャ又は他の接触を検出することに適用される。デバイスがタッチ感知面上をホバリングする指又はスタイラスの接触を検出することが可能なケースでは、名目上の接触検出強度閾値は任意選択で、指又はスタイラスとタッチ感知面の間の物理的接触に対応しない。
同様の方式で、同一の概念が他のタイプのジェスチャに適用される。例えば、スワイプジェスチャ、ピンチジェスチャ、デピンチジェスチャ、及び/又は長い押圧ジェスチャは任意選択で、ジェスチャに含まれる接触の強度と関係しない、又は認識されるためにジェスチャを実行する接触が強度閾値に到達することを必要としないのいずれかである基準を満たすことに基づいて検出される。例えば、スワイプジェスチャは、1つ以上の接触の移動量に基づいて検出され、ピンチジェスチャは、相互に向かう2つ以上の接触の移動に基づいて検出され、デピンチジェスチャは、相互に離れる2つ以上の接触の移動に基づいて検出され、長い押圧ジェスチャは、閾値移動量よりも小さいタッチ感知面上の接触の期間に基づいて検出される。したがって、特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度が対応する強度閾値を満たすことを特定のジェスチャ認識基準が必要としないという記述は、ジェスチャにおける接触(複数可)が対応する強度閾値に到達しない場合に特定のジェスチャ認識基準が満たされることが可能であること、及びジェスチャにおける接触のうちの1つ以上が対応する強度閾値に到達する、又は強度閾値を超える状況で満たされることも可能であることを意味する。いくつかの実施形態では、タップジェスチャは、接触が所定の期間の間に対応する強度閾値を上回るか又は下回るかに関わらず、指ダウンイベント及び指アップイベントが所定の期間内で検出されたという判定に基づいて検出され、スワイプジェスチャは、接触が接触の移動の終わりに対応する強度閾値を上回る場合でさえ、接触の移動が所定の大きさよりも大きいという判定に基づいて検出される。ジェスチャの検出がジェスチャを実行する接触の強度によって影響される実施態様でさえ(例えば、接触の強度が強度閾値を上回るときにデバイスが長い押圧をより素早く検出し、又は接触の強度がより高いときにデバイスがタップ入力の検出に遅れる)、接触が特定の強度閾値に到達しない状況でジェスチャを認識する基準を満たすことができる限り(例えば、ジェスチャを認識するために要する時間量が変化する場合でさえ)、それらのジェスチャの検出は、接触が特定の強度閾値に到達することを必要としない。
接触強度閾値、期間閾値、及び移動閾値は、一部の状況では、同一の入力要素又は領域に方向付けられる2つ以上の異なるジェスチャを区別するためのヒューリスティックを作成するために、様々な異なる組み合わせで組み合わされ、それによって、同一の入力要素との複数の異なる相互作用がより豊かなセットのユーザ相互作用及び応答を提供するように有効化される。特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度が対応する強度閾値を満たすことをジェスチャ認識基準の特定のセットが必要としない記述は、ジェスチャが対応する強度閾値を上回る強度を有する接触を含むときに満たされる基準を有する他のジェスチャを識別するための他の強度依存ジェスチャ認識基準の同時評価を排除しない。例えば、いくつかの状況では、第1のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度が対応する強度閾値を満たすことを必要としない第1のジェスチャのための第1のジェスチャ認識基準は、対応する強度閾値に到達する接触(複数可)に依存する第2のジェスチャのための第2のジェスチャ認識基準との競争関係にある。そのような競争では、ジェスチャは任意選択で、第2のジェスチャのための第2のジェスチャ認識基準が最初に満たされる場合に、第1のジェスチャのための第1のジェスチャ認識基準を満たすものとして認識されない。例えば、接触が所定の移動量を移動する前に接触が対応する強度閾値に到達する場合、スワイプジェスチャではなく深い押圧ジェスチャが検出される。逆に、接触が対応する強度閾値に到達する前に接触が所定の移動量を移動する場合、深い押圧ジェスチャではなくスワイプジェスチャが検出される。そのような状況でさえ、第1のジェスチャのための第1のジェスチャ認識基準は、第1のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度が対応する強度閾値を満たすことをなおも必要としないが、これは、ジェスチャの終わりまで接触が対応する強度閾値を下回ったままであった場合(例えば、対応する強度閾値を上回る強度まで増加しない接触を有するスワイプジェスチャ)、ジェスチャは、スワイプジェスチャとして第1のジェスチャ認識基準によって認識されているからである。そのようにして、特定のジェスチャ認識基準が満たされるために、接触(単数又は複数)の強度が対応する強度閾値を満たすことを必要としない特定のジェスチャ認識基準は、(A)いくつかの状況では、強度閾値(例えば、タップジェスチャのための)に関して接触の強度を無視し、及び/又は(B)いくつかの状況では、特定のジェスチャ認識基準が入力に対応するジェスチャ(例えば、認識のための深い押圧ジェスチャと競争する長い押圧ジェスチャのための)を認識する前に、強度依存ジェスチャ認識基準の競争するセット(例えば、深い押圧ジェスチャのための)が強度依存ジェスチャに対応するものとして入力を認識する場合、特定のジェスチャ認識基準(例えば、長い押圧ジェスチャのための)が機能しないという意味で、強度閾値に関して接触の強度になおも依存している。
グラフィックモジュール132は、表示されるグラフィックの視覚的影響(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含む、タッチ感知ディスプレイシステム112又は他のディスプレイ上でグラフィックをレンダリング及び表示するための様々な既知のソフトウェア構成要素を含む。本明細書で使用される場合、用語「グラフィック」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、及びアニメーションなどを含むがこれらに限定されない、ユーザに対して表示することができるいずれかのオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力するスクリーンの画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ相互作用に応じて、触知出力生成器(単数又は複数)167を使用してデバイス100上の1つ以上の位置において触知出力を作成するための命令(例えば、触覚フィードバックコントローラ161によって使用される命令)を生成する様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択で、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判定し、この情報を、様々なアプリケーションで使用するために(例えば、位置に基づく電話発信で使用するために電話138へ、写真/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及びマップ/ナビゲーションウィジェットなどの、位置に基づくサービスを提供するアプリケーションへ)提供する。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤモジュール及び音楽プレーヤモジュールから構成されている、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●マップモジュール154、及び/又は
●オンラインビデオモジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134とともに、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレス帳又は連絡先リストを管理するための実行可能命令を含み、それには、アドレス帳に名前(単数又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号及び/又は電子メールアドレスを提供して、電話138、ビデオ会議139、電子メール140、又はIM141による通信を開始及び/若しくは促進すること、などが含まれる。
RF回路108、音声回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を変更し、それぞれの電話番号をダイヤルし、会話を実行し、会話が完了したときに切断し又は電話を切る実行可能命令を含む。上述のように、無線通信は、任意選択で、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
RF回路108、音声回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と連携して、ビデオ会議モジュール139は、ユーザの命令に従って、ユーザと1人以上の他の参加者の間のビデオ会議を開始し、行い、終了する実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理する実行可能命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力し、前に入力された文字を修正し、それぞれのインスタントメッセージを送信し(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、Apple Push Notification Service(APNs)、若しくはIMPSを使用して)、インスタントメッセージを受信し、受信したインスタントメッセージを見る実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されたインスタントメッセージは任意選択で、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるような、グラフィック、写真、音声ファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書で使用されるとき、「インスタントメッセージ」は、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、APNs、又はIMPSを使用して送信されたメッセージ)の両方である。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、マップモジュール154、並びにビデオ及び音楽プレーヤモジュール152と連携して、トレーニングサポートモジュール142は、トレーニングを作成し(例えば、時間、距離、及び/又はカロリー消費目標を有する)、(スポーツデバイス及びスマートウォッチ内の)トレーニングセンサと通信し、トレーニングセンサデータの受信、トレーニングをモニタするために使用されるセンサの較正、トレーニングのための音楽を選択して再生する、並びに、トレーニングデータを表示し、記憶し、送信する、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144とともに、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶する、静止画像又はビデオの特性を変更する、及び/又はメモリ102から静止画像若しくはビデオを削除する、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143とともに、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、変更し(例えば、編集し)、又はその他の方式で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶する、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134とともに、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付ファイル及び他のファイルの、検索、リンク付け、受信、及び表示を含め、ユーザの命令に従って、インターネットをブラウズする、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147とともに、カレンダーモジュール148は、ユーザの命令に従って、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、するべきことのリストなど)を作成、表示、変更、及び記憶する、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147とともに、ウィジェットモジュール149は、任意選択で、ユーザによってダウンロードされ使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株価ウィジェット149-2、計算機ウィジェット149-3、アラーム時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language;ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets;カスケーディングスタイルシート)ファイル、及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language:拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットに変える)実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの命令に従って、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索する実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、音声回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された記録された音楽又は他のサウンドファイルをユーザがダウンロード及び再生することを可能にする実行可能命令、並びにビデオを表示し、提示し、又はその他の方式で再生する(例えば、タッチ感知ディスプレイシステム112上で、又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)実行可能命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの命令に従って、メモ、するべきことのリストなどを作成及び管理する実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、マップモジュール154は、ユーザの命令に従って、地図及び地図と関連付けられたデータ(例えば、運転方向、特定の位置における又はその近くの店舗及び対象となる他の地点についてのデータ、並びに位置に基づく他のデータ)を受信し、表示し、変更し、記憶する実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、音声回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、閲覧し、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン112上で、又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを有する電子メールを送信し、別の方法で管理することを可能にする実行可能命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。
上記特定されたモジュール及びアプリケーションの各々は、上記説明された1つ以上の機能、並びに本出願で説明される方法(例えば、コンピュータにより実行される方法、及び本明細書で説明される他の情報処理方法)を実行する実行可能な命令セットに対応する。それらのモジュール(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、よって、それらのモジュールの様々なサブセットは、任意選択で、様々な実施形態において、組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1Aにおける)又は370(図3)は、イベントソート部170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136-1(例えば、上述したアプリケーション136、137~155、380~390のいずれか)を含む。
イベントソート部170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソート部170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイシステム112上で表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定するためにイベントソート部170によって使用され、アプリケーション内部状態192は、イベント情報が配信されるアプリケーションビュー191を決定するためにイベントソート部170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用される再開情報、アプリケーション136-1によって表示されている又は表示される準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136-1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイシステム112上のユーザのタッチ)についての情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を伝送する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイシステム112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応じて、周辺機器インタフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、予め定められたノイズ閾値を上回り、及び/又は予め定められた期間よりも長い入力を受信すること)が存在するときのみ、イベント情報を送信する。
いくつかの実施形態では、イベントソート部170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイシステム112が2つ以上のビューを表示するとき、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始するサブイベント(すなわち、イベント又は潜在的なイベントを形成する一連のサブイベントにおける最初のサブイベント)が発生する最下位レベルのビューである。ヒットビューがヒットビュー判定モジュールによって特定されると、ヒットビューは典型的には、それがヒットビューとして特定された同一のタッチ又は入力元に関連するすべてのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理位置を含むすべてのビューがアクティブに関わりがあるビューであると判定し、したがって、すべてのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連するエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182によって取得されたイベント情報をイベント待ち行列に記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソート部170を含む。代替として、アプリケーション136-1がイベントソート部170を含む。更に他の実施形態では、イベントソート部170は、独立型のモジュール、又は接触/動きモジュール130などの、メモリ102に記憶された別のモジュールの一部である。
いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136-1が方法及び他の特性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、対応するイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178及び/又はイベントソート部170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は任意選択で、アプリケーション内部状態192を更新するために、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し、又は呼び出す。代わりに、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177及びGUI更新部178のうちの1つ以上は、対応するアプリケーションビュー191に含まれる。
それぞれのイベント認識部180は、イベントソート部170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソート部170からイベント情報を受信する。イベント情報は、サブイベントについての情報、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの位置などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント187におけるサブイベントは、例えば、タッチの始め、タッチの終わり、タッチの移動、タッチの中止、及び複数のタッチを含む。一例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の予め定められた段階についての第1のタッチ(タッチの始め)、予め定められた段階についての第1のリフトオフ(タッチの終わり)、表示されたオブジェクト上の予め定められた段階についての第2のタッチ(タッチの始め)、及び予め定められた段階についての第2のリフトオフ(タッチの終わり)を含む。別の例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、表示されたオブジェクト上の予め定められた段階についてのタッチ(又は、接触)、タッチ感知ディスプレイシステム112を横切るタッチの移動、及びタッチのリフトオフ(タッチの終わり)を含む。いくつかの実施形態では、イベントはまた、1つ以上の関連付けられたイベント処理部190に関する情報を含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイシステム112上で表示されるアプリケーションビューにおいて、タッチ感知ディスプレイシステム112上でタッチが検出されたとき、イベント比較部184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)と関連付けられているかを判定するためにヒットテストを実行する。表示された各オブジェクトが、対応するイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベント処理部を選択する。
いくつかの実施形態では、それぞれのイベント187の定義は、一連のサブイベントがイベント認識部のイベントタイプに対応するかどうかが判定されるまで、イベント情報の配信を遅らせる遅延アクションも含む。
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないと判断した場合には、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、対応するイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように相互作用するか、又はイベント認識部が互いにどのように相互作用することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントと関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベント処理部190は、そのフラグを捕らえ、既定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定の処理を実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新するか、又はビデオ及び音楽プレーヤモジュール152で使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成するか、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された目の動き、バイオメトリック入力、並びに/又はそれらの任意の組合せを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
図2は、いくつかの実施形態に係る、タッチスクリーン(例えば、タッチ感知ディスプレイシステム112、図1A)を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。これらの実施形態、並びに後述する実施形態では、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いて、グラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択することが可能になる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上向きに及び/若しくは下向きに)、並びに/又は、デバイス100と接触した指のローリング(右から左へ、左から右へ、上向きに及び/若しくは下向きに)を、任意選択で含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
デバイス100は、任意選択で、「ホーム」又はメニューボタン204などの1つ以上の物理的ボタンも含む。前述のように、メニューボタン204は、任意選択で、デバイス100上で任意選択的に実行される、アプリケーションのセットにおける任意のアプリケーション136にナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーンディスプレイ上で表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、デバイス100は、タッチスクリーンディスプレイ、メニューボタン204(ホームボタン204と呼ばれる場合がある)、デバイスへの電源供給のオン/オフ及びデバイスのロックのためのプッシュボタン206、音量調節ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、ドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、デバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。いくつかの実施形態では、デバイス100は、マイクロフォン113を通して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力をも受け入れる。デバイス100はまた任意選択で、タッチ感知ディスプレイシステム112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を有する例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インタフェース360と、メモリ370と、及びこれらの構成要素を相互接続するための1つ以上の通信バス320とを含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330は、任意選択で、キーボード及び/又はマウス(又は、他のポインティングデバイス)350、並びにタッチパッド355、(例えば、図1Aを参照して上記説明された触知出力生成器(単数又は複数)167と同様の)デバイス300上で触知出力を生成するための触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上記説明された接触強度センサ(単数又は複数)165と同様の接触強度センサ)をも含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択で、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、CPU310からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造に類似するプログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は任意選択で、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は任意選択で、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択で、それらのモジュールを記憶しない。
上記特定された図3における要素の各々は、任意選択で、前に言及したメモリデバイスのうちの1つ以上に記憶される。上記特定されたモジュールのうちの各々は、上記説明された機能を実行するための命令セットに対応する。上記特定されたモジュール又はプログラム(すなわち、命令セット)は、別々のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、それらのモジュールの様々なサブセットは任意選択で、様々な実施形態において組み合わされ、又はその他の方式で再配置される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で特定したモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
ここで、ポータブル多機能デバイス100上で任意選択的に実装されるユーザインタフェース(「UI」)の実施形態に着目する。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信(単数又は複数)のための信号強度インジケータ(単数又は複数)、
●時間、
●Bluetooth(登録商標)インジケータ、
●バッテリ状態インジケータ、
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408、
○不在着信又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた、電話モジュール138のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「音楽」とラベル付けされたビデオ及び音楽プレーヤモジュール152のアイコン422、及び
●以下のような、他のアプリケーションのアイコン、
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダー」とラベル付けされた、カレンダーモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」のラベル付けされた、地図モジュール154のためのアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
図4Aに示されたアイコンのラベルは単なる例に過ぎないことに留意されたい。例えば、他のラベルが任意選択的に、様々なアプリケーションアイコンに使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450と分離したタッチ感知面451(例えば、タブレット又はタッチパッド355、図3)を有するデバイス(例えば、デバイス300、図3)上の例示的なユーザインタフェースを示す。以下の実施例のうちの多くはタッチスクリーンディスプレイ112上の入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイと分離したタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bにおける451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bにおける453)に対応する主軸(例えば、図4Bにおける452)を有する。それらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468に対応し、462は470に対応する)におけるタッチ感知面451との接触(例えば、図4Bにおける460及び462)を検出する。このように、タッチ感知面がディスプレイと分離しているとき、タッチ感知面(例えば、図4Bにおける451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの移動)は、多機能デバイスのディスプレイ(例えば、図4Bにおける450)上でユーザインタフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の実施例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャなど)を参照して与えられるが、いくつかの実施形態では、それらの指の入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)と置換されることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの位置の上に位置する間はマウスクリックと置き換えられる(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
本明細書で使用されるとき、用語「フォーカスセレクタ」は、ユーザが相互作用しているユーザインタフェースの現在の部分を示す入力要素である。カーソル又は他のロケーションマーカを含むいくつかの実装形態では、カーソルは、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の上にある間に、タッチ感知面(例えば、図3におけるタッチパッド355、又は図4Bにおけるタッチ感知面451)上で入力(例えば、押圧入力)が検出されると、特定のユーザインタフェース要素が検出された入力に従って調整されるように、「フォーカスセレクタ」として機能する。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接的な相互作用を有効化するタッチスクリーンディスプレイ(例えば、図1Aにおけるタッチ感知ディスプレイシステム112、又は図4Aにおけるタッチスクリーン)を含むいくつかの実装形態では、タッチスクリーン上で検出された接触は、入力(例えば、接触による押圧入力)がタッチスクリーンディスプレイ上で特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインタフェース要素)の位置において検出されると、特定のユーザインタフェース要素が検出された入力に従って調節されるように、「フォーカスセレクタ」として機能する。いくつかの実装では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動なしに、(例えば、タブキー又は矢印キーを使ってフォーカスを1つのボタンから別のボタンに移動させることにより)フォーカスが、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に移動される。これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタによってとられる具体的な形態とは関わりなく、フォーカスセレクタは一般的に、ユーザインタフェースとのユーザの意図した相互作用を通信するために(例えば、ユーザが相互作用することを意図しているユーザインタフェースの要素をデバイスに示すことによって)、ユーザによって制御されるユーザインタフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応のボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の位置は、その対応のボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触又はスタイラスの接触)の力若しくは圧力(単位面積当りの力)、又はタッチ感知面上の接触の力若しくは圧力を代替するもの(プロキシ)である。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組合せを使用して、特定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値は、推定される接触の力を特定するために組み合わされる(例えば、加重平均又は合計)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を特定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を超えているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。いくつかの実装形態では、接触の力又は圧力のための代替測定値は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を超えているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。ユーザ入力の属性として接触の強度を使用すると、(例えば、タッチ感知ディスプレイ上に)アフォーダンスを表示するため、及び/又は(例えば、タッチ感知ディスプレイ、タッチ感知面、又はノブ若しくはボタンなどの物理的/機械的コントロールを介して)ユーザ入力を受信するための資産が制限された、低減されたサイズのデバイス上で、そうでない場合ユーザによるアクセスが容易に可能でない場合がある、追加のデバイス機能にユーザがアクセスすることが可能になる。
いくつかの実施形態では、接触/動きモジュール130は、1つ以上の強度閾値のセットを使用して、ユーザによって操作が実行されたかどうかを判定する(例えば、ユーザがアイコン上で「クリック」したかどうかを判定する)。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の既定の閾値のうちのいずれかに設定することができる。更に、いくつかの実装形態では、デバイスのユーザは、(例えば、個々の強度閾値を調整することにより、及び/又は、システムレベルのクリック「強度」パラメータで一度に複数の強度閾値を調整することにより)強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供される。
本明細書及び特許請求の範囲で使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく接触の特性である。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、既定の数の強度サンプル、すなわち、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する既定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は任意選択で、接触の強度の最大値、接触の強度の平均値(mean value)、接触の強度の平均値(average value)、接触の強度の上位10%値、接触の強度の最大値の半分の値、接触の強度の最大値の90%の値、予め定義された期間にわたって、又は予め定義された時間において開始した接触の強度を低域フィルタリングすることによって生成された値などのうちの1つ以上に基づく。いくつかの実施形態では、特性強度を特定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって操作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1つ以上の強度閾値のセットは、第1の強度閾値及び第2の強度閾値を含んでもよい。この実施例では、第1の閾値を上回らない特性強度を有する接触の結果として第1の動作が実行され、第1の強度閾値を上回り第2の強度閾値を上回らない特性強度を有する接触の結果として第2の動作が実行され、第2の強度閾値を上回る特性強度を有する接触の結果として第3の動作が実行される。いくつかの実施形態では、特性強度と1つ以上の強度閾値との間の比較は、第1の操作を実行するか、又は第2の操作を実行するかを判定するために使用されるのではなく、1つ以上の操作を実行するか否か(例えば、それぞれの選択肢を実行するか、又はそれぞれの操作を実行することを控えるか)を判定するために使用される。
いくつかの実施形態では、特性強度を特定する目的のために、ジェスチャの一部分が識別される。例えば、タッチ感知面は、開始位置から遷移して終了位置に達する連続的なスワイプ接触(例えば、ドラッグジェスチャ)を受け取る場合があり、そのポイントにおいて接触の強度が増大する。この例では、終了位置における接触の特性強度は、スワイプ接触全体ではなく、連続的なスワイプ接触の一部分のみ(例えば、終了位置におけるスワイプ接触の一部分のみ)に基づいてもよい。いくつかの実施形態では、接触の特性強度を特定する前に、スワイプ接触の強度に平滑化アルゴリズムが適用されてもよい。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を特定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。
本明細書で説明されるユーザインタフェースの図は任意選択で、1つ以上の強度閾値(例えば、接触検出強度閾値IT、軽い押圧強度閾値IT、深い押圧強度閾値IT(例えば、少なくとも最初はITよりも高い)、及び/又は1つ以上の他の強度閾値(例えば、ITよりも低い強度閾値IT)に対する、タッチ感知面上の接触の現在の強度を示す、様々な強度の図表(例えば、5148)を含む。この強度の図は、典型的には、表示されるユーザインタフェースの一部ではないが、図の解釈を支援するために提供される。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触がもはや検出されない名目上の接触検出強度閾値ITを上回る)特性強度を有する接触が検出されると、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを移動させる。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。
いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力中の接触強度に基づく基準に依存する。例えば、いくつかの「軽い押圧」入力の場合、入力中の第1の強度閾値を超える接触の強度は第1の応答をトリガする。いくつかの実施形態では、デバイスによって検出された入力へのデバイスの応答は、入力中の接触強度と時間ベースの基準の両方を含む基準に依存する。例えば、いくつかの「深い押圧」入力の場合、軽い押圧用の第1の強度閾値より大きい入力中の第2の強度閾値を超える接触の強度は、第1の強度閾値を満たすことと第2の強度閾値を満たすこととの間に遅延時間が経過した場合のみ、第2の応答をトリガする。この遅延時間は典型的には、時間が200ms(ミリ秒)よりも短い(例えば、第2の強度閾値の大きさに依存して、40ms、100ms、又は120msであり、遅延時間は第2の強度閾値が増大するにつれて増大する)。この遅延時間は、深い押圧入力の偶発的な認識を回避することを支援する。別の例として、いくつかの「深い押圧」入力の場合、第1の強度閾値が満たされた時間の後に発生する感度が低下した期間が存在する。感度が低下した期間の間、第2の強度閾値は増大する。第2の強度閾値のこの一時的な増大も、偶発的な深い押圧入力を回避するのに役立つ。他の深い押圧入力の場合、深い押圧入力の検出に対する応答は、時間ベースの基準に依存しない。
いくつかの実施形態では、入力強度閾値及び/又は対応する出力のうちの1つ以上は、ユーザ設定、接触の動き、入力タイミング、実行しているアプリケーション、強度が加わる速度、同時入力の数、ユーザ履歴、環境要因(例えば、周囲ノイズ)、フォーカスセレクタの位置などの、1つ以上の要因に基づいて変化する。例示的な要因が、米国特許出願公開第14/399,606号及び第14/624,296号に記載されており、それらは参照により全体が本明細書に組み込まれている。
例えば、図4Cは、経時的なタッチ入力476の強度に部分的に基づいて、経時的に変化する動的な強度閾値480を示す。動的な強度閾値480は、2つの成分、タッチ入力476が最初に検出されたときから既定の遅延時間p1後に経時的に減衰する第1の成分474、及び経時的にタッチ入力476の強度の跡を辿る第2の成分478の合計である。第1の成分474の最初の高い強度閾値は、タッチ入力476が十分な強度を提供する場合に即時の「深い押圧」応答を更に可能にしながら、「深い押圧」応答の偶発的トリガを削減する。第2の成分478は、タッチ入力の段階的な強度変動によって「深い押圧」応答の意図しないトリガを削減する。いくつかの実施形態では、タッチ入力476が動的な強度閾値480を満たすとき(例えば、図4Cにおけるポイント481において)、「深い押圧」応答がトリガされる。
図4Dは、別の動的な強度閾値486(例えば、強度閾値I)を示す。図4Dは、2つの他の強度閾値:第1の強度閾値I及び第2の強度閾値Iも示す。図4Dでは、タッチ入力484が時間p2の前に第1の強度閾値I及び第2の強度閾値Iを満たすが、時間482において遅延時間p2が経過するまでは応答が提供されない。また、図4Dでは、動的な強度閾値486は経時的に減衰し、減衰は、時間482から既定の遅延時間p1が経過した後(第2の強度閾値Iに関連付けられた応答がトリガされたとき)の時間488に始まる。このタイプの動的な強度閾値は、第1の強度閾値I又は第2の強度閾値Iなどの、より低い強度閾値に関連付けられた応答をトリガした直後、又はそれと同時に、動的な強度閾値Iに関連付けられた応答の偶発的なトリガを削減する。
図4Eは、更に別の動的な強度閾値492(例えば、強度閾値I)を示す。図4Eでは、強度閾値Iに関連付けられた応答は、タッチ入力490が最初に検出されたときから遅延時間p2が経過した後にトリガされる。同時に、動的な強度閾値492は、タッチ入力490が最初に検出されたときから既定の遅延時間p1が経過した後に減衰する。そのため、タッチ入力490を解放することなしに、タッチ入力490の強度の増大がその後に続く、強度閾値Iに関連付けられた応答をトリガした後のタッチ入力490の強度の減少は、タッチ入力490の強度が別の強度閾値、例えば、強度閾値Iを下回るときでも、(例えば、時間494において)強度閾値Iに関連付けられた応答をトリガすることができる。
軽い押圧強度閾値ITを下回る強度から、軽い押圧強度閾値ITと深い押圧強度閾値ITとの間の強度への接触の特性強度の増大は、「軽い押圧」入力と呼ばれる場合がある。深い押圧強度閾値ITを下回る強度から深い押圧強度閾値ITを上回る強度への接触の特性強度の増大は、「深い押圧」入力と呼ばれる場合がある。接触検出強度閾値ITを下回る強度から接触検出強度閾値ITと軽い押圧強度閾値ITの間の強度への接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれる場合がある。接触検出強度閾値ITを上回る強度から接触検出強度閾値ITを下回る強度への接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれる場合がある。いくつかの実施形態では、ITはゼロである。いくつかの実施形態では、ITはゼロより大きい。いくつかの例示では、タッチ感知面上の接触の強度を表すために、網掛けの円又は楕円が使用される。いくつかの例示では、それぞれの接触の強度を指定することなく、タッチ感知面上のそれぞれの接触を表すために、網掛けなしの円又は楕円が使用される。
本明細書に記載されるいくつかの実施形態では、1つ以上の動作は、それぞれの押圧入力を含むジェスチャを検出したことに応答して、又はそれぞれの接触(若しくは複数の接触)で実行されるそれぞれの押圧入力を検出したことに応答して実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大を検出したことに応答して実行される(例えば、それぞれの動作は、それぞれの押圧入力の「ダウンストローク」上で実行される)。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びその後の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、その後の押圧入力閾値を下回るそれぞれの接触の強度の減少を検出したことに応答して実行される(例えば、それぞれの動作は、それぞれの押圧入力の「アップストローク」上で実行される)。
いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びその後の押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、その後のヒステリシス強度閾値を下回るそれぞれの接触の強度の減少を検出したことに応答して実行される(例えば、それぞれの動作は、それぞれの押圧入力の「アップストローク」上で実行される)。同様に、いくつかの実施形態では、押下入力は、デバイスが、ヒステリシス強度閾値以下の強度から押下入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押下入力(例えば、状況に応じて、接触の強度の増大又は接触の強度の減少)を検出したことに応じて実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力に応答して、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応答してトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応じて実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応じて実行される。上述されたように、いくつかの実施形態では、これらの応答のトリガは、満たされる時間ベースの基準にも依存する(例えば、遅延時間は、第1の強度閾値が満たされることと第2の強度閾値が満たされることとの間で経過している)。
ユーザインタフェース及び関連付けられた処理
ここで、ディスプレイと、タッチ感知面と、(任意選択的に)触知出力を生成するための1つ以上の触知出力生成器と、(任意選択的に)タッチ感知面との接触の強度を検出するための1つ以上のセンサとを備える、ポータブル多機能デバイス100又はデバイス300などの電子デバイス上で実装され得る、ユーザインタフェース(「UI」)及び関連プロセスの実施形態に注意を向ける。
図5A~図5DWは、いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図6A~図6F、図7A~図7D、図8A~図8F、図9A~図9I、及び図10A~10Cにおけるプロセスを含む、以下に説明するプロセスを例示するために使用される。説明の便宜上、実施形態のいくつかは、タッチ感知ディスプレイシステム112を有するデバイス上で実行される操作を参照して議論される。そのような実施形態では、フォーカスセレクタは任意選択で、それぞれの指若しくはスタイラスの接触、指若しくはスタイラスの接触に対応する代表的な点(例えば、それぞれの接触の面心若しくはそれぞれの接触と関連付けられた点)、又はタッチ感知ディスプレイシステム112上で検出された2つ以上の接触の面心である。しかしながら、同様の操作は任意選択で、フォーカスセレクタと共に、ディスプレイ450上の図に示されるユーザインタフェースを表示する間、タッチ感知面451上の接触を検出したことに応じて、ディスプレイ450及び別々のタッチ感知面451を有するデバイス上で実行される。
図5A~図5Uは、いくつかの実施形態に係る、メディア再生及び編集のための例示的なユーザインタフェースを示す。図5Aでは、デバイス100は、ホームユーザインタフェース500-1を表示する。ホームユーザインタフェース500-1は、ユーザによって選択可能な異なるアプリケーションを表示する。画像アプリケーション428でタップ502-1を検出したことに応じて、デバイス100は、画像アプリケーション428を開く。画像アプリケーション428では、メディアアイテムをナビゲート、表示、及び編集するためのユーザインタフェースを表示する。図5Bのメディアユーザインタフェース500-2は、ユーザによる容易な選択のために、グリッドパターンでサムネイル画像を表示する。いくつかの実施形態では、各サムネイル画像は、特定のユーザアクションを検出したことに応じて「再生」され得る、初期画像で開始し最終画像で終了する、メディアアイテム内の一連の画像に関連付けられた、代表画像である。メディアアイテム550でタップ502-2を検出したことに応じて、デバイス100は、図5Cに示すように、メディアアイテム表示ユーザインタフェース501を表示する。メディアアイテム表示ユーザインタフェース501は、お気に入りアイテムコントロール504-a、共有メディアアイテムコントロール504-b、削除メディアアイテムコントロール504-c、編集メディアアイテムコントロール504-d、及びメディアアイテム詳細コントロール504-eなどのコントロールを含む。メディアアイテム表示ユーザインタフェース501は、表示領域508を含む。表示領域508は、メディアアイテム550の代表画像を表示し、表示モードインジケータ512を介してユーザインタフェースが「ライブリ(lively)」表示モードメディアアイテム550にあることを示す。メディアアイテム表示ユーザインタフェース501はまた、メディアアイテムコレクション領域510を含む。メディアアイテムコレクション領域510は、デバイス100上に記憶されたメディアアイテムの他のサムネイル表現を表示することに加えて、メディアアイテム550の代表画像514の表現(例えば、サムネイル)を表示する。図5C~図5Dに示すように、表示領域508内の軽い押圧強度閾値ITを上回る接触502-3による押圧を検出したことに応じて、デバイス100は、例えば、図5Eに示すように、最終的に最終画像536で終了する前に、代表画像532で開始し結局は初期画像534に進む、シーケンス538-1及び538-2のいずれかに従って、メディアアイテム550を再生する。次いで、代表画像532が再表示される。代表画像532は、写真アプリケーション内の(例えば、ライブラリ又は他のコレクション内の)メディアアイテム550を表す。代表画像は、典型的には、メディアアイテム表示ユーザインタフェース501の第1の領域内(例えば、図5C)、表現514(例えば、サムネイル)として、メディアアイテム表示ユーザインタフェース501の第2の領域内(例えば、図5C)、編集ユーザインタフェース503の第1の領域523内(例えば、図5V)、表現(例えば、サムネイル)として、編集ユーザインタフェース503の第2の領域521内、及び表現514(例えば、サムネイル)として画像のアレイ内(図5B)などの写真アプリケーション内の多数のユーザインタフェース内に表示される。
図5Fは、メディアアイテム550が「ループ」表示モードにあることを除いて、図5Cと同様である。ユーザ入力なしに、デバイス100は、例えば、図5Gに示すシーケンス538-2に従って、メディアアイテム550を繰り返しループする。図5Hでは、デバイス100は、「ループ」モードでメディアアイテム表示ユーザインタフェース501を表示する。「ループ」表示モードにある間に、編集コントロール504-dでタップジェスチャ502-5を検出したことに応じて、デバイス100は、図5Iに示すように、メディアアイテム編集ユーザインタフェース503を表示し、具体的には、「ループ」モードのメディアアイテム編集ユーザインタフェース503-2を表示する。メディアアイテム編集ユーザインタフェース503は、メディア編集表示領域523及び画像シーケンス領域524を含む。「ループ」モードでは、メディア編集表示領域523は、図5Gに記載されるように、ループシーケンス内のメディアアイテム550に関連付けられた一連の画像を表示する。メディアアイテム550内の一連の画像は、開始トリムアフォーダンス516及び/又は終了トリムアフォーダンス518を使用してトリムすることができる。メディアアイテム編集ユーザインタフェース503はまた、完了コントロール505-a、クロップコントロール505-b、色コントロール505-c、タイマコントロール505-d、ミュートコントロール505-f、ワンドコントロール505-g、及び再生トグルコントロール505-hなどの編集コントロールも含む。いくつかの実施形態では、「ループモード」のメディアアイテム編集ユーザインタフェース503-2は、図5Iに示すように、代表画像選択アフォーダンスを表示することを控える。他の実施形態では、「ループ」モードのメディアアイテム編集ユーザインタフェース503-2は、図5Jに示すように、代表画像選択アフォーダンス520を表示する。
図5Kは、メディアアイテム550が「前後」表示モードにあることを除いて、図5Cと同様である。この実施例では、デバイス100は、例えば、図5Lに示すシーケンス538-3に従って、メディアアイテム550を前後に再生する。図5Mでは、デバイス100は、メディアアイテム表示ユーザインタフェース501を「前後」モードで表示する。「前後」表示モードにある間に、編集コントロール504-dでタップジェスチャ502-6を検出したことに応じて、デバイスは、図5Nに示すように、メディアアイテム編集ユーザインタフェース503-3を表示する。図5Nは、メディアアイテム550が「前後」編集モードにあることを除いて、図5Iと同様である。いくつかの実施形態では、メディアアイテム編集ユーザインタフェース503-3は、図5Nに示すように、代表画像選択アフォーダンスを表示することを控える。他の実施形態では、メディアアイテム編集ユーザインタフェース503-3は、図5Oに示すように、代表画像選択アフォーダンス520を表示する。
図5Pは、メディアアイテム550が「マージ」表示モードにあることを除いて、図5Cと同様である。この実施例では、デバイス100は、表示領域508内に、メディアアイテムに関連付けられた一連の画像のマージされた画像を表示する。図5P~図5Qに示すように、表示領域508内の軽い押圧強度閾値ITを上回る接触502-7による押圧を検出したことに応じて、デバイス100は、例えば、図5Rに示すシーケンス538-4に従って、メディアアイテム550を再生する。図5Sでは、デバイス100は、「マージ」モードでメディアアイテム表示ユーザインタフェース501を表示する。編集コントロール504-dでのタップジェスチャ502-8を検出したことに応じて、デバイスは、図5Tに示すように、メディアアイテム編集ユーザインタフェース503-4を表示する。図5Tは、メディアアイテム550が「マージ」編集モードにあることを除いて、図5Iと同様である。このモードでは、編集表示領域523は、メディアアイテム550に関連付けられた一連の画像のマージされた静止画像を表示する。
図5U~図5BEは、いくつかの実施形態に係る、メディア編集のための例示的なユーザインタフェースを示す。図5Uでは、メディアアイテム表示ユーザインタフェース501を「ライブリ」モードで表示している間に、デバイス100は、編集コントロール504-dでのタップ502-9を検出する。それに応じて、デバイス100は、図5Vに示すメディアアイテム編集ユーザインタフェース503-1を表示する。メディアアイテム編集ユーザインタフェース503-1は、メディアアイテム550の静的代表画像が編集表示領域523内に示されていることを除いて、「ループ」モード編集ユーザインタフェース503-2を示す図5Iと同様である。図5Wでは、開始トリムアフォーダンス516での接触502-10によるドラッグを検出したことに応じて、デバイス100は、図5X~図5Zに示すように、接触502-10によるドラッグがユーザによって継続されるに従って、編集表示領域523を更新して、シーケンス内の新しい初期画像を表示する。開始トリムアフォーダンス516はまた、ドラッグ502-10を検出したことに応じて移動する。いくつかの実施形態では、図5Yに示すように、デバイス100は、開始トリムアフォーダンス516が代表画像選択アフォーダンス520を越えて移動することを防止し、代わりに、触覚応答527を提供する。図5AAでは、接触502-10のリフトオフの際に、デバイス100は、編集表示領域523内に代表画像を再表示する。完了コントロール505-a上の接触502-11によるタップを検出したことに応じて、デバイス100は、開始トリムアフォーダンス516の位置によって示すように、メディアアイテム550に関連付けられた一連の画像の一部分がトリムされたため、トリムされたメディアアイテム550を保存する。
図5ABは、図5Zの後に続き、デバイス100は、接触502-10によるドラッグを検出し続ける。図5ABでは、開始トリムアフォーダンス516が、図5Zに示す代表画像選択アフォーダンス520の位置を越えて移動することが許可されている場合、デバイス100は、元の代表画像の上に代表画像インジケータ542を表示する。加えて、デバイス100は、開始トリムアフォーダンス516の位置に隣接した一連の画像内の画像に、代表画像選択アフォーダンス520を移動させる。
図5ACでは、接触502-10のリフトオフに応じて(リフトオフが点線の楕円形で示される)、デバイス100は、代表画像選択アフォーダンス520の新しい位置の付近に「キー写真を作成」確認アフォーダンス525を表示する。図5ADに示すように、確認アフォーダンス525でのタップ502-11を検出したことに応じて、デバイス100は、図5AEに示すように、メディアアイテム550の新しい代表画像として、代表画像選択アフォーダンス520に関連付けられた画像を設定する。図5AFに示すように、確認アフォーダンス525から遠隔のタップ502-12を検出したことに応じて、デバイス100は、図5AGに示すように、メディアアイテム550の新しい代表画像として、代表画像選択アフォーダンス520に関連付けられた新しい画像を設定しない。この実施例では、開始トリムアフォーダンス516及び代表画像選択アフォーダンス520は、代表画像選択アフォーダンス520の元の位置によって示される代表画像に戻る。
図5AEに続く図5AHでは、デバイス100は、完了コントロール505-aでのタップ502-14を検出する。それに応じて、デバイス100は、新しいトリムされたメディアアイテムを保存し、メディア編集ユーザインタフェース503を出て、メディアアイテム表示ユーザインタフェース501を表示する。いくつかの実施形態では、例えば、メディアアイテムの編集が破壊的である場合、完了コントロール505-aでのタップ502-14を検出したことに応じて、デバイス100は、図5AIに示すように、新しいメディアアイテム保存メニュー526を表示する。図5AJでは、新しいメディアアイテム保存メニュー526の「元をトリム」オプションでのタップジェスチャ502-16を検出したことに応じて、デバイス100は、トリムされたメディアアイテムを保存し、メディア編集ユーザインタフェース503を出て、図5AKに示すように、メディアアイテム表示ユーザインタフェース501内にトリムされたメディアアイテムを表示する。図5ALでは、新しいメディアアイテム保存メニュー526の「新規として保存」オプションでのタップジェスチャ502-18を検出したことに応じて、デバイス100は、メディアアイテム550を保持し、トリムされたメディアアイテムを新しいメディアアイテムとして保存し、メディア編集ユーザインタフェース503を出て、図5AMに示すように、メディアアイテム表示ユーザインタフェース501を表示する。図5AMでは、元の(トリムされていない)メディアアイテム514の表現及び新しい(トリムされた)メディアアイテム515の表現の両方が、メディアアイテムコレクション領域510内に示されている。
図5AN~図5APは、いくつかの実施形態に係る、マージされた写真を編集するための例示的なユーザインタフェースを示す。図5ANでは、デバイス100は、「マージされた」画像モードのメディアアイテム編集ユーザインタフェース503-4を表示している。このモードでは、デバイス100は、編集表示領域523内にメディアアイテム550に関連付けられた一連の画像のマージされた静止画像を表示する。図5AOでは、開始トリムアフォーダンス516での接触502-20による入力を検出したことに応じて、デバイス100は、(マージされた画像の代わりに)編集表示領域523内に開始トリムアフォーダンス516に隣接した画像を表示する。リフトオフの際に、デバイス100は、図5APに示すように、編集表示領域523内にマージされた静止画像を表示することに戻る。
図5AQは、デバイス100がドラッグジェスチャ502-10のリフトオフを検出することを除いて、図5Xから続く。それに応じて、デバイス100は、編集表示領域523内にメディアアイテム550の代表画像を表示する。次に、デバイス100は、図5AR~図5AXに示すように、代表画像選択アフォーダンス520での接触502-22によるドラッグジェスチャを検出する。図5AS~図5AUは、画像選択アフォーダンス520が水平にスクロールされると、メディアアイテム内の一連の画像内の追加の画像が、画像選択アフォーダンス520及び表示領域523内に同時に示されることを示す。リフトオフでは、デバイス100は、接触502-22のリフトオフの位置が代表画像の元の位置の付近にあることを検出する。それに応じて、デバイス100は、代表画像選択アフォーダンス520を元の代表画像にスナップする。
図5AY~図5BAは、いくつかの実施形態に係る、メディアアイテム編集モード503間で切り替えるための例示的なユーザインタフェースを示す。図5AYでは、ライブリモードのメディアアイテム編集ユーザインタフェース503-1にある間に、デバイス100は、編集表示領域523内にメディアアイテムの代表画像を表示する。デバイス100は、メディアアイテムが「ライブリ」編集モードにある間に、表示モードインジケータ512での接触502-24(例えば、タップ又は押圧)による入力を検出する。これに応じて、図5AZに示すように、デバイス100は、メディアアイテム550に関連付けられた編集モードを有する編集モード選択メニュー528を表示する。「ループ」編集モードオプション上でのタップ502-26を検出したことに応じて、デバイス100は、図5BAに示すように、「ループ」編集モード503-2で、メディアアイテム550に関連付けられた一連の画像を表示する。
図5BB~5BEは、いくつかの実施形態に係る、終了トリムアフォーダンス518を使用してメディアアイテムを編集するための例示的なユーザインタフェースを示す。図5BBでは、メディアアイテム編集ユーザインタフェース503-1を表示している間に、デバイス100は、終了トリムアフォーダンス518での接触502-28によるドラッグを検出する。これに応じて、デバイス100は、図5BB~図5BCに示すように、終了トリムアフォーダンス518を移動させ、終了トリムアフォーダンス518に隣接した画像シーケンス領域524内の画像を編集表示領域523内に表示する。接触502-28のリフトオフを検出したことに応じて、デバイス100は、図5BDに示すように、編集表示領域523内に代表画像を表示する。図5BEでは、「完了」コントロール505-a上でのタップ502-30を検出したことに応じて、デバイス100は、開始トリムアフォーダンス516及び終了トリムアフォーダンス518の位置に基づいて、トリムされたメディアアイテムを作成し、保存する。
図5BF~図5BRは、いくつかの実施形態に係る、メディアアイテムに関する追加情報を表示するための例示的なユーザインタフェースを示す。図5BFでは、デバイス100は、メディアアイテム表示ユーザインタフェース501をメディアアイテム550の「ライブリ」表示モードで表示する。図5BGに示すように、上向きスワイプ560-2を検出したことに応じて、デバイス100は、図5BHに示すように、「ライブリ」表示モード表現540-1、「ループ」表示モード表現540-2、「前後」表示モード表現540-3、及び「マージ」表示モード表現540-4を含む、表示モード選択ユーザインタフェース511を表示する。デバイス100はまた、「ライブリ」表示モード表現540-1の周囲に表示モード選択インジケータ541を表示して、「ライブリ」表示モード表現540-1が現在選択されている表示モードであることを示す。「ループ」表示モード表現540-2でのタップ560-4を検出したことに応じて、デバイス100は、図5BIに示すように、表示領域508内で「ループ」表示モードに切り替え、表示モード選択ユーザインタフェース511を隠し、表示領域508全体を表示する。上向きスワイプ560-6を検出したことに応じて、デバイス100は、表示モード選択インジケータ541が「ループ」表示モード表現540-2の周囲に配置されていることを除いて、図5BHに示す表示モード選択ユーザインタフェース511を表示する。図5BJに示すように、接触560-8による左方向のスワイプ、又は代わりに表示モード拡張リストインジケータ540-5でのタップを検出したことに応じて、デバイス100は、表示モード選択ユーザインタフェース511に示された表現をスライドさせ、図5BKに示すように、新しい「動画」表示モード表現540-6を表示する。表示モード選択ユーザインタフェース511を表示している間に、図5BLで上向きスワイプ560-10を検出したことに応じて、デバイス100は、図5BMに示すように、デバイス100によってメディアアイテムが生成された位置564を示す地図562を表示する。図5BMで上向きスワイプ560-12を検出したことに応じて、デバイス100は、図5BNに示すように、メディアアイテム550に関連付けられた追加情報を表示する。
図5BHの後に表示される図5BOでは、デバイス100は、表示モード選択ユーザインタフェース511を表示し、「ループ」表示モードでメディアアイテム550を表示する。「ループ」表示モード表現540-2でのタップ560-14を検出したことに応じて、デバイス100は、表示モード選択ユーザインタフェース511を隠し、表示領域508全体を表示する。
図5BP~図5BRは、いくつかの実施形態に係る、デバイス100が縦向きモードにある間に表示モード選択ユーザインタフェース511を表示するための例示的なユーザインタフェースを示す。図5BPでは、デバイス100は、表示モード選択ユーザインタフェース511に2つの表現、「ライブリ」表示モード表現540-1及び「ループ」表示モード表現540-2を表示する。図5BPに示すように、左方向のスワイプ560-16、又は表示モード拡張リストインジケータ540-5でのタップを検出したことに応じて、デバイス100は、図5BQに示すように、表示モード選択ユーザインタフェース511に、2つの新しい表現、「前後」表示モード表現540-3及び「マージ」表示モード表現540-4を表示する。図5BRでは、「詳細」コントロール504-eでのタップ560-18を検出したことに応じて、デバイス100は、メディアアイテム表示ユーザインタフェース501内にメディアアイテム550をマージモードで表示する。
図5BS~図5CMは、いくつかの実施形態に係る、メディアアイテムを編集するための例示的なユーザインタフェースを示す。図5BSでは、デバイス100は、メディアアイテム表示ユーザインタフェース501を表示する。図5BTに示すように、編集コントロール504-dでのタップ560-2を検出したことに応じて、デバイス100は、図5BUに示すように、メディアアイテム編集ユーザインタフェース503-1を表示する。メディアアイテム編集ユーザインタフェース503-1は、編集表示領域523内に「ライブリ」表示モードで表示されたメディアアイテム550を含む。図5BV~5BWに示すように、代表画像選択アフォーダンス520での接触570-4によるドラッグを検出したことに応じて、デバイス100は、編集表示領域523に示される画像を更新し、また、画像シーケンス領域524内の代表画像選択アフォーダンス520の位置を更新して、接触570-4の水平位置に対応する。加えて、代表画像選択アフォーダンス520が元の代表画像以外の位置に移動されると、デバイス100は、図5BWに示すように、画像シーケンス領域524内の元の代表画像の上の位置に、代表画像インジケータ542を表示する。図5BXでは、接触570-4が元の代表画像の位置に戻る場合、デバイス100は、代表画像インジケータ542を表示することを控え、触覚応答527を提供する。図5BYでは、図5BVに示す接触570-4が右方向に継続し、開始トリムアフォーダンス516などのトリムアフォーダンスに接触する場合、いくつかの実施形態では、デバイス100は、触覚応答を提供しない。図5BZでは、ドラッグ570-4は、図5CAでの最終リフトオフの前まで継続する。リフトオフを検出したことに応じて、デバイス100は、代表画像選択アフォーダンス520の現在位置付近又は現在位置に確認アフォーダンス525を表示する。図5CBに示すように、確認アフォーダンス525上のタップ570-6を検出したことに応じて、デバイス100は、図5CCに示すように、メディアアイテム550の新しい代表画像として、代表画像選択アフォーダンス520に関連付けられた画像シーケンス領域524内の画像を設定する。あるいは、図5CDに示すように、確認アフォーダンス525から遠隔のタップ570-8を検出したことに応じて、デバイス100は、図5CEに示すように、メディアアイテム550の新しい代表画像として、代表画像選択アフォーダンス520に関連付けられた画像シーケンス領域524内の画像を設定しない。
図5CCの後で、図5CFでは、デバイス100は、代表画像選択アフォーダンス520上の接触570-10によるドラッグを検出する。ドラッグ570-10が代表画像シーケンス524内の新しい代表画像から離れて代表画像選択アフォーダンス520を移動させる場合、図5CFに示すように、新しい代表画像インジケータ543が、画像シーケンス領域524内の新しい代表画像の上の位置に表示される。図5CGに示すように、ドラッグ570-10が代表画像選択アフォーダンス520を画像シーケンス領域524内の新しい代表画像に戻す場合、デバイス100は、触覚応答527を提供する。図5CHでは、接触570-10のリフトオフの後で、代表画像選択アフォーダンス520は、新しい代表画像に配置される。開始トリムアフォーダンス516上の接触570-12によるドラッグを検出したことに応じて、デバイス100は、開始トリムアフォーダンス516を移動させる。いくつかの実施形態では、図5CIに示すように、ドラッグ570-12が開始トリムアフォーダンス516を代表画像選択アフォーダンス520に移動させたことを検出したことに応じて、デバイス100は、開始トリムアフォーダンス516が代表画像選択アフォーダンス520を越えて移動することを防止し、触覚応答527を提供する。接触570-12のリフトオフの後で、デバイスは、図5CJに示すように、開始トリムアフォーダンス516に向かう代表画像アフォーダンス520上の接触570-14によるドラッグを検出する。これに応じて、デバイス100は、図5CKに示すように、代表画像アフォーダンス520と共に、開始トリムアフォーダンス516を移動させる。
図5CK~図5CMは、代表画像選択アフォーダンス520を代表画像の上にドラッグするときに触覚応答を選択的に提供するための例示的なユーザインタフェースを示す。図5CKでは、デバイス100は、代表画像選択アフォーダンス520上の接触570-15によるドラッグを検出する。それに応じて、デバイス100は、代表画像選択アフォーダンス520を移動させる。図5CLでは、デバイス100は、矢印572の長さによって表されるようなドラッグジェスチャ570-15の速度が速度閾値を下回る場合、触覚応答527を提供する。図5CMでは、デバイス100は、矢印574の長さによって表されるようなドラッグジェスチャ570-15の速度が速度閾値を上回る場合、触覚応答を提供することを控える。
図5CN~図5DJは、いくつかの実施形態に係る、メディアアイテムを表示し再生するための例示的なユーザインタフェースを示す。図5CNでは、デバイス100は、「ライブリ」表示モードにある間に、表示領域508内に元のメディアアイテム550の代表画像を示すメディアアイテム表示ユーザインタフェース501を表示する。図5COでは、デバイス100は、接触580-2によるスワイプジェスチャを検出する。それに応じて、デバイス100は、図5CPに示すように、スクリーンから外れて元のメディアアイテム550をスライドさせ、メディアアイテムのコレクション内の元のメディアアイテム550の後に続く新しいメディアアイテム584を、スクリーン上にスライドさせる。図5CPでは、新しいメディアアイテム584は、元のメディアアイテム550と同じ表示モード、すなわち「ライブリ」を有する。図5CPに示すように、接触580-2によるスワイプジェスチャを検出し続けている間に、デバイス100は、新しいメディアアイテム584がライブリ表示モードにあるため、新しいメディアアイテム584内の初期画像のみを表示する。図5CQ~図5CRでは、接触580-2のリフトオフを検出したことに応じて、デバイスは、新しいメディアアイテム584がスクリーン上にスライドする際に、初期画像から代表画像までの新しいメディアアイテム584に関連付けられた一連の画像を順次再生する。
図5CSは、新しいメディアアイテム584が「ループ」表示モードにあることを除いて、図5CPと同様である。図5CSに示すように、接触580-4によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム584が「ループ」表示モードにあるため、新しいメディアアイテム584がスクリーン上にスライドする際に、新しいメディアアイテム584に関連付けられた一連の画像をループする。
図5CTは、新しいメディアアイテム584が「前後」表示モードにあることを除いて、図5CP及び図5CSと同様である。図5CTに示すように、接触580-6によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム584が「前後」表示モードにあるため、新しいメディアアイテム584がスクリーン上にスライドする際に、新しいメディアアイテム584に関連付けられた一連の画像を前後パターンで再生する。
図5CUは、新しいメディアアイテム586がメディアアイテムのコレクション内の元のメディアアイテム550に順次先行し、新しいメディアアイテム586が「前後」表示モードにあることを除いて、図5CP及び図5CSと同様である。図5CUに示すように、接触580-8によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム586が「前後」表示モードにあるため、新しいメディアアイテム586がスクリーン上にスライドする際に、新しいメディアアイテム586に関連付けられた一連の画像を前後パターンで再生する。
図5CVは、新しいメディアアイテム584が「マージ」表示モードにあることを除いて、図5CPと同様である。図5CVに示すように、接触580-10によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム584の静的マージ画像を表示する。接触580-10のリフトオフに応じて、デバイス100は、新しいメディアアイテム584に関連付けられた一連の画像の少なくとも一部分(例えば、4分の1、2分の1、又は4分の3)を再生し、次いで、マージされた画像を表示する。
図5CWは、新しいメディアアイテム586がメディアアイテムのコレクション内の元のメディアアイテム550に順次先行することを除いて、図5CVと同様である。図5CWに示すように、接触580-12によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム586の静的マージ画像を表示する。図5CXでは、接触580-12のリフトオフに応じて、デバイス100は、新しいメディアアイテム586に関連付けられた一連の画像の少なくとも一部分(例えば、4分の1、2分の1、又は4分の3)を再生し、次いで、マージされた画像を表示する。
図5CYは、新しいメディアアイテム586が「ライブリ」表示モードにあることを除いて、図5CWと同様である。接触580-14によるスワイプを検出している間に、デバイス100は、新しいメディアアイテム586が「ライブリ」表示モードにあるため、新しいメディアアイテム586の初期画像を表示する。接触580-14のリフトオフを検出したことに応じて、デバイス100は、新しいメディアアイテム586がスクリーン上にスライドする際に、初期画像から代表画像までの新しいメディアアイテム586に関連付けられた一連の画像を順次再生する。
図5CZは、新しいメディアアイテム586が「ループ」表示モードにあることを除いて、図5CYと同様である。スワイプ580-16を検出している間に、デバイス100は、新しいメディアアイテム586が「ループ」表示モードにあるため、新しいメディアアイテム586がスクリーン上にスライドする際に、ループする新しいメディアアイテム586に関連付けられた一連の画像を表示する。
図5DAでは、デバイス100は、メディアアイテムコレクション領域510内のメディアアイテム550の表現514での接触580-18によるタップを検出する。それに応じて、デバイス100は、図5DBに示すように、メディアアイテム550に関連付けられた他の画像の少なくとも一部を示す、メディアアイテムコレクション領域510内のメディアアイテム550の拡張表現551を表示する。デバイス100はまた、スクラババー544を表示する。図5DB~図5DEに示すように、接触580-20によるスワイプ及びスワイプ580-22を検出したことに応じて、デバイス100は、それに応じてスクラババー544に対して移動するメディアアイテム550の拡張表現551を通してスクラブし、表示領域508内にメディアアイテムに関連付けられた一連の画像内の画像を表示する。スクラババー544が代表画像514から離れて配置されると、代表画像インジケータ542が、図5DCに示すように、代表画像514の上に表示される。スクラババー544が低速で代表画像514の付近に戻ると、デバイス100は、図5DD~図5DEに示すように、触覚応答527を生成し、代表画像514にスナップする。
図5DFでは、デバイス100は、表示領域508内の接触580-24によるスワイプを検出する。それに応じて、デバイス100は、領域508内にメディアアイテムのコレクション内の元のメディアアイテム550に順次続く新しいメディアアイテム584を表示し、図5DGに示すように、メディアアイテム550の拡張表現551を単一の画像(例えば、メディアアイテム550の代表画像のサムネイル画像)に縮小して戻す。
図5DG~図5DJでは、強度閾値(例えば、IT)を上回る接触580-26による押圧入力を検出したことに応じて、デバイス100は、メディアアイテム584に関連付けられた他の画像の少なくとも一部を示すメディアアイテムコレクション領域510内のメディアアイテム584の拡張表現552を表示する。強度閾値(例えば、IT)を上回る接触580-26による押圧入力を検出したことに応じて、デバイス100はまた、メディアアイテムコレクション領域510内のメディアアイテム584の拡張表現の上を移動して、領域508内に示されているメディアアイテム584内の一連の画像内の現在の再生位置を示す、再生ヘッド545も表示する。
図5DK~図5DWは、いくつかの実施形態に係る、メディアアイテムの表示モードに従ってメディアアイテムに関連付けられた一連の画像を表示するための例示的なユーザインタフェースを示す。図5DKでは、デバイス100は、表示モードインジケータ512によって示されるように、メディアアイテム表示ユーザインタフェース501上に「ループ」モードでメディアアイテム550を表示し、メディアアイテムに関連付けられた一連の画像が、表示領域508内にループして順次かつ繰り返し表示される。図5DL~図5DMに示すように、軽い押圧強度閾値を上回る接触590-2による押圧入力に応じて、デバイス100は、静的表示でメディアアイテム550の代表画像を表示する。図5DNでは、接触590-2のリフトオフの後で、デバイス100は、動的「ループ」モードでメディアアイテム550を表示することに戻る。あるいは、図5DOでは、接触590-2の強度の低下後、デバイス100は、動的「ループ」モードでメディアアイテムを表示することに戻る。
図5DPでは、デバイス100は、表示モードインジケータ512によって示されるように、メディアアイテム表示ユーザインタフェース501内に「マージ」モードでメディアアイテム550を表示し、メディアアイテムに関連付けられた一連の画像は、静的マージ画像として表示領域508内に並行して表示される。図5DP~図5DQに示すように、軽い押圧強度閾値を上回る接触590-4による押圧入力に応じて、デバイス100は、メディアアイテムに関連付けられた一連の画像を順次表示する。図5DRでは、接触590-4のリフトオフの後で、デバイス100は、静的マージ画像としてメディアアイテム550を表示することに戻る。あるいは、図5DSでは、接触590-4の強度の低下後、デバイス100は、静的マージ画像としてメディアアイテム550を表示することに戻る。
図5DTでは、デバイス100は、表示モードインジケータ512によって示されるように、メディアアイテム表示ユーザインタフェース501上に「前後」モードでメディアアイテムを表示し、メディアアイテム550に関連付けられた一連の画像は、表示領域508内に前後に順次かつ繰り返し表示される。図5DT~図5DUに示すように、軽い押圧強度閾値を上回る接触590-6による押圧入力に応じて、デバイス100は、メディアアイテムに関連付けられた代表画像を表示する。接触590-6のリフトオフ(又は、いくつかの実施形態では、強度の低下)を検出した後で、デバイス100は、表示領域508内にメディアアイテム550に関連付けられた一連の画像を前後に繰り返し再生することに戻る。
図5DVでは、デバイス100は、表示モードインジケータ512によって示されるように、メディアアイテム表示ユーザインタフェース501上に「ライブリ」モードでメディアアイテムを表示し、メディアアイテムに関連付けられた代表画像が、表示領域508内に表示される。図5DV~図5DWに示すように、軽い押圧強度閾値を上回る接触590-8による押圧入力に応じて、デバイス100は、メディアアイテムに関連付けられた一連の画像を順次表示する。接触590-6のリフトオフ(又は、いくつかの実施形態では、強度の低下)の後で、デバイス100は、代表画像を表示することに戻る。
図6A~図6Fは、いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムを編集するための方法600のフロー図である。方法600は、ディスプレイ、タッチ感知面、及び任意選択的にタッチ感知面との接触の強度を検出するための1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法600の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法600は、複数の表示モードを有するメディアアイテムを編集する直感的な方法を提供する。メディアアイテムの現在選択されている表示モードにテイラリングされた編集ユーザインタフェースを提供することにより、編集が現在の表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。方法は、複数の表示モードを有するメディアアイテムを編集するときにユーザからの入力の数、範囲、及び/又は種類を削減し、それによって、更に効率的なヒューマンマシンインタフェースを生成する。バッテリ動作電子デバイスに関しては、ユーザが複数の表示モードを有するメディアアイテムをより高速かつより効率的に編集できるようにすることにより、電力を節約し、バッテリを充電する間隔が増大する。
デバイスは、ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムからの1つ以上の画像を、一連の画像に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの1つである対応する表示モードで表示する(602)(例えば、ライブリ写真表示モード、ループ表示モード、長時間露光表示モード、前後表示モード、動画表示モード、ストロボ効果表示モード、又はユーザによって選択可能なメディアアイテムを表示するための他の表示モード)。例えば、図5Uは、「ライブリ」モードでのメディアアイテム表示ユーザインタフェース501を示す。
対応する表示モードでメディアアイテムからの1つ以上の画像を表示している間に、デバイスは、第1の入力(例えば、図5Uに示すような、編集コントロール504-dでのタップ502-9などの編集アフォーダンス上の接触によるタップジェスチャ)を検出する(604)。
第1の入力を検出したことに応じて、デバイスは、ディスプレイ上に対応する表示モード用の編集ユーザインタフェースを表示する(606)。例えば、図5Vは、「ライブリ」モード用のメディアアイテム編集ユーザインタフェース503-1を示す。対応する表示モード用の編集ユーザインタフェースは、一連の画像に対応するメディアアイテムの複数の編集ユーザインタフェースのうちの1つである。複数の編集ユーザインタフェース内の所与の編集ユーザインタフェースは、メディアアイテムの対応する表示モードにテイラリングされている。例えば、メディアアイテムのライブリ写真表示モード用の編集ユーザインタフェースは、代表画像がユーザ相互作用を伴わずにライブリ写真表示モードで表示されるものであるため、第1の領域(例えば、図5Vの編集表示領域523)内にメディアアイテムの代表画像を表示する。例えば、ループ表示モード用の編集ユーザインタフェースは、ループするメディアアイテムがユーザ相互作用を伴わずにループ表示モードで表示されるものであるため、第1の領域(例えば、図5Iの編集表示領域523)内にループするメディアアイテムを表示する。例えば、前後表示モード用の編集ユーザインタフェースは、前後に再生するメディアアイテムがユーザ相互作用を伴わずに前後表示モードで表示されるものであるため、前後に再生するメディアアイテムを第1の領域(例えば、図5Nの編集表示領域523)内に表示する。例えば、メディアアイテムのマージ表示モード用の編集ユーザインタフェースは、マージされた画像がユーザ相互作用を伴わずにマージ表示モードで表示されるものであるため、第1の領域(例えば、図5Tの編集表示領域523)内にメディアアイテムのマージされた画像を表示する。
いくつかの実施形態において、複数の編集ユーザインタフェース内の所与の編集ユーザインタフェースは、メディアアイテムの対応する表示モードにテイラリングされたアフォーダンスを含む。例えば、メディアアイテムのライブリ写真表示モード用の編集ユーザインタフェースは、ライブリ写真表示モードでの代表画像(例えば、キー写真)を調整するように構成された代表画像選択アフォーダンス520(図5V)を含む。いくつかの実施形態では、ループ表示モード用の編集ユーザインタフェースは、代表画像をメディアアイテムのループ表示モード(例えば、図5I)で調整することができないため、代表画像選択アフォーダンスを有さない。いくつかの他の実施形態では、ループ表示モード用の編集ユーザインタフェースは、メディアアイテムの代表画像を調整するための代表画像選択アフォーダンスを有する(例えば、図5J)。
いくつかの実施形態では、メディアアイテムの対応する表示モードがアクティブである間にメディアアイテムを編集する要求に対応する入力を検出したことに応じて、所与の編集ユーザインタフェースが表示される。例えば、図5U~図5Vに示すように、メディアアイテムのライブリ写真表示モードがアクティブであるときに「編集」アイコン504-d(図5U)上のタップジェスチャを検出したことに応じて、ライブリ写真表示モード用の編集ユーザインタフェースが表示される。例えば、図5H及び図5I、又は図5H及び図5Jに示すように、メディアアイテムのループ表示モードがアクティブであるときに「編集」アイコン504-d(図5H)上のタップジェスチャを検出したことに応じて、ループ表示モード用の編集ユーザインタフェースが表示される。以上などのようになる。対応する表示モード用の編集ユーザインタフェースは、メディアアイテムが対応する表示モードで表示されるときに、どの画像がメディアアイテムに含まれるかを変更するように構成されている(例えば、対応する表示モード用の編集ユーザインタフェースは、対応する表示モードで表示されるメディアアイテム内の一連の画像を、一連の画像の全てより少ないサブセットにトリムするように構成されている)。いくつかの実施形態では、トリムすることは、メディアアイテムからの一連の画像内の画像を除去することなく(例えば、非破壊編集)、対応する表示モードで表示されるメディアアイテムからの一連の画像内の画像の数を低減する。いくつかの実施形態では、トリムすることは、メディアアイテムからの一連の画像内の画像を永久に除去する(例えば、破壊的編集)。いくつかの実施形態では、対応する表示モードでメディアアイテムをトリムすることはまた、メディアアイテムの他の表示モードに適用される(引き継がれる)。いくつかの実施形態では、対応する表示モードでメディアアイテムをトリムすることは、メディアアイテムの他の表示モードに適用されず、それにより、トリムすることをメディアアイテムの各表示モードにテイラリングすることができる。対応する表示モード用の編集ユーザインタフェースは、一連の画像内の画像を表示するように構成された第1の(既定の)領域(例えば、図5Vの領域523)を並行して表示する。いくつかの実施形態では、いくつかの表示モードに対して、第1の領域は、一連の画像内の画像を一度に1つずつ表示し、対応する画像が再生されると、対応する画像が第1の領域を満たす。いくつかの実施形態では、いくつかの表示モードに対して、第1の領域は、第1の領域を満たす単一の画像にマージされた一連の画像内の画像を表示する。対応する表示モード用の編集ユーザインタフェースは、一連の画像内の画像の表現(例えば、メディアアイテムの一連の画像内の複数の画像の縮小表現は、第2の領域内のスライダ内に表示される)、一連の画像を通して再生するための第1の境界を示すユーザ調整可能な開始トリムアフォーダンス(例えば、図5Vの開始ハンドル516)(例えば、開始トリムアフォーダンスは、第2の領域内の開始トリムアフォーダンスの位置を介して一連の画像のサブセット内の開始画像を画定する)、及び一連の画像を通して再生するための第2の境界を示すユーザ調整可能な終了トリムアフォーダンス(例えば、図5Vの終了ハンドル518)(例えば、終了トリムアフォーダンスは、第2の領域内の終了トリムアフォーダンスの位置を介して一連の画像のサブセット内の終了画像を画定する)を含む、第1の領域とは別個の第2の(既定の)領域(例えば、図5Vの領域521)を並行して表示する。
いくつかの実施形態では、第1の領域は、どのようにメディアアイテムが対応する表示モードで表示されることになるかを示すメディアアイテムのプレビューを表示し(608)(例えば、いくつかの表示モードに対して編集ユーザインタフェース内の第1の領域内に一連の画像を繰り返し自動的に再生することによって、又は、他の表示モードに対して複数の画像を編集ユーザインタフェース内の第1の領域内の単一の画像にマージすることによって)、プレビューは、一連の画像内の複数の画像からのコンテンツを含む。例えば、図5Iは、メディアアイテム550からの画像が編集表示領域523内でループする、メディアアイテム編集ユーザインタフェース503-2を示す。例えば、図5Tは、メディアアイテム550の静的マージ画像が編集表示領域523内に示される、メディアアイテム編集ユーザインタフェース503-4を示す。メディアアイテムの現在選択されている表示モードにテイラリングされたプレビューを提供することにより、編集が現在の表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、対応する表示モード用の編集ユーザインタフェースは、アクティブ化されると画像調整機能(例えば、トリミング、回転、フィルタリング、照明、マークアップ、マジックワンド、取消、保存/完了、及び/又は他の画像編集機能)へのアクセスを提供する、複数の画像調整アフォーダンス(例えば、505-a~505-h、図5V)を並行して表示する(610)。これらの画像編集機能への迅速なアクセスを提供することにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、メディアアイテムを編集するために必要なユーザからの入力の数、範囲、及び/又は種類を低減することによって)。
いくつかの実施形態では、編集ユーザインタフェースは、アクティブ化されるとメディアアイテムのサウンドをオン及びオフにトグルする音量アフォーダンス(例えば、ミュートトグル505-f、図5V)を含む(612)。編集中にメディアアイテムのサウンドをオフにするためのアフォーダンスを提供することにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、編集ユーザインタフェースを操作/相互作用している間に必要に応じてサウンドを提供又は除去することによって)。
対応する表示モード用の編集ユーザインタフェースを表示している間に、デバイスは、1つ以上の編集入力(例えば、開始トリムアフォーダンス516若しくは終了トリムアフォーダンス518などの範囲トリムアフォーダンス、代表画像選択アフォーダンス520、及び/又は対応する表示モード用の編集ユーザインタフェース内の他のアフォーダンスに向けられた検出された入力)に従ってメディアアイテムを調整(編集)し(614)、対応する表示モード用の編集ユーザインタフェースを出る入力(例えば、図5AAの接触502-11によるタップ)を検出する。
デバイスは、対応する表示モード用の編集ユーザインタフェースを出る(616)。例えば、図5AAの接触502-11によるタップの後で、デバイスは、図5AKに示すように、メディアアイテム表示ユーザインタフェース501を表示する。
デバイスは、第1のユーザインタフェース内に対応する表示モードで編集されたメディアアイテムを表示する(618)(例えば、対応する表示モード用の編集ユーザインタフェースを出る入力を検出したことに応じて)。いくつかの実施形態では、(例えば、タップジェスチャにより)「完了」ボタンのアクティブ化を検出したことに応じて、デバイスは、対応する表示モード用の編集ユーザインタフェース内で行なわれた変更を保存し、(例えば、第1のユーザインタフェース内に)対応する表示モードで編集されたメディアアイテムを表示する。例えば、図5AHの接触502-14によるタップの後で、デバイスは、図5AKに示すように、トリムされたメディアアイテム550を含むメディアアイテム表示ユーザインタフェース501を表示する。
いくつかの実施形態では、(例えば、タップジェスチャにより)「完了」ボタンのアクティブ化を検出したことに応じて、デバイスは、アクティブ化可能なオプション(例えば、図5AIに示すような、「元をトリム」、「新規のクリップとして保存」、及び「取消」)を表示する。いくつかの実施形態では、(例えば、タップジェスチャにより)「元をトリム」オプションのアクティブ化を検出したことに応じて、デバイスは、編集ユーザインタフェース内で行なわれた変更をメディアアイテムに適用し、変更を保存し、編集されたメディアアイテムを対応する表示モードで表示する(例えば、図5AJ~図5AKを参照)。いくつかの実施形態では、(例えば、タップジェスチャにより)「新規のクリップとして保存」オプションのアクティブ化を検出したことに応じて、デバイスは、元のメディアアイテムに対して編集ユーザインタフェース内で行なわれた変更を含む新しいメディアアイテムを作成し、新しいメディアアイテムを保存し、対応する表示モードで新しいメディアアイテムを表示する(例えば、図5AL~図5AMを参照)。
いくつかの実施形態では、対応する表示モード用の編集ユーザインタフェースを表示している間に、デバイスは、開始トリムアフォーダンスの調整に対応する入力を検出し(620)(例えば、第2の領域内の開始トリムアフォーダンス上のドラッグジェスチャを検出する)、開始トリムアフォーダンスの調整に対応する入力を検出している間に、第1の領域内に対応する表示モードでメディアアイテムのプレビューを表示することを停止し、第1の領域内に、一連の画像の表現内の開始トリムアフォーダンスの位置に対応する画像の表現を表示する。同様に、終了トリムアフォーダンスの調整に対応する入力を検出している間に、デバイスは、第1の領域内に対応する表示モードでメディアアイテムのプレビューを表示することを停止し、第1の領域内に、一連の画像の表現内の終了トリムアフォーダンスの位置に対応する画像の表現を表示する。より一般的には、範囲トリムアフォーダンスの調整に対応する入力を検出している間に、デバイスは、第1の領域内に対応する表示モードでメディアアイテムのプレビューを表示することを停止し、第1の領域内に、一連の画像の表現内の範囲トリムアフォーダンスの位置に対応する画像の表現を表示する。例えば、図5W~図5Zに示すように、開始トリムアフォーダンス516を調整することにより、編集表示領域523内に表示された画像を変更する。範囲トリムアフォーダンスを調整している間に範囲トリムアフォーダンスの位置に対応する画像の表現を示すことにより、メディアアイテムを正確にトリムすることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、開始トリムアフォーダンスの調整に対応する入力の終了を検出し(622)(例えば、開始トリムアフォーダンスからの接触のリフトオフを検出する)、開始トリムアフォーダンスの調整に対応する入力の終了を検出したことに応じて、第1の領域内に対応する表示モードでメディアアイテムの第2のプレビューを表示し、第2のプレビューは、一連の画像内の画像の全てより少ないサブセットを含み、サブセットは、開始トリムアフォーダンスの現在位置に対応する画像の前に存在する一連の画像内の画像を含まない(例えば、図5AHを参照)。同様に、終了トリムアフォーダンス上の入力の終了を検出したことに応じて、デバイスは、第1の領域内に対応する表示モードでメディアアイテムの第2のプレビューを表示し、第2のプレビューは、一連の画像内の画像の全てより少ないサブセットを含み、サブセットは、終了トリムアフォーダンスの現在位置に対応する画像の後に存在する一連の画像内の画像を含まない。入力の終了を検出したこと(例えば、リフトオフを検出したこと)に応じて、メディアアイテムの現在選択されている表示モードにテイラリングされた更新されたプレビューを提供することにより、範囲トリム編集が現在の表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときの入力の数を低減することによって)。
いくつかの実施形態では、メディアアイテム内の一連の画像をトリムすることは、メディアアイテム内の対応するオーディオもトリムする(624)。同じ入力に応じて画像及び対応するオーディオの両方をトリムすることにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、編集ユーザインタフェースを操作する/相互作用するときの入力の数を削減することによって)。
いくつかの実施形態では、対応する表示モードがループ表示モードであるとの判定に従って、第1の入力を検出したことに応じて表示される、対応する表示モード用の編集ユーザインタフェースは、ループ表示モード用の編集ユーザインタフェースであり、デバイスは、ループ表示モード用の編集ユーザインタフェース内の第1の領域内にループする一連の画像を表示し(626)(例えば、図5Iの503-2を参照)、ループ表示モード用の編集ユーザインタフェース内の第1の領域内にループする一連の画像を表示している間に、デバイスは、開始トリムアフォーダンス上の入力を検出し、開始トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に一連の画像をループさせることを停止し、開始トリムアフォーダンス上の入力に従って第2の領域内の開始トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の開始トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。同様に、終了トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に一連の画像をループさせることを停止し、終了トリムアフォーダンス上の入力に従って第2の領域内の終了トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の終了トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。より一般的には、範囲トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に一連の画像をループさせることを停止し、範囲トリムアフォーダンス上の入力に従って第2の領域内の範囲トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の範囲トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。メディアアイテムのループ表示モードの動的プレビューを提供することにより、編集がループ表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。更に、範囲トリムアフォーダンスを調整している間に範囲トリムアフォーダンスの位置に対応する画像の表現を示すことに切り替えることにより、メディアアイテムを正確にトリムすることが容易になる。これにより、また、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、開始トリムアフォーダンス上の入力の終了を検出し(628)(例えば、開始トリムアフォーダンスからの接触のリフトオフを検出する)、開始トリムアフォーダンス上の入力の終了を検出したことに応じて、第1の領域内にループする一連の画像内の画像の全てより少ないサブセットを表示し、サブセットは、開始トリムアフォーダンスの現在位置に対応する画像の前に存在する一連の画像内の画像を含まない。同様に、終了トリムアフォーダンス上の入力の終了を検出したことに応じて、デバイスは、第1の領域内にループする一連の画像内の画像の全てより少ないサブセットを表示し、サブセットは、終了トリムアフォーダンスの現在位置に対応する画像の後に存在する一連の画像内の画像を含まない。いくつかの実施形態では、ループ表示モード用の編集ユーザインタフェースは、第2の領域内の代表画像選択アフォーダンスの位置を介して一連の画像内の代表画像を選択するように構成された、代表画像選択アフォーダンスを含まない。入力の終了を検出したこと(例えば、リフトオフを検出したこと)に応じて、ループするメディアアイテムの更新されたプレビューを提供することにより、範囲トリム編集がループ表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときの入力の数を低減することによって)。
いくつかの実施形態では、対応する表示モードが前後表示モードであるとの判定に従って、第1の入力を検出したことに応じて表示される対応する編集ユーザインタフェースは、前後表示モード用の編集ユーザインタフェースであり、デバイスは、前後表示モード用の編集ユーザインタフェース内の第1の領域内に、前方に次いで後方に繰り返し再生する一連の画像を表示する(630)(例えば、図5Nを参照)。前後表示モード用の編集ユーザインタフェース内の第1の領域内に、前方に次いで後方に繰り返し再生する一連の画像を表示している間に、デバイスは、開始トリムアフォーダンス上の入力を検出し、開始トリムアフォーダンス上の入力を検出している間に、第1の領域内に前方に次いで後方に一連の画像を再生することを停止し、開始トリムアフォーダンス上の入力に従って第2の領域内の開始トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の開始トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。同様に、終了トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に前方に次いで後方に一連の画像を再生することを停止し、終了トリムアフォーダンス上の入力に従って第2の領域内の終了トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の終了トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。より一般的には、範囲トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に前方に次いで後方に一連の画像を再生することを停止し、範囲トリムアフォーダンス上の入力に従って第2の領域内の範囲トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の範囲トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。メディアアイテムの前後表示モードの動的プレビューを提供することにより、編集が前後表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。更に、範囲トリムアフォーダンスを調整している間に範囲トリムアフォーダンスの位置に対応する画像の表現を示すことに切り替えることにより、メディアアイテムを正確にトリムすることが容易になる。これにより、また、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、開始トリムアフォーダンス上の入力の終了を検出し(632)(例えば、開始トリムアフォーダンスからの接触のリフトオフを検出する)、開始トリムアフォーダンス上の入力の終了を検出したことに応じて、第1の領域内に前方に次いで後方に再生する一連の画像内の画像の全てより少ないサブセットを表示し、サブセットは、開始トリムアフォーダンスの現在位置に対応する画像の前に存在する一連の画像内の画像を含まない。同様に、終了トリムアフォーダンス上の入力の終了を検出したことに応じて、デバイスは、第1の領域内に前方に次いで後方に再生する一連の画像内の画像の全てより少ないサブセットを表示し、サブセットは、終了トリムアフォーダンスの現在位置に対応する画像の後に存在する一連の画像内の画像を含まない。いくつかの実施形態では、前後表示モード用の編集ユーザインタフェースは、第2の領域内の代表画像選択アフォーダンスの位置を介して一連の画像内の代表画像を選択するように構成された、代表画像選択アフォーダンスを含まない。入力の終了を検出したこと(例えば、リフトオフを検出したこと)に応じて、前後するメディアアイテムの更新されたプレビューを提供することにより、範囲トリム編集が前後表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときの入力の数を低減することによって)。
いくつかの実施形態では、対応する表示モードがマージ表示モードであるとの判定に従って、第1の入力を検出したことに応じて表示される対応する編集ユーザインタフェースは、マージ表示モード(例えば、長時間露光モード、ストロボモード、又は、メディアアイテム内の一連の画像内の複数の画像を使用してマージされた画像を表示する他のモード)用の編集ユーザインタフェースであり、デバイスは、マージ表示モード用の編集ユーザインタフェース内の第1の領域内に(単一の)マージされた画像を表示し(634)、マージされた画像は、一連の画像内の複数の画像からの並行して表示されたコンテンツを含む(例えば、図5Tを参照)。マージ表示モード用の編集ユーザインタフェース内の第1の領域内にマージされた画像を表示している間に、デバイスは、開始トリムアフォーダンス上の入力を検出し、開始トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内にマージされた画像を表示することを停止し、開始トリムアフォーダンス上の入力に従って第2の領域内の開始トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の開始トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する(例えば、図5AN~図5AOを参照)。同様に、終了トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内にマージされた画像を表示することを停止し、終了トリムアフォーダンス上の入力に従って第2の領域内の終了トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の終了トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。より一般的には、範囲トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内にマージされた画像を表示することを停止し、範囲トリムアフォーダンス上の入力に従って第2の領域内の範囲トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の範囲トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。メディアアイテムのマージ表示モードのプレビューを提供することにより、編集がマージ表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。更に、範囲トリムアフォーダンスを調整している間に範囲トリムアフォーダンスの位置に対応する画像の表現を示すことに切り替えることにより、メディアアイテムを正確にトリムすることが容易になる。これにより、また、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、開始トリムアフォーダンス上の入力の終了を検出し(636)(例えば、開始トリムアフォーダンスからの接触のリフトオフを検出する)、開始トリムアフォーダンス上の入力の終了を検出したことに応じて、第1の領域内に一連の画像内の画像の全てより少ないサブセットから作成された(単一の)マージされた画像を表示し、サブセットは、開始トリムアフォーダンスの現在位置に対応する画像の前に存在する一連の画像内の画像を含まない(例えば、図5AO~図5APを参照)。同様に、終了トリムアフォーダンス上の入力の終了を検出したことに応じて、デバイスは、第1の領域内に一連の画像内の画像の全てより少ないサブセットから作成された更新された(単一の)マージされた画像を表示し、サブセットは、終了トリムアフォーダンスの現在位置に対応する画像の後に存在する一連の画像内の画像を含まない。入力の終了を検出したこと(例えば、リフトオフを検出したこと)に応じて、マージされた画像の更新されたプレビューを提供することにより、範囲トリム編集がマージモードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときの入力の数を低減することによって)。
いくつかの実施形態では、メディアアイテム内の一連の画像は、カメラによって撮影されており、一連の画像は、代表画像を含み、一連の画像は、代表画像を取得した後にカメラによって取得された1つ以上の画像を含み、一連の画像は、代表画像を取得する前にカメラによって取得された1つ以上の画像を含み、対応する表示モードがライブリ写真表示モードであるとの判定に従って、デバイスは、代表画像選択アフォーダンスであって、第2の領域内の代表画像選択アフォーダンスの位置を介して一連の画像内の代表画像を選択するように構成された代表画像選択アフォーダンス(例えば、図5Vの領域521内の代表画像選択アフォーダンス520)を第2の領域内に表示する(638)。メディアアイテムの代表画像を調整するためのアフォーダンスを提供することにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる。
いくつかの実施形態では、対応する表示モードがライブリ写真表示モードであるとの判定に従って、第1の入力を検出したことに応じて表示される対応する編集ユーザインタフェースは、ライブリ写真表示モード用の編集ユーザインタフェースであり、デバイスは、ライブリ写真表示モード用の編集ユーザインタフェース内の第1の領域内に一連の画像の代表画像を表示し(640)、ライブリ写真表示モード用の編集ユーザインタフェース内の第1の領域内に代表画像を表示している間に、開始トリムアフォーダンス上の入力を検出し、開始トリムアフォーダンス上の入力を検出している間に、第1の領域内に代表画像を表示することを停止し、開始トリムアフォーダンス上の入力に従って第2の領域内の開始トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の開始トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する(例えば、図5W~図5AAを参照)。同様に、終了トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に代表画像を表示することを停止し、終了トリムアフォーダンス上の入力に従って、第2の領域内の終了トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の終了トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する(例えば、図5BB~図5Dを参照)。より一般的には、範囲トリムアフォーダンス上の入力を検出している間に、デバイスは、第1の領域内に代表画像を表示することを停止し、範囲トリムアフォーダンス上の入力に従って第2の領域内の範囲トリムアフォーダンスの位置を調整し、第1の領域内に、第2の領域内の範囲トリムアフォーダンスの位置に対応する一連の画像内の画像を表示する。メディアアイテムのライブリ写真表示モードのプレビューを提供することにより、編集がライブリ写真表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。更に、範囲トリムアフォーダンスを調整している間に範囲トリムアフォーダンスの位置に対応する画像の表現を示すことに切り替えることにより、メディアアイテムを正確にトリムすることが容易になる。これにより、また、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、開始トリムアフォーダンス上の入力の終了を検出し(642)(例えば、開始トリムアフォーダンスからの接触のリフトオフを検出する)、開始トリムアフォーダンス上の入力の終了を検出したことに応じて、第1の領域内に代表画像を表示する(例えば、図5Z~図5AA)。同様に、終了トリムアフォーダンス上の入力の終了を検出したことに応じて、デバイスは、代表画像を表示する。入力の終了を検出したこと(例えば、リフトオフを検出したこと)に応じて、ライブリ写真モードでメディアアイテムの更新されたプレビューを提供することにより、範囲トリム編集がライブリ写真表示モードでメディアアイテムにどのように影響を及ぼすかを見ることが容易になる。これにより、デバイスの操作性が向上し、編集ユーザインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、編集ユーザインタフェースを操作する/相互作用するときの入力の数を低減することによって)。
いくつかの実施形態では、ライブリ写真表示モード用の編集ユーザインタフェースを表示している間に、デバイスは、対応する範囲トリムアフォーダンス(例えば、開始トリムアフォーダンス又は終了トリムアフォーダンス)に向けられた入力であって、入力は、対応する範囲トリムアフォーダンスが開始位置にある間に開始し、かつ入力は、対応する大きさを有する、入力を検出し(644)(例えば、開始トリムアフォーダンス上で開始し、かつ一連の画像内の複数の画像の縮小表現を含むスライダに沿った動きの成分を含む、接触(又はカーソル)によるドラッグジェスチャを検出する)、対応する範囲トリムアフォーダンスに向けられた入力を検出したことに応じて、入力の対応する大きさが、対応する範囲トリムアフォーダンスの開始位置と代表画像選択アフォーダンスとの間の距離未満の第1の量だけの対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、デバイスは、(代表画像選択アフォーダンスを移動させることなく)第1の量だけ対応する範囲トリムアフォーダンスを移動させ、入力の対応する大きさが、対応する範囲トリムアフォーダンスの開始位置と代表画像選択アフォーダンスとの間の距離よりも大きい第2の量だけの対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、デバイスは、対応する範囲トリムアフォーダンスを第2の量だけ移動させ、また、代表画像選択アフォーダンスを移動させる(例えば、図5X~図5Y及び図5AAを参照)。いくつかの実施形態では、デバイスは、スライダに沿った(ドラッグジェスチャの)接触の移動の成分に従って、スライダに沿って開始トリムアフォーダンスを移動させる。いくつかの実施形態では、開始トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、開始トリムアフォーダンスを移動し続け、また、メディアアイテム内の現在の代表画像を開始トリムアフォーダンスの現在位置に対応する画像に変更する。このように範囲トリムアフォーダンスを移動させることにより、メディアアイテムの範囲及びメディアアイテムの代表画像の両方を単一の入力で同時に変更することが可能になり、これにより、これらの動作を実行するために必要とされる入力の数が低減され、編集ユーザインタフェースがより効率的になる。いくつかの実施形態では、開始トリムアフォーダンスは、一連の画像内の現在の代表画像に対応する第2の領域内の表現を越えて移動することができない。いくつかの実施形態では、開始トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、開始トリムアフォーダンスを移動し続けず、メディアアイテム内の現在の代表画像を変更しない。このように範囲トリムアフォーダンスを移動させることにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザが範囲トリムアフォーダンスで代表画像を偶発的に変更することを防止することによって)。同様に、いくつかの実施形態では、デバイスは、スライダに沿った(ドラッグジェスチャの)接触の移動の成分に従って、スライダに沿って終了トリムアフォーダンスを移動させる。いくつかの実施形態では、終了トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、終了トリムアフォーダンスを移動し続け、また、メディアアイテム内の現在の代表画像を終了トリムアフォーダンスの現在位置に対応する画像に変更する。いくつかの実施形態では、終了トリムアフォーダンスは、メディアアイテム内の現在の代表画像に対応する第2の領域内の表現を越えて移動することができない。いくつかの実施形態では、終了トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、終了トリムアフォーダンスを移動し続けず、メディアアイテム内の現在の代表画像を変更しない。
いくつかの実施形態では、代表画像選択アフォーダンスに向けられた入力を検出している間に、デバイスは、第2内の代表画像選択アフォーダンスの位置がメディアアイテムの現在の代表画像の表現に対応しない場合、第2の領域内に、メディアアイテムの現在の代表画像のインジケータを表示する(646)(例えば、図5ABのドット542は、メディアアイテム内の現在の代表画像の縮小表現に隣接して表示される)。いくつかの実施形態では、編集ユーザインタフェースが最初に表示されたときに、図5Wに示すように、代表画像選択アフォーダンスは、メディアアイテムの代表画像の表現に対応する位置に表示され、ドットは表示されない。いくつかの実施形態では、代表画像選択アフォーダンスが、メディアアイテムの代表画像の表現に対応する位置から離れて移動するとき(例えば、代表画像選択アフォーダンス上のドラッグジェスチャに応じて)、図5AQ~図5AVに示すように、ドットは、メディアアイテムの代表画像の表現に対応する位置に、又はそれに隣接して表示される。いくつかの実施形態では、代表画像選択アフォーダンスがその初期位置から離れて移動される場合、インジケータは表示され、代表画像選択アフォーダンスが初期位置に戻ると、インジケータは表示されることを停止する。このようにメディアアイテムの現在の代表画像のインジケータを表示することにより、ユーザに改善された視覚的フィードバックを提供し、ユーザが現在の代表画像を変更しないと決定した場合に、ユーザが現在の代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像選択アフォーダンスに向けられた入力を検出している間に、代表画像選択アフォーダンスが、メディアアイテムの現在の代表画像の表現に対応する位置まで所定の距離(ゼロよりも大きい)内にあるとの判定に従って、デバイスは、代表画像選択アフォーダンスを、メディアアイテムの現在の代表画像の表現に対応する位置にスナップする(648)(例えば、図5AW~図5AXを参照)。このように代表画像選択アフォーダンスをスナップすることにより、ユーザが現在の代表画像を変更しないと決定した場合に、ユーザが現在の代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し、デバイスは、代表画像選択アフォーダンスがメディアアイテムの現在の代表画像の表現に対応する位置にスナップすると、触知出力を生成する(650)(例えば、図5AXの触覚応答527を参照)。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、代表画像選択アフォーダンスが現在の代表画像の表現に対応する位置に戻ったことをユーザに警告し、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、対応する表示モード用の編集ユーザインタフェースを表示している間に、デバイスは、編集ユーザインタフェースオプションを表示する入力を検出し(652)、編集ユーザインタフェースオプションを表示する入力を検出したことに応じて、第1の編集表示モードアフォーダンスを含む複数の編集表示モードアフォーダンスを表示し、第1の編集表示モードアフォーダンス上の入力を検出し、第1の編集表示モードアフォーダンス上の入力を検出したことに応じて、編集ユーザインタフェースを、対応する表示モード用の編集ユーザインタフェースから第1の編集表示モードアフォーダンスに対応する表示モード用の編集ユーザインタフェースに変更する。例えば、(例えば、タップジェスチャで)表示モードインジケータアイコン512(図5AY)をアクティブ化することにより、メディアアイテムに対する編集表示モードオプションを含むメニュー528(図5AZ)の表示を引き起こす。次に、(例えば、タップジェスチャで)編集表示モードオプション529-1(図5AZ)をアクティブ化することにより、ライブリ写真表示モード用の編集ユーザインタフェース(図5AZ)を、ループ表示モード用の編集ユーザインタフェース(図5BA)に変更させる。メディアアイテムの異なる表示モード用の編集ユーザインタフェース間で容易に変更する能力を提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがメディアアイテムの所与の表示モードに対応する編集モードにナビゲートすることを支援し、それにより、ユーザがその表示モードに対する編集の影響をプレビューすることができることによって)。
いくつかの実施形態では、ディスプレイ及びタッチ感知面を有する電子デバイスは、ディスプレイ上の第1のユーザインタフェース内に、対応する表示モードで一連の画像に対応するメディアアイテムからの1つ以上の画像を表示し、対応する表示モードは、一連の画像に対する複数のユーザ選択可能な表示モードのうちの1つである(例えば、ライブリ写真表示モード、ループ表示モード、長時間露光表示モード、前後表示モード、動画表示モード、ストロボ効果表示モード、又はユーザによって選択される一連の画像を表示するための他の表示モード)(例えば、図5Uを参照)。メディアアイテムからの1つ以上の画像を表示している間に、デバイスは、第1の入力(例えば、編集アフォーダンス上の接触によるタップジェスチャ)を検出する(例えば、図5Uの編集コントロール504-dでのタップ502-9を参照)。第1の入力を検出したことに応じて、デバイスは、メディアアイテムの編集ユーザインタフェースを表示する(例えば、図5Vを参照)。メディアアイテムの編集ユーザインタフェースは、どの画像がメディアアイテムに含まれるかを変更する(例えば、一連の画像を一連の画像の全てより少ないサブセットにトリムする)ように構成されている。メディアアイテムの編集ユーザインタフェースは、一連の画像内の複数の画像からのコンテンツを含むメディアアイテムの表現を含む第1の(既定の)領域を表示する(例えば、一連の画像を経時的に再生することによって、又は複数の画像を単一の画像にマージすることによって)(例えば、図5Vの編集表示領域523を参照)。いくつかの実施形態では、第1の領域は、一連の画像内の画像を一度に1つずつ表示し、対応する画像が表示されると、対応する画像が第1の領域を満たす。メディアアイテムの編集ユーザインタフェースは、第1の領域と、一連の画像内の画像の表現、並びに、第2の領域内の開始トリムアフォーダンスの位置を介して一連の画像のサブセット内の開始画像を画定するユーザ調整可能なトリムアフォーダンス(例えば、図5Vの開始ハンドル516)、及び第2の領域内の終了トリムアフォーダンスの位置を介して一連の画像のサブセット内の終了画像を画定するユーザ調整可能な終了トリムアフォーダンス(例えば、図5Vの終了ハンドル518)を含む、メディアアイテムの基準点としての一連の画像内の異なる画像を選択するための複数の編集アフォーダンス(例えば、開始画像、終了画像、及び/又は代表画像)を含む、第1の領域とは別個の第2の(既定の)領域(例えば、任意選択的に一連の画像内の複数の画像の縮小表現を含むスライダ)(例えば、図5Vの領域521を参照)を並行して表示する。いくつかの実施形態では、メディアアイテムの編集ユーザインタフェースは、アクティブ化されると画像調整機能(例えば、トリミング、回転、フィルタリング、照明、マークアップ、マジックワンド、取消、保存/完了、及び/又は他の画像編集機能)へのアクセスを提供する、複数の画像調整アフォーダンス(例えば、図5Vのアフォーダンス505-a~505-h)を並行して表示する。対応する表示モード用の編集ユーザインタフェースを表示している間に、デバイスは、複数の編集アフォーダンスの対応する編集アフォーダンスの調整に対応する第2の入力を検出する(例えば、第2の領域内の開始トリムアフォーダンス又は終了トリムアフォーダンスの位置を調整するドラッグジェスチャを検出する)(例えば、図5W~図5Xを参照)。第2の入力を検出したことに応じて、デバイスは、第1の領域内に一連の画像内の複数の画像からのコンテンツを含むメディアアイテムの表現を表示することを停止し、第1の領域内に、一連の画像の表現内の対応する編集アフォーダンスの位置に対応する画像の表現を表示する(例えば、図5W~図5Xを参照)。
図6A~図6Fにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法700、800、900、及び1000)に関して本明細書で記載されている他のプロセスの詳細は、また、図6A~図6Fに関連して上述された方法600に類似の方法で適用可能であることも留意されたい。例えば、方法600を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションは、任意選択的に、本明細書に記載の他の方法(例えば、方法700、800、900、及び1000)を参照して本明細書で記載されている接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図7A~図7Dは、いくつかの実施形態に係る、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択するための方法のフロー図である。方法700は、ディスプレイ、タッチ感知面、及び任意選択的にタッチ感知面との接触の強度を検出するための1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法700の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法700は、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択する直感的な方法を提供する。方法は、メディアアイテムの複数の表示モードの間でナビゲートするときにユーザからの入力の数、範囲、及び/又は種類を削減し、それによって、更に効率的なヒューマンマシンインタフェースを生成する。バッテリ動作電子デバイスに関しては、ユーザがより高速かつより効率的にメディアアイテムの複数の表示モードの間でナビゲートすることが可能となることにより、電力が節約され、バッテリを充電する間隔が増大する。
デバイスは、ディスプレイ上の第1のユーザインタフェース内に、第1の表示モードで一連の画像に対応するメディアアイテムからの1つ以上の画像を表示し(702)、第1の表示モードは、一連の画像に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの1つである(例えば、ライブリ写真表示モード、ループ表示モード、長時間露光表示モード、前後表示モード、動画表示モード、ストロボ効果表示モード、又はユーザによって選択されるメディアアイテムを表示するための他の表示モード)(例えば、図5BFを参照)。
いくつかの実施形態では、メディアアイテムからの1つ以上の画像は、第1のユーザインタフェース内に第1の倍率で表示され(704)、メディアアイテムのそれぞれの表現は、第1の倍率未満の第2の倍率で表示モード選択ユーザインタフェース内に表示される(例えば、図5BF及び5BHを参照)。表示モード選択ユーザインタフェース内にメディアアイテムの表現を第1のユーザインタフェース(例えば、メディアアイテム再生インタフェース)内のメディアアイテムよりも低い倍率で表示することにより、第1のユーザインタフェース内の(より大きい)メディアアイテムのより容易な閲覧も可能にすると同時に、表示モード選択ユーザインタフェース内に複数の表現を同時に示し選択可能にすることが可能になる。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、一連の画像に対応するメディアアイテム(706)は、メディアアイテムのコレクション(例えば、メディアライブラリ、フォルダ、アルバム、又はカメラロール)内の第1のメディアアイテムであり、メディアアイテムのコレクションは、所定の基準(例えば、コレクション内のメディアアイテムの作成の日付/時間、最後の編集の日付/時間、名前、サイズなど)に基づく順序で配列され、1つ以上の前方メディアアイテムは、その順序で第1のメディアアイテムに先行し、1つ以上の後方メディアアイテムは、その順序で第1のメディアアイテムに後続し、電子デバイスは、第2の方向(例えば、左方向)のスワイプを検出したことに応じて、第1のメディアアイテムの表示をコレクション内の後方メディアアイテムの表示に置き換え、電子デバイスは、第2の方向とは異なる第3の方向(例えば、右方向)のスワイプを検出したことに応じて、第1のメディアアイテムの表示をコレクション内の前方メディアアイテムの表示に置き換える。スワイプジェスチャ(例えば、左方向及び右方向)を使用することにより、方法800を参照して本明細書で更に説明するように、メディアアイテムのコレクション内のメディアアイテム間をナビゲートする効率的な入力を提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
第1の表示モードでメディアアイテムからの1つ以上の画像を表示している間に、デバイスは、第1の入力を検出する(708)(例えば、一連の画像内の現在表示されている画像上の接触によるスワイプジェスチャを検出する)(例えば、図5BGを参照)。
いくつかの実施形態では、第1の入力は、第1の方向のスワイプ(例えば、接触による上向きスワイプジェスチャ)(例えば、図5BGの上向きスワイプ560-2)である(710)。スワイプジェスチャ(例えば、上向きスワイプジェスチャ)により、追加の表示コントロールでUIを乱雑にすることを回避する、第1のユーザインタフェース(例えば、メディアアイテム再生インタフェース)から表示モード選択ユーザインタフェースへナビゲートするための効率的で直感的な入力を提供し、これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になり(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)、加えて、ユーザがデバイスをより素早くかつ効率的に使用することを可能にすることによって、デバイスの電力使用を削減し、バッテリ寿命を改善する。
第1の入力を検出したことに応じて、デバイスは、ディスプレイ上に、表示モード選択ユーザインタフェースであって、表示モード選択ユーザインタフェースは、第1の表示モードとは異なる第2の表示モードに対応するメディアアイテムの第2の表現を含む、メディアアイテムの複数の表現を並行して表示する、表示モード選択ユーザインタフェース(例えば、一連の画像に対応するメディアアイテムに対する表示モードを選択するように構成されたユーザインタフェース)を表示する(712)(例えば、図5BHの表示モード選択ユーザインタフェース511を参照)。いくつかの実施形態では、メディアアイテムの所与の表現に対して、対応する表示モードを記載するテキスト(又は別の表示モード識別子)が、所与の表現に隣接して表示される。
いくつかの実施形態では、メディアアイテムの複数の表現は、第1の表示モードに対応するメディアアイテムの第1の表現(例えば、図5BHの「ライブリ」表示モードに対する「ライブリ」インジケータ540-1)を含む(714)。いくつかの実施形態では、メディアアイテムのそれぞれの表現は、メディアアイテムの複数のユーザ選択可能な表示モードのうちの対応する表示モードに対応する。いくつかの実施形態では、メディアアイテムの所与の表現に対して、対応する表示モードを記載するテキスト(又は別の表示モード識別子)が、所与の表現に隣接して表示される。第1のユーザインタフェース内に現在表示されているモードに対応する表示モード選択ユーザインタフェース内のメディアアイテムの表現を表示することにより、ナビゲーションのためのコンテキストを提供することを支援し、同じモードで表示されたメディアアイテムを有する第1のユーザインタフェースに戻る経路を提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、第1の入力を検出したことに応じて表示されるメディアアイテムの複数の表現は、一連の画像内の画像の分析及び複数の異なる候補表示モードの所定の要件に基づいて選択される(716)(例えば、メディアアイテム内の一連の画像がループ表現基準を満たすとデバイスが判定する場合、デバイスは、ループ表現のみを表示/提案する)。表示モード選択ユーザインタフェース内に表示するためのメディアアイテムの表現を自動的に選択することにより、所与の表現がメディアアイテムの特定の表示モードに対応する場合、ユーザがメディアアイテムに対してより良い表示モードにナビゲートすることを支援する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザにとって対象となる可能性が高いメディアアイテムに対する表示モードオプションの表現のみを自動的に示すことによって)。
いくつかの実施形態では、メディアアイテムの複数のユーザ選択可能な表示モードは、一連の画像内の代表画像上の入力(例えば、強度閾値を上回る接触の強度の増大を含む次の画像入力又は押圧入力)を検出したことに応じてメディアアイテム内の一連の画像を再生するように構成された、ライブリ写真表示モードを含む(718)(例えば、図5BHを参照)。いくつかの実施形態では、入力を検出したことに応じて一連の画像を再生することは、一連の画像の中央にある現在表示されている画像(例えば、代表画像)から開始することを含む。いくつかの実施形態では、入力を検出したことに応じて一連の画像を再生することは、一連の画像内の前の(例えば、時系列的に第1の)画像にクロスフェードし、第1の画像から再生することを含む。いくつかの実施形態では、入力を検出したことに応じて一連の画像を再生することは、現在表示されている画像から再生を開始し、次いで、第1の画像にクロスフェードし、第1の画像から一連の画像を通して再生することを含む。
いくつかの実施形態では、メディアアイテムの複数のユーザ選択可能な表示モードは、メディアアイテム内の一連の画像を(繰り返し)ループで表示する(例えば、シーケンスの開始から終了まで画像を順次表示し、次いでシーケンスの開始で再度開始する)ように構成されたループ表示モードを含む(720)(例えば、図5BHの「ループ」表示モードの「ループ」インジケータ540-2)。
いくつかの実施形態では、メディアアイテムの複数のユーザ選択可能な表示モードは、前方に次いで後方に繰り返し再生するメディアアイテム内の一連の画像を表示する(例えば、シーケンスの開始から終了まで前方に画像を順次表示し、次いで終了から開始し、シーケンスの開始まで後方に再生する)ように構成された前後表示モードを含む(722)(例えば、図5BHの「前後」表示モードの「前後」インジケータ540-3)。
いくつかの実施形態では、メディアアイテムの複数のユーザ選択可能な表示モードは、一連の画像内の複数の画像からのコンテンツを含む単一のマージされた画像を表示するように構成されたマージ画像表示モードを含む(724)(例えば、図5BHの「マージ」表示モードの「マージ」インジケータ540-4)。
いくつかの実施形態では、単一のマージされた画像は、異なる画像の中間に動いている特徴を不明瞭化し、画像キャプチャ中の長い露光時間の効果をシミュレートするように一緒にマージされた、一連の画像内の複数の画像内の同じ位置に現れる同じオブジェクトのコンテンツを含む。
いくつかの実施形態では、単一のマージされた画像は、一連の画像内の複数の画像内の異なる位置に現れる同じオブジェクトのコンテンツを含み、複数の画像内のオブジェクトの異なる位置は、移動するオブジェクトがマージされた画像内に複数回現れるように、ストロボ光を用いた多重露光の効果をシミュレートするように強調される。
いくつかの実施形態では、マージ表示モード(例えば、長時間露光表示モード)にある間に、ライブリ写真表示モードで再生を開始する同じ入力(例えば、スワイプ、強度閾値を上回る接触の強度の増大を含む押圧入力、又は表示されたマージされた画像上の長い押圧)を検出することにより、マージされた画像からメディアアイテム内の一連の画像の再生にクロスフェードし、次いで、マージされた画像にクロスフェードして戻ることになる。
いくつかの実施形態では、メディアアイテムの複数のユーザ選択可能な表示モードは、一連の画像の表現上のタップ入力を検出したことに応じて(例えば、スワイプ、長い押圧、又は押圧入力を検出することの代わりに)再生を一連の画像内の最も早い画像で開始して、メディアアイテム内の一連の画像を再生するように構成された動画表示モードを含む(726)。いくつかの実施形態では、動画表示モード用の編集ユーザインタフェースは、メディアアイテムを、静止画(例えば、JPEG)及びビデオ(例えば、MOV)の両方を含むメディアアイテムとしてではなく、単にビデオファイル(例えば、GIF、MOV、MP4、WMV、又はAVIファイル)として保存させるコントロールを含む(例えば、図5BKの「動画」表示モード用の「動画」インジケータ540-6)。
いくつかの実施形態では、表示モード選択ユーザインタフェース内のメディアアイテムのそれぞれの表現は、対応する表示モードでメディアアイテムのプレビューを表示し(728)、それぞれの表現は、対応する表示モードでのメディアアイテムの第1の倍率未満の第2の倍率で表示モード選択ユーザインタフェース内に表示される(例えば、図5BHを参照)。例えば、ループ表示モードに対応するメディアアイテムの第1の表現は、第2の縮小された倍率でループするメディアアイテム内の一連の画像を表示する。例えば、前後表示モードに対応する第2の表現は、第2の縮小された倍率で前方に次いで後方に繰り返し再生する一連の画像を表示する。例えば、長時間露光表示モードに対応する第3の表現は、第2の縮小された倍率で単一のマージされた画像として一連の画像を表示する。例えば、ストロボ表示モードに対応する第4の表現は、第2の縮小された倍率で単一のマージされた画像として一連の画像のサブセットを表示する。いくつかの実施形態では、対応する表示モードのこれらのプレビューは、第2の倍率で並行して表示される(例えば、特定の表示モードのプレビューが各サムネイル画像に適用された、サムネイル画像のセットとして)。対応する表示モードのプレビューとして表示モード選択ユーザインタフェース内のメディアアイテムの縮小表現を表示することにより、ナビゲーションのためのコンテキストを提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、表示モード選択ユーザインタフェース内で、メディアアイテムの複数の表現は、スクロール可能である(730)(例えば、図5BJ~図5BKを参照)。いくつかの実施形態では、メディアアイテムの表現は、行に表示され、行に沿ったドラッグ又はスワイプジェスチャを検出したことに応じて水平にスクロールするように構成されている。いくつかの実施形態では、メディアアイテムの表現は、列に表示され、列に沿ったドラッグ又はスワイプジェスチャを検出したことに応じて垂直にスクロールするように構成されている。表示モード選択ユーザインタフェース内にメディアアイテムのスクロール可能な表現を有することにより、ユーザに、小さなディスプレイを有するデバイス上で追加の表示モードナビゲーションオプションを見せる。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、小さなディスプレイを有するデバイス上で)。
いくつかの実施形態では、第1の入力を検出したことに応じて、表示モード選択ユーザインタフェースは、第1の表示モードのメディアアイテムからの1つ以上の画像の全てより少ない部分を第1の倍率で、一連の画像の複数の表現を第1の倍率未満の第2の倍率で、並行して表示する(732)(例えば、図5BHを参照)。表示モード選択ユーザインタフェース内に第1の倍率で第1の表示モードのメディアアイテムの一部分(例えば、下部)を表示することにより、表示モード選択ユーザインタフェースから第1のユーザインタフェースへ戻るナビゲーションのためのコンテキストを提供する(例えば、第1のユーザインタフェースに戻るスワイプダウンジェスチャを使用して)。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供することによって)。
いくつかの実施形態では、表示モード選択ユーザインタフェースは、メディアアイテムに関する地理的位置情報を表示する(734)(例えば、図5BMを参照)。いくつかの実施形態では、表示モード選択ユーザインタフェースは、(例えば、人々の顔認識に基づいて)一連の画像内の人々に関する情報、一連の画像が撮影された位置を示す地図、同じ位置若しくはその付近で撮影された他の写真へのリンク、同じ時間若しくはその付近で撮影された(例えば、同じ日に撮影された)他の写真へのリンク、及び/又は他の関連するコンテンツなどの、メディアアイテム内の一連の画像に関連付けられた追加情報を表示する。いくつかの実施形態では、表示モード選択ユーザインタフェースは、メディアアイテムに関連付けられた追加情報(例えば、メディアアイテムの位置に対応する地図、メディアアイテムを含む写真のコレクション、メディアアイテム内の画像に現れる人々、関連する画像を表示するオプション、同じ日からの画像を表示するオプションなど)を含む。表示モード選択ユーザインタフェース内にメディアアイテムに関するそのような情報を表示することにより、メディアアイテムに関するコンテキストを提供し、メディアアイテムに関連する追加情報への迅速なナビゲーション経路を提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、メディアアイテムに関連する追加情報への迅速なアクセスを提供することによって)。
ディスプレイ上に表示モード選択ユーザインタフェースを表示している間に、デバイスは、メディアアイテムの複数の表現のうちの第2の表現上の入力(例えば、図5BHに示すような「ループ」インジケータ540-2でのタップ560-4)を検出する(736)。
メディアアイテムの複数の表現のうちの第2の表現上の入力を検出したことに応じて、デバイスは、メディアアイテムの複数の表現のうちの第2の表現に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの第2の表示モードを選択する(738)。いくつかの実施形態では、メディアの第2の表現は、第2の表現に対応する表示モードが選択されたことを示すために、他の表現と視覚的に区別される(例えば、強調表示すること、周囲にボックスを置くことなどによって)(例えば、図5BJの表示モード選択インジケータ541)。
いくつかの実施形態では、デバイスは、ディスプレイ上の第1のユーザインタフェース内に、第1の表示モードのインジケータを表示する(740)(例えば、図5BHの「ライブリ」インジケータ540-1、図5BHの「ループ」インジケータ540-2、図5BHの「長時間露光」インジケータ540-3、又は図5BHの「前後」インジケータ540-4を表示する)。第1のユーザインタフェース内に第1の表示モードのインジケータを表示することにより、ナビゲーションのためのコンテキストを提供することを支援する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、メディアアイテムの複数の表現のうちの第2の表現上の入力を検出したことに応じて、デバイスは、表示モード選択ユーザインタフェースを表示することを停止し(742)、(例えば、ディスプレイ上の第1のユーザインタフェース内に)メディアアイテムの複数の表現のうちの第2の表現に対応する(選択された)第2の表示モードでメディアアイテムからの1つ以上の画像を表示する(例えば、図5BH~図5BIを参照)。メディアアイテムの所与の表現上の単一の入力(例えば、所与の表現上のタップジェスチャ)に応じて、特定の表示モードを選択し、表示モード選択ユーザインタフェースを出て、選択された表示モードでメディアアイテムを表示することにより、これらの動作を実行するために必要とされる入力の数を低減し、ナビゲーションがより効率的になる。
いくつかの実施形態では、メディアアイテムの複数の表現のうちの第2の表現上の入力を検出したことに応じて、デバイスは、(例えば、ディスプレイ上の第1のユーザインタフェース内に)メディアアイテムの複数の表現のうちの第2の表現に対応する(選択された)第2の表示モードのインジケータを表示する(744)(例えば、図5BHの「ループ」インジケータ540-2を表示する)。選択された表示モードのインジケータを表示することにより、ナビゲーションのためのコンテキストを提供することを支援する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、メディアアイテムの複数の表現のうちの第2の表現に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの第2の表示モードを選択した後で、第2の表現に対応する第2の表示モードが選択されている間に、デバイスは、第2の入力(例えば、「完了」アイコン上のタップジェスチャ、下向きのスワイプ、第2の表現540-2上のダブルタップジェスチャ若しくは図5BOに示すようなタップ560-14、又は表示モード選択ユーザインタフェースを出るための他の入力)を検出し(746)、第2の入力を検出したことに応じて、表示モード選択ユーザインタフェースを表示することを停止し、(例えば、ディスプレイ上の第1のユーザインタフェース内に)メディアアイテムの複数の表現のうちの第2の表現に対応する(選択された)第2の表示モードでメディアアイテムからの1つ以上の画像を表示する。いくつかの実施形態では、第2の入力を検出したことに応じて、デバイスはまた、一連の画像の複数の表現のうちの第2の表現に対応する選択された表示モードのインジケータも表示する。表示モード選択ユーザインタフェースを出るために所望の表示モードを選択した後に別の入力を必要とすることにより、表示モード選択ユーザインタフェースから離れる不測のナビゲーションが低減される。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、ディスプレイ上の第1のユーザインタフェース内に、第1の表示モードでメディアアイテムからの1つ以上の画像を表示している間に、メディアアイテムの第2の表示モードが推奨基準を満たすとの(自動)判定に従って、デバイスは、(例えば、表示モード選択ユーザインタフェースにアクセスするための命令を含む)第1の表示モードから第2の表示モードに切り替える提案を表示する(748)。メディアアイテムに対する代替の表示モードを自動的に提案することにより、ユーザがメディアアイテムに対するより良好な表示モードにナビゲートすることを支援する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
図7A~7Dにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法600、800、900、及び1000)に関して本明細書で記載されている他のプロセスの詳細は、また、図7A~図7Dに関連して上述された方法700に類似の方法で適用可能であることも留意されたい。例えば、方法700を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションは、任意選択的に、本明細書に記載の他の方法(例えば、方法600、800、900、及び1000)を参照して本明細書で記載されている接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図8A~図8Fは、いくつかの実施形態に係る、一連の画像に対応するメディアアイテムに対する代表画像を変更するための方法のフロー図である。方法800は、ディスプレイ、タッチ感知面、及び任意選択的にタッチ感知面との接触の強度を検出するための1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法800の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法800は、一連の画像に対応するメディアアイテムに対する代表画像を変更する直感的な方法を提供する。方法は、メディアアイテムに対する代表画像を変更するときにユーザからの入力の数、範囲、及び/又は種類を削減し、それによって、更に効率的なヒューマンマシンインタフェースを生成する。バッテリ動作電子デバイスに関しては、ユーザがより高速かつより効率的にメディアアイテムに対する代表画像を変更することが可能となることにより、電力が節約され、バッテリを充電する間隔が増大する。
デバイスは、ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムであって、メディアアイテムが、一連の画像からの代表画像を含む、メディアアイテムの表現を表示する(802)(例えば、一連の画像からの代表画像を表示する)(例えば、図5BSを参照)。いくつかの実施形態では、メディアアイテムは、第1の表示モード(例えば、ライブリ写真表示モード)で仮想シャッターボタン上のタップ、物理シャッターボタンのクリック、又は仮想シャッターボタン若しくは物理シャッターボタン上の長い押圧入力などのシャッターボタンの単一のアクティブ化に応じてキャプチャされた画像を含む。
第1の表示モードで一連の画像に対応するメディアアイテムの表現を表示している間に、デバイスは、第1の入力(例えば、編集アフォーダンス上の接触によるタップジェスチャ)を検出する(804)(例えば、図5BTを参照)。
第1の入力を検出したことに応じて、デバイスは、ディスプレイ上に第1の表示モードでメディアアイテムの編集ユーザインタフェースを表示する(806)(例えば、図5BUを参照)。いくつかの実施形態では、編集ユーザインタフェースは、ライブリ写真表示モードで表示されているメディアアイテム内の一連の画像を、一連の画像の全てより少ないサブセットにトリムするように構成されており、編集インタフェースは、ライブリ写真表示モードでのメディアアイテムの新しい代表画像を選択するように構成されている。編集ユーザインタフェースは、第1の倍率で一連の画像内の画像を順次表示するように構成された第1の(既定の)領域(例えば、図5BUに示すような編集表示領域523)を並行して表示する。いくつかの実施形態では、第1の領域は、一連の画像内の画像を一度に1つずつ表示し、対応する画像が表示されると、対応する画像が第1の領域を満たす。編集ユーザインタフェースは、(例えば、メディアアイテム内の一連の画像内の複数の画像の縮小表現を含むスライダ内に)第1の倍率未満の第2の倍率での一連の画像内の画像の表現と、ユーザ調整可能な代表画像選択アフォーダンスであって、第2の領域内の代表画像選択アフォーダンスの位置を介して一連の画像内の新しい代表画像を選択するように構成された、代表画像選択アフォーダンス(例えば、図5BUのキー画像フレーム520)と、一連の画像を通して再生するための第1の境界を示すユーザ調整可能な開始トリムアフォーダンス(例えば、図5BUの開始ハンドル516)(例えば、開始トリムアフォーダンスは、第2の領域内の開始トリムアフォーダンスの位置を介して一連の画像のサブセット内の開始画像を画定する)及び一連の画像を通して再生するための第2の境界を示すユーザ調整可能な終了トリムアフォーダンス(例えば、図5BUの終了ハンドル518)(例えば、終了トリムアフォーダンスは、第2の領域内の終了トリムアフォーダンスの位置を介して一連の画像のサブセット内の終了画像を画定する)を含む複数の範囲トリムアフォーダンスと、を含む、第1の領域とは別個の第2の(既定の)領域(例えば、図5BUに示すような領域521)を並行して表示する。
いくつかの実施形態では、メディアアイテム内の一連の画像は、カメラ(例えば、電子デバイスの一部であるカメラ、又は電子デバイスとは別個のカメラ)によって撮影されており(808)、一連の画像は、代表画像を取得した後にカメラによって取得された1つ以上の画像を含み、一連の画像は、代表画像を取得する前にカメラによって取得された1つ以上の画像を含む。
編集ユーザインタフェースを表示している間に、デバイスは、代表画像選択アフォーダンスに向けられた第2の入力を検出する(810)(例えば、代表画像選択アフォーダンス上で開始し、かつ一連の画像内の複数の画像の縮小表現を含むスライダに沿った動きの成分を含む、接触(又はカーソル)によるドラッグジェスチャを検出する)(例えば、図5BVに示す接触570-4によるドラッグ)。
代表画像選択アフォーダンスに向けられた第2の入力を検出している間に、デバイスは、第2の入力に従って、第2の領域内の代表画像選択アフォーダンスを移動させ(812)(例えば、スライダに沿った(ドラッグジェスチャの)接触の移動の成分に従って、スライダに沿って代表画像選択アフォーダンスを移動させる)、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する、第2の領域内の画像の視覚的強調表現を表示し(例えば、代表画像選択アフォーダンスがスライダ内の一連の画像内の画像の表現に沿って移動するに従って、画像の表現を代表画像選択アフォーダンスで囲む、第2の領域内のスライダ内の他の表現に対して画像の表現を拡大する、及び/又は代表画像選択アフォーダンス内に表示される画像を変更する)、第1の領域内に、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する一連の画像からの画像を表示する。(例えば、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する第2の領域内の画像の表現が強調表示されると同時に、対応する画像が、第1の領域内により高い倍率で表示される)(例えば、図5BW~図5BXを参照)
いくつかの実施形態では、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する第2の領域内の画像の表現及び代表画像選択アフォーダンスの現在位置に対応する第1の領域内の画像は、代表画像選択アフォーダンスの位置が第2の領域内で移動するに従って、更新する(814)(例えば、図5BW~図5BXを参照)。代表画像選択アフォーダンスの位置が移動するに従って第1の領域内の画像及び第2の領域内の表現の同時更新を提供することにより、新しい代表画像を選択するのを支援する視覚的フィードバックを提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定し新しい代表画像を選択することを支援するフィードバックを提供することによって)。
いくつかの実施形態では、デバイスは、第2の入力の終了を検出し(816)(例えば、第2の入力を提供していた接触のリフトオフを検出する)、第2の入力の終了を検出したことに応じて、デバイスは、代表画像確認アフォーダンスを表示する(例えば、図5BZの接触570-4のリフトオフを検出したことに応じて、図5CAの「キー写真(代表画像)を作成」を表示する)。いくつかの実施形態では、代表画像確認アフォーダンスは、第2の入力の終了で、代表画像選択アフォーダンスの位置に隣接して表示される。いくつかの実施形態では、代表画像選択アフォーダンスは、第2の入力が終了した後であっても、第2の入力に応じて移動された位置に留まる(例えば、別の入力が検出されるまで、又は所定の時間が経過するまで)。入力が終了したときに代表画像確認アフォーダンスを表示することにより、新しい代表画像の選択中にユーザを案内するのに役立つ視覚的フィードバックを提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定し新しい代表画像を選択することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像確認アフォーダンスを表示している間に、デバイスは、代表画像確認アフォーダンスに向けられた入力を検出し(818)(例えば、代表画像確認アフォーダンス又は代表画像確認アフォーダンスの隠れたヒット領域上のタップジェスチャを検出する)、代表画像確認アフォーダンスに向けられた入力を検出したことに応じて、メディアアイテム内の代表画像を、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する画像に更新する。例えば、図5CBの「キー写真を作成」上のタップジェスチャ570-6は、メディアアイテムの更新された代表画像として、第1の領域内に表示される、代表画像選択アフォーダンスの現在位置に対応する画像の選択を確認する。メディアアイテムに対する新しい代表画像を暫定的に選択した後に確認入力を必要とすることにより、新しい代表画像の不測の又は不必要な選択が低減される。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像確認アフォーダンスを表示している間に、デバイスは、代表画像確認アフォーダンスに向けられていない入力を検出し(820)(例えば、代表画像確認アフォーダンス又は代表画像確認アフォーダンスの隠れたヒット領域から離れた位置での編集ユーザインタフェース内のタップジェスチャを検出する)、代表画像確認アフォーダンスに向けられていない入力を検出したことに応じて、メディアアイテム内の代表画像を、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する画像に更新することを控える。例えば、図5CDの「キー写真を作成」から離れたタップジェスチャ570-8は、メディアアイテムの更新された代表画像として、第1の領域内に表示される、代表画像選択アフォーダンスの現在位置に対応する画像の選択を取り消す。したがって、いくつかの実施形態では、デバイスは、代表画像確認アフォーダンスが表示されている間に入力を検出し、入力を検出したことに応じて、入力が代表画像確認アフォーダンスに向けられているとの判定に従って、デバイスは、メディアアイテム内の代表画像を、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する画像に更新する。また、入力が代表画像確認アフォーダンスに向けられていないとの判定に従って、デバイスは、メディアアイテム内の代表画像を、第2の領域内の代表画像選択アフォーダンスの現在位置に対応する画像に更新することを控える。上述のように、メディアアイテムに対する新しい代表画像を暫定的に選択した後に確認入力を必要とすることにより、新しい代表画像の不測の又は不必要な選択が低減される。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像確認アフォーダンスに向けられていない入力を検出したことに応じて、デバイスは、代表画像確認アフォーダンスを表示することを停止し(822)、第2の領域内の代表画像選択アフォーダンスの位置を代表画像(例えば、第2の入力を検出する前に代表画像であったメディアアイテム内の画像)の表現に(又はそれに隣接して)移動させる(例えば、図5CD~図5CEを参照)。新しい代表画像の選択が確認されない場合、デバイスは、新しい代表画像の暫定的選択を示すように行なわれたユーザインタフェースに対する変更を自動的に解除し、ユーザから必要とされる入力回数を低減し、それによって、より効率的なヒューマンマシンインタフェースを生成する。
いくつかの実施形態では、編集ユーザインタフェースを表示している間に、デバイスは、対応する範囲トリムアフォーダンス(例えば、開始トリムアフォーダンス又は終了トリムアフォーダンス)に向けられた第3の入力であって、第3の入力は、対応する範囲トリムアフォーダンスが開始位置にある間に開始し、かつ第3の入力は、対応する大きさを有する、第3の入力を検出し(824)(例えば、開始トリムアフォーダンス上で開始し、かつ一連の画像内の複数の画像の縮小表現を含むスライダに沿った動きの成分を含む、接触(又はカーソル)によるドラッグジェスチャを検出する)、対応する範囲トリムアフォーダンスに向けられた第3の入力を検出したことに応じて、第3の入力の対応する大きさが、対応する範囲トリムアフォーダンスの開始位置と代表画像選択アフォーダンスとの間の距離未満の第1の量だけの対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、対応する範囲トリムアフォーダンスを第1の量だけ移動させ、第3の入力の対応する大きさが、対応する範囲トリムアフォーダンスの開始位置と代表画像選択アフォーダンスとの間の距離よりも大きい第2の量だけの対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、対応する範囲トリムアフォーダンスを代表画像選択アフォーダンスに隣接して移動させる(例えば、図5CH~図5CJを参照)。
いくつかの実施形態では、デバイスは、スライダに沿った(ドラッグジェスチャの)接触の移動の成分に従って、スライダに沿って開始トリムアフォーダンスを移動させる。いくつかの実施形態では、開始トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、開始トリムアフォーダンスを移動し続け、また、メディアアイテム内の現在の代表画像を開始トリムアフォーダンスの現在位置に対応する画像に変更する(例えば、図5Y、図5AB、及び図5ACを参照)。このように範囲トリムアフォーダンスを移動させることにより、メディアアイテムの範囲及びメディアアイテムの代表画像の両方を単一の入力で同時に変更することが可能になり、これにより、これらの動作を実行するために必要とされる入力の数が低減され、編集ユーザインタフェースがより効率的になる。
いくつかの実施形態では、開始トリムアフォーダンスは、一連の画像内の現在の代表画像に対応する第2の領域内の表現を越えて移動することができない。いくつかの実施形態では、開始トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、開始トリムアフォーダンスを移動し続けず、メディアアイテム内の現在の代表画像を変更しない。このように範囲トリムアフォーダンスを移動させることにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザが範囲トリムアフォーダンスで代表画像を偶発的に変更することを防止することによって)。
同様に、いくつかの実施形態では、デバイスは、スライダに沿った(ドラッグジェスチャの)接触の移動の成分に従って、スライダに沿って終了トリムアフォーダンスを移動させる。いくつかの実施形態では、終了トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、終了トリムアフォーダンスを移動し続け、また、メディアアイテム内の現在の代表画像を終了トリムアフォーダンスの現在位置に対応する画像に変更する。
いくつかの実施形態では、終了トリムアフォーダンスは、メディアアイテム内の現在の代表画像に対応する第2の領域内の表現を越えて移動することができない。いくつかの実施形態では、終了トリムアフォーダンスが現在の代表画像の表現に、その上に、又はその隣に来ると、スライダに沿った接触の継続的な移動は、終了トリムアフォーダンスを移動し続けず、メディアアイテム内の現在の代表画像を変更しない。
いくつかの実施形態では、代表画像選択アフォーダンスに向けられた第2の入力を検出している間に、デバイスは、第2の領域内に、メディアアイテムの現在の代表画像のインジケータを表示する(826)(例えば、図5CDのドット542は、メディアアイテム内の現在の代表画像の縮小表現に隣接して表示される)。メディアアイテムの現在の代表画像のインジケータを表示することにより、ユーザに改善された視覚的フィードバックを提供し、ユーザが現在の代表画像を変更しないと決定した場合に、ユーザが現在の代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像選択アフォーダンスに向けられた第2の入力を検出している間に、デバイスは、代表画像選択アフォーダンスがメディアアイテムの代表画像の表現に対応する位置にあるときに、第2の領域内に、メディアアイテムの現在の代表画像のインジケータを表示することを控える(828)(例えば、図5CK~図5CLを参照)。いくつかの実施形態では、編集ユーザインタフェースが最初に表示されたときに、図5BUに示すように、代表画像選択アフォーダンスは、メディアアイテムの代表画像の表現に対応する位置に表示され、ドットは表示されない。いくつかの実施形態では、代表画像選択アフォーダンスが、メディアアイテムの代表画像の表現に対応する位置から離れて移動するとき(例えば、代表画像選択アフォーダンス上のドラッグジェスチャに応じて)、図5BY~図5CAに示すように、ドットは、メディアアイテムの代表画像の表現に対応する位置に、又はそれに隣接して表示される。いくつかの実施形態では、代表画像選択アフォーダンスがその初期位置から離れて移動される場合、インジケータは表示され、代表画像選択アフォーダンスが初期位置に戻ると、インジケータは表示されることを停止する。このようにメディアアイテムの現在の代表画像のインジケータを表示することにより、ユーザに改善された視覚的フィードバックを提供し、ユーザが現在の代表画像を変更しないと決定した場合に、ユーザが現在の代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、代表画像確認アフォーダンスに向けられた入力を検出したことに応じて、デバイスは、第2の領域内に、一連の画像の元の代表画像のインジケータを表示する(830)(例えば、図5BYのドット542は、メディアアイテムの元の代表画像の縮小表現に隣接して表示される)。いくつかの実施形態では、メディアアイテムの代表画像が変更された後で、インジケータは、メディアアイテムの元の代表画像の縮小表現に又はそれに隣接して、第2の領域内に表示される。いくつかの実施形態では、元の代表画像のインジケータは、現在の代表画像のインジケータと並行して表示される(例えば、図5CFのドット542及び543によって示すように、現在の代表画像が元の代表画像とは異なり、かつ代表画像選択アフォーダンスが現在の代表画像の位置又は元の代表画像の位置から離れて表示される場合)。メディアアイテムの元の代表画像のインジケータを表示することにより、ユーザに改善された視覚的フィードバックを提供し、ユーザが元の代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し、代表画像選択アフォーダンスに向けられた第2の入力を検出している間に、デバイスは、代表画像選択アフォーダンスがメディアアイテムの代表画像の表現に対応する位置の上を移動するときに触知出力を生成する(832)(例えば、図5CLに示す触覚応答527を参照)。いくつかの実施形態では、デバイスは、代表画像選択アフォーダンスがメディアアイテムの元の代表画像の縮小表現の上に進むと、触知出力を生成する。いくつかの実施形態では、触知出力は、代表画像選択アフォーダンスが閾値速度未満の速度で元の代表画像の位置を越えて移動されるときに生成され、触知出力は、代表画像選択アフォーダンスが閾値速度を上回る速度で元の代表画像の位置を越えて移動されるときに生成されない(例えば、図5CL及び図5CMを参照)。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、代表画像選択アフォーダンスが元の代表画像の表現に対応する位置に戻ったことをユーザに警告し、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し、一連の画像内の代表画像を更新した後で、編集ユーザインタフェース内で、かつ代表画像選択アフォーダンスに向けられた入力を検出している間に、デバイスは、代表画像選択アフォーダンスがメディアアイテムの更新された代表画像の表現に対応する位置の上を移動するときに、触知出力を生成する(834)(例えば、図5CIを参照)。いくつかの実施形態では、デバイスは、代表画像選択アフォーダンスがメディアアイテムの現在の代表画像の縮小表現の上に進むと、触知出力を生成する。いくつかの実施形態では、触知出力は、代表画像選択アフォーダンスが閾値速度未満の速度で現在の代表画像の位置を越えて移動されるときに生成され、触知出力は、代表画像選択アフォーダンスが閾値速度を上回る速度で現在の代表画像の位置を越えて移動されるときに生成されない。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、代表画像選択アフォーダンスが更新された代表画像の表現に対応する位置に戻ったことをユーザに警告し、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し、編集ユーザインタフェース内で、かつ対応する範囲トリムアフォーダンスに向けられた入力を検出している間に、デバイスは、対応する範囲トリムアフォーダンスがメディアアイテムの代表画像の表現に対応する位置に移動されると、触知出力を生成する(836)(例えば、図5CL)。いくつかの実施形態では、デバイスは、開始トリムアフォーダンスがメディアアイテムの現在の代表画像の縮小表現の上にあるときに、触知出力を生成する。同様に、いくつかの実施形態では、デバイスは、終了トリムアフォーダンスがメディアアイテムの現在の代表画像の縮小表現の上にあるときに、触知出力を生成する。いくつかの実施形態では、デバイスは、対応する範囲トリムアフォーダンスをメディアアイテムの代表画像の表現の位置に又はそれを越えて移動する要求に対応する要求に対応する入力を受信すると、触知出力を生成する。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、範囲トリムアフォーダンスがメディアアイテムの代表画像の表現に対応する位置に移動したことをユーザに警告し、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、代表画像選択アフォーダンスを範囲トリムアフォーダンスを越えた位置に移動する要求に対応する入力を検出し(838)、代表画像選択アフォーダンスを移動する要求に対応する入力を検出したことに応じて、範囲トリムアフォーダンスを(例えば、代表画像選択アフォーダンスと同じ位置に、又は代表画像選択アフォーダンスに隣接して)移動させる(例えば、図5CJ~図5CKを参照)。このように代表画像選択アフォーダンスを移動させることにより、メディアアイテムの範囲及びメディアアイテムの代表画像の両方を単一の入力で同時に変更することが可能になり、これにより、これらの動作を実行するために必要とされる入力の数が低減され、編集ユーザインタフェースがより効率的になる。
いくつかの実施形態では、デバイスは、代表画像選択アフォーダンスを範囲トリムアフォーダンスを越えた位置に移動する要求に対応する入力を検出し(840)、代表画像選択アフォーダンスを移動する要求に対応する入力を検出したことに応じて、範囲トリムアフォーダンスが一連の画像の終端にないとの判定に従って、範囲トリムアフォーダンスを(例えば、代表画像選択アフォーダンスと同じ位置に)移動させ、範囲トリムアフォーダンスが一連の画像の終端にあるとの判定に従って、範囲トリムアフォーダンスを移動させることを控える(例えば、図5CJ~図5CKを参照)。このように代表画像選択アフォーダンスを移動させることにより、メディアアイテムの範囲及びメディアアイテムの代表画像の両方を単一の入力で同時に変更することが可能になり、これにより、これらの動作を実行するために必要とされる入力の数が低減され、編集ユーザインタフェースがより効率的になる。
いくつかの実施形態では、デバイスは、範囲トリムアフォーダンスに対して代表画像選択アフォーダンスを移動する要求に対応する入力を検出し(842)、範囲トリムアフォーダンスに対して代表画像選択アフォーダンスを移動する要求に対応する入力を検出したことに応じて、範囲トリムアフォーダンスに対して代表画像選択アフォーダンスを移動する要求に対応する入力が範囲トリムアフォーダンスを代表画像選択アフォーダンスを越えた位置に移動する要求(例えば、範囲トリムアフォーダンス上で開始し、かつ代表画像選択アフォーダンスの上を移動するドラッグ入力)であるとの判定に従って、デバイスは、範囲トリムアフォーダンスを代表画像選択アフォーダンスに隣接して移動させ、触知出力を生成し(例えば、図5CI)、範囲トリムアフォーダンスに対して代表画像選択アフォーダンスを移動する要求に対応する入力が、代表画像選択アフォーダンスを範囲トリムアフォーダンスを越えた位置に移動する要求、(例えば、代表画像選択アフォーダンス上で開始し、かつ範囲トリムアフォーダンスの上を移動するドラッグ入力)であるとの判定に従って、デバイスは、触知出力を生成することなく、代表画像選択アフォーダンスを範囲トリムアフォーダンスに隣接して移動させる(例えば、図5CJ~図5CK)。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザを支援することになるいくつかの状況では触覚フィードバックを提供するが、多過ぎるフィードバックを提供する場合がある、又はユーザを混乱させる場合がある他の状況では、触覚フィードバックを提供せず、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、デバイスは、一連の画像を編集する要求に対応する入力を検出し(844)(例えば、メディアアイテム内の一連の画像の開始点、終点、又は代表画像を変更する)、一連の画像を編集する要求に対応する入力を検出したことに応じて、一連の画像を編集する要求に対応する入力が、代表画像選択アフォーダンスを現在の代表画像の表現に隣接して又はそれを越えて移動する要求(例えば、代表画像選択アフォーダンス上で開始し、かつスライダ内のメディアアイテムの現在の代表画像の縮小表現に隣接して又はそれを越えて移動するドラッグ入力)であるとの判定に従って、代表画像選択アフォーダンスを移動させ(例えば、範囲トリムアフォーダンスに隣接して)、入力の移動速度が対応する速度閾値を上回るか否かに基づいて触知出力を条件付きで生成し(例えば、ドラッグ入力が、現在の代表画像の縮小表現を越えて又はそれに隣接して移動するときに、対応する速度閾値を上回る速度を有する場合、デバイスは、対応する触知出力を生成し、ドラッグ入力が、現在の代表画像の縮小表現を越えて又はそれに隣接して移動するときに、対応する速度閾値を下回る速度を有する場合、デバイスは、対応する触知出力を生成することを控える、又はその逆)(例えば、図5CM~図5CN)、一連の画像を編集する要求に対応する入力が、範囲トリムアフォーダンスを現在の代表画像の表現を越えた位置に移動する要求(例えば、範囲トリムアフォーダンス上で開始し、かつ代表画像選択アフォーダンスなどのスライダ内のメディアアイテムの現在の代表画像の縮小表現に隣接して又はそれを越えて移動するドラッグ入力)であるとの判定に従って、(例えば、代表画像選択アフォーダンスに隣接して)範囲トリムアフォーダンスを移動させ、入力の移動速度に関わらず触知出力を生成する(例えば、触知出力は、ドラッグ入力が移動速度閾値を上回る又は下回るかに関わらず生成される)(例えば、図5CHを参照)。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザを支援することになるいくつかの状況では触覚フィードバックを提供するが、多過ぎるフィードバックを提供する場合がある、又はユーザを混乱させる場合がある他の状況では、触覚フィードバックを提供せず、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
図8A~図8Fにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法600、700、900、及び1000)に関して本明細書で記載された他のプロセスの詳細はまた、図8A~図8Fに関連して上述された方法800に類似の方法で適用可能であることも留意されたい。例えば、方法800を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションは、任意選択的に、本明細書に記載の他の方法(例えば、方法600、700、900、及び1000)を参照して本明細書で記載されている接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図9A~図9Iは、いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートするための方法のフロー図である。方法900は、ディスプレイ、タッチ感知面、及び任意選択的にタッチ感知面との接触の強度を検出するための1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法900の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法900は、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムのコレクションを通してナビゲートする直感的な方法を提供する。この方法は、そのようなナビゲーションのためのより効率的なヒューマンマシンインタフェースを生成する。バッテリ動作電子デバイスに関しては、ユーザがより効率的にそのようなメディアアイテムのコレクションを通してナビゲートすることを可能にすることにより、電力を節約し、バッテリを充電する間隔が増大する。
デバイスは、ディスプレイ上の第1のユーザインタフェース内に、複数のユーザ選択可能な表示モードの第1の表示モード(例えば、ライブリ写真表示モード)における、一連の画像に対応する第1のメディアアイテムの表現(例えば、仮想シャッターボタン上のタップ、物理シャッターボタンのクリック、又は仮想若しくは物理シャッターボタン上の長い押圧入力などのシャッターボタンの単一のアクティブ化に応じてキャプチャされた画像)を表示し(902)、第1のメディアアイテムは、(例えば、メディアライブラリ、フォルダ、アルバム、又はカメラロール内の)メディアアイテムのコレクションの一部であり、メディアアイテムのコレクションは、所定の基準(例えば、コレクション内のメディアアイテムの作成の日付/時間、最後の編集の日付/時間、名前、サイズなど)に基づく順序で配列され、1つ以上の前方メディアアイテムは、その順序で第1のメディアアイテムに先行し、1つ以上の後方メディアアイテムは、その順序で第1のメディアアイテムに後続する(例えば、図5CNを参照)。
いくつかの実施形態では、対応するメディアアイテムの複数のユーザ選択可能な表示モードは、ライブリ写真表示モードを含む。対応するメディアアイテムがライブリ写真表示モードにある場合、電子デバイスは、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力が検出されている間に、対応するメディアアイテム内の一連の画像の代表画像を表示する。対応するメディアアイテムをディスプレイ上に表示させるタッチ入力の終了を検出したこと(例えば、タッチ入力の接触のリフトオフを検出したこと)に応じて、デバイスは、代表画像で開始して対応するメディアアイテム内の一連の画像内の画像を再生し、次いで一連の画像内の開始画像にクロスフェードし、開始画像から一連の画像を通して再生し、次いで代表画像を再表示する。いくつかの実施形態では、第2の一連の画像は、(タッチ入力の終了が検出された後で)後方メディアアイテムがディスプレイ上にスライドしている間に、対応する画像から再生し続ける。このようにライブリ写真表示モードで後続の(又は前の)メディアアイテムを再生することにより、ナビゲーション中に後続の(又は前の)メディアアイテムを「活気」づかせ、これにより、後続の(又は前の)メディアアイテムがライブリ写真表示モードにあることをユーザに示す。これにより、ユーザが、コレクション内のメディアアイテムをそれらの選択された表示モードでより効率的にナビゲートし閲覧することを支援する。
いくつかの実施形態では、対応するメディアアイテムの複数のユーザ選択可能な表示モードは、前方に次いで後方に繰り返し再生する、対応するメディアアイテム内の一連の画像を表示するように構成された前後表示モードを含む(904)(例えば、図5CTを参照)。対応するメディアアイテムが前後表示モードにあるとき、対応するメディア内の一連の画像は、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力(例えば、対応するメディアアイテムをディスプレイ上にスクロールさせるスワイプ/ドラッグジェスチャ)が検出されている間に、前方に次いで後方に再生することを開始し、対応するメディア内の一連の画像は、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力が終了した後で(例えば、スワイプ/ドラッグジェスチャを提供していた接触のリフトオフを検出した後で)、前方に次いで後方に繰り返し再生する。いくつかの実施形態では、タッチ入力は、ディスプレイ上に対応するメディアアイテムをスクロールし、対応するメディアアイテムは、4分の1、3分の1、2分の1、又はなんらかの他の既定の量、ディスプレイ上にスクロールしたときに、前方に次いで後方に再生することを開始する。いくつかの実施形態では、第2の一連の画像は、(タッチ入力の終了が検出される前又は後のいずれかに)後方メディアアイテムがディスプレイ上にスライドしている間に、前後に再生し続ける。このように前後表示モードで後続の(又は前の)メディアアイテムを再生することにより、ナビゲーション中に前後する後続の(又は前の)メディアアイテムを開始し、これにより、後続の(又は前の)メディアアイテムが前後表示モードにあることをユーザに示す。これにより、ユーザが、コレクション内のメディアアイテムをそれらの選択された表示モードでより効率的にナビゲートし閲覧することを支援する。
いくつかの実施形態では、対応するメディアアイテムの複数のユーザ選択可能な表示モードは、対応するメディアアイテム内の一連の画像内の複数の画像からの並行して表示されたコンテンツを含む単一のマージされた画像を表示するように構成されたマージ画像表示モードを含む(906)(例えば、図5CVを参照)。対応するメディアアイテムがマージ画像表示モードにあるとき、電子デバイスは、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力(例えば、対応するメディアアイテムをディスプレイ上にスクロールさせるスワイプ/ドラッグジェスチャ)が検出されている間に、単一のマージされた画像を表示する。対応するメディアアイテムをディスプレイ上に表示させるタッチ入力の終了を検出したこと(例えば、スワイプ/ドラッグジェスチャの接触のリフトオフを検出したこと)に応じて、電子デバイスは、対応するメディアアイテム内の一連の画像内の複数の画像を再生し(例えば、単一のマージされた画像から一連の画像内の対応する画像にクロスフェードし、次いで対応する画像から一連の画像を通して再生し、対応する画像は、対応するメディアアイテム内の一連の画像内の開始画像、対応するメディアアイテム内の一連の画像内の代表画像、又は対応するメディアアイテム内の一連の画像内の終了画像のうちの1つである)、次いで、単一のマージされた画像を再表示する。いくつかの実施形態では、第2の一連の画像は、(タッチ入力の終了が検出された後で)後方メディアアイテムがディスプレイ上にスライドしている間に、再生し続ける。いくつかの実施形態では、一連の画像内の画像を再生することは、一連の画像内の開始画像で一連の画像内の画像の再生を開始し、次いで、一連の画像の全て又は一部(例えば、4分の1、2分の1、又は4分の3)を通して再生し、次いで、マージされた画像を再表示することを含む。ナビゲーションの間にこのようにマージ表示モードで後続の(又は前の)メディアアイテムを再生することにより、後続の(又は前の)メディアアイテムがマージ表示モードにあることをユーザに示す。これにより、ユーザが、コレクション内のメディアアイテムをそれらの選択された表示モードでより効率的にナビゲートし閲覧することを支援する。
いくつかの実施形態では、メディアアイテムのコレクションは、単一の静止画像のみを含むメディアアイテムを含む。そのようなメディアアイテムに対しては、メディアアイテムをディスプレイ上に表示させるタッチ入力(例えば、前方メディアアイテム上のスワイプジェスチャ又はコレクションナビゲーションコントロール内の静止画像の縮小表現上のタップジェスチャ)を検出したことに応じて、単一の静止画像のみが表示される。
いくつかの実施形態では、対応するメディアアイテムの複数のユーザ選択可能な表示モードは、動画表示モードを含む。対応するメディアアイテムが動画表示モードにある場合、電子デバイスは、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力が検出されている間に、対応するメディアアイテム内の一連の画像の代表画像を表示する。メディアアイテムは、ディスプレイ上に対応するメディアアイテムを表示させるタッチ入力の終了を検出したこと(例えば、タッチ入力の接触のリフトオフを検出したこと)に応じて再生しない。動画表示モードにある間のメディアアイテム上のタップジェスチャは、メディアアイテム内の一連の画像内の最も早い画像で再生を開始して、メディアを動画モードで再生させる。いくつかの実施形態では、再生アフォーダンスは、タップ入力がメディアアイテムの再生をトリガすることを示すために、メディアアイテムの表現上又はその付近に表示される
いくつかの実施形態では、コレクションナビゲーションコントロールに向けられた入力を使用して1つ以上のメディアアイテムにナビゲートするとき、1つ以上のメディアアイテムは、ナビゲーション中に再生されない。
第1のメディアアイテムの表現を表示している(例えば、第1のメディアアイテム内の一連の画像からの代表画像を表示している)間に、デバイスは、タッチ感知面上の対応する方向の移動を含むタッチ入力(例えば、接触によるスワイプジェスチャ)を検出する(908)(例えば、図5COを参照)。
タッチ入力を検出したことに応じて、移動が第1の方向(例えば、左方向)の移動であり、かつ第2の一連の画像に対応する後方メディアアイテムが、第1の表示モード(例えば、ライブリ写真表示モード)で表示されるものとして指定されているとの判定に従って、デバイスは、第1の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第1の表示モードで後方メディアアイテムを表示し(910)(例えば、図5CPを参照)、移動が第1の方向(例えば、左方向)の移動であり、かつ後方メディアアイテムが、第1の表示モードとは異なる第2の表示モード(例えば、ループ表示モード)で表示されるものとして指定されているとの判定に従って、第2の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第2の表示モードで後方メディアアイテムを表示する(例えば、図5CSを参照)。
いくつかの実施形態では、第1の表示モードは、ライブリ写真表示モードであり(912)、第1の表示モードで後方メディアアイテムを表示することは、タッチ入力を検出している間に、第2の一連の画像からの対応する画像の少なくとも一部分を表示することを含む(例えば、図5CPを参照)。いくつかの実施形態では、対応する画像は、第2の一連の画像内の第1の画像である。いくつかの実施形態では、対応する画像は、第2の一連の画像内の最後の画像である。いくつかの実施形態では、対応する画像は、第2の一連の画像内の代表画像の前に存在する画像である。いくつかの実施形態では、対応する画像は、第2の一連の画像内の代表画像の後に存在する画像である。いくつかの実施形態では、対応する画像は、代表画像である。第1の表示モードで後方メディアアイテムを表示することはまた、タッチ入力の終了を検出すること(例えば、タッチ入力を提供していた接触のリフトオフを検出すること)と、タッチ入力の終了を検出したことに応じて、対応する画像で開始して第2の一連の画像内の画像を再生することと、を含む。いくつかの実施形態では、第2の一連の画像内の画像を再生することは、第2の一連の画像内の開始画像で第2の一連の画像内の画像を再生することを開始することと、開始画像から代表画像まで第2の一連の画像を通して再生することと、を含む。いくつかの実施形態では、第2の一連の画像内の画像を再生することは、代表画像で第2の一連の画像内の画像を再生することを開始し、次いで第2の一連の画像内の開始画像にクロスフェードし、開始画像から第2の一連の画像を通して再生し、次いで代表画像を表示することを含む。
いくつかの実施形態では、第2の表示モードは、ループ表示モードであり(914)、第2の表示モードで後方メディアアイテムを表示することは、タッチ入力の少なくとも一部分を検出している間に、ループする第2の一連の画像を表示すること(例えば、タッチ入力は、後方メディアアイテムの一部分又は全てをディスプレイ上にスクロールし、後方メディアアイテムは、4分の1、3分の1、2分の1、又はなんらかの他の既定の量、ディスプレイ上にスクロールしたときにループすることを開始する)と、タッチ入力の終了を検出した(例えば、タッチ入力を提供していた接触のリフトオフを検出した)後に、ループする第2の一連の画像を表示し続けることと、を含む(例えば、図5CSを参照)。
いくつかの実施形態では、対応するメディアアイテムの複数のユーザ選択可能な表示モードは、対応するメディアアイテム内の一連の画像を(繰り返し)ループで表示する(例えば、シーケンスの開始から終了まで画像を順次表示し、次いでシーケンスの開始で再度開始する)ように構成されたループ表示モードを含む(916)。対応するメディアアイテムがループ表示モードにある場合、対応するメディア内の一連の画像は、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力(例えば、対応するメディアアイテムをディスプレイ上にスクロールさせるスワイプ/ドラッグジェスチャ)が検出されている間に、ループすることを開始し、対応するメディア内の一連の画像は、対応するメディアアイテムをディスプレイ上に表示させるタッチ入力が終了した後で(例えば、スワイプ/ドラッグジェスチャを提供していた接触のリフトオフを検出した後で)、ループし続ける(例えば、図5CSを参照)。いくつかの実施形態では、対応するメディアアイテムがループ表示モードにある場合、タッチ入力は、対応するメディアアイテムをディスプレイ上にスクロールし、対応するメディアアイテムは、4分の1、3分の1、2分の1、又はなんらかの他の既定の量、ディスプレイ上にスクロールしたときに、ループすることを開始する。いくつかの実施形態では、第2の一連の画像は、(タッチ入力の終了が検出される前又は後のいずれかに)後方メディアアイテムがディスプレイ上にスライドしている間に、ループし続ける。このようにループ表示モードで後続の(又は前の)メディアアイテムを再生することにより、ナビゲーション中に後続の(又は前の)メディアアイテムがループすることを開始し、これにより、後続の(又は前の)メディアアイテムがループ表示モードにあることをユーザに示す。これにより、ユーザが、コレクション内のメディアアイテムをそれらの選択された表示モードでより効率的にナビゲートし閲覧することを支援する。
いくつかの実施形態では、タッチ入力を検出したことに応じて、移動が第1の方向とは反対の第2の方向(例えば、右方向)の移動であり、かつ第3の一連の画像に対応する前方メディアアイテムが、第1の表示モード(例えば、ライブリ写真表示モード)で表示されるものとして指定されているとの判定に従って、デバイスは、第1の表示モードに基づいて判定された方法で第3の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第1の表示モードで前方メディアアイテムを表示し(916)、移動が第2の方向(例えば、右方向)の移動であり、かつ前方メディアアイテムが、第1の表示モードとは異なる第2の表示モード(例えば、ループ表示モード)で表示されるものとして指定されているとの判定に従って、第2の表示モードに基づいて判定された方法で第3の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第2の表示モードで前方メディアアイテムを表示する(例えば、図5CUを参照)。
いくつかの実施形態では、タッチ入力を検出したことに応じて、移動が第1の方向(例えば、左方向)の移動であり、かつ後方メディアアイテムが、第1の表示モード及び第2の表示モードとは異なる第3の表示モード(例えば、前後表示モード又はマージ表示モード)で表示されるものとして指定されているとの判定に従って、デバイスは、第3の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第3の表示モードで後方メディアアイテムを表示し(918)、移動が第2の方向(例えば、右方向)の移動であり、かつ前方メディアアイテムが、第3の表示モード(例えば、前後表示モード又はマージ表示モード)で表示されるものとして指定されているとの判定に従って、第3の表示モードに基づいて判定された方法で第3の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第3の表示モードで前方メディアアイテムを表示する(例えば、図5CU及び図5CWを参照)。
いくつかの実施形態では、タッチ入力を検出したことに応じて、移動が第1の方向(例えば、左方向)の移動であり、かつ後方メディアアイテムが、第1の表示モード、第2の表示モード、及び第3の表示モードとは異なる第4の表示モード(例えば、マージ表示モード又は前後表示モード)で表示されるものとして指定されているとの判定に従って、デバイスは、第4の表示モードに基づいて判定された方法で第2の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第4の表示モードで後方メディアアイテムを表示し(520)、移動が第2の方向(例えば、右方向)の移動であり、かつ前方メディアアイテムが、第4の表示モード(例えば、マージ表示モード又は前後表示モード)で表示されるものとして指定されているとの判定に従って、第4の表示モードに基づいて判定された方法で第3の一連の画像内の複数の画像からのコンテンツを表示することを含めて、第4の表示モードで前方メディアアイテムを表示する(例えば、図5CVを参照)。
いくつかの実施形態では、タッチ入力を検出したことに応じて、移動が第1の方向とは異なる第3の方向(例えば、上向き)の移動であるとの判定に従って、デバイスは、第1のメディアアイテムに関する追加情報、及び第1のメディアアイテムの異なる表示モードを選択するように構成された1つ以上の表示モード選択アフォーダンス(例えば、所与の表示モード選択アフォーダンスが第1のメディアアイテムの対応するユーザ選択可能な表示モードを示す、第1のメディアアイテムの複数のアクティブ化可能な縮小表現)を含むユーザインタフェース(例えば、表示モード選択ユーザインタフェース)を表示する(922)。いくつかの実施形態では、ユーザインタフェースは、一連の画像に対応するメディアアイテムの複数のユーザ選択可能な表示モードのうちの1つ(例えば、ライブリ写真表示モード、ループ表示モード、長時間露光表示モード、前後表示モード、動画表示モード、ストロボ効果表示モード、又はユーザによって選択された一連の画像を表示するための別の表示モード)をユーザに選択させるように構成された表示モード選択ユーザインタフェースである(例えば、図5BG~図5BH)。いくつかの実施形態では、第1のメディアアイテムが第1の表示モードにある間に、第2の表示モードに対応する表示モード選択アフォーダンスを選択することにより、第1のメディアアイテムの表示モードを第1の表示モードから第2の表示モードに切り替える。表示モード選択アフォーダンスの例は、方法700を参照してより詳細に説明されている。このように表示モード選択アフォーダンスを表示することにより、複数の表示モードを有するメディアアイテムに対する表示モードをナビゲートし、選択する直感的な方法を提供する。表示モード選択ユーザインタフェース内にメディアアイテムに関する追加情報を表示することにより、メディアアイテムに関するコンテキストを提供し、メディアアイテムに関連する追加情報への迅速なナビゲーション経路を提供する。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、メディアアイテムに関連する追加情報への迅速なアクセスを提供することによって)。
いくつかの実施形態では、タッチ入力を検出したことに応じて、移動が第1の方向とは異なる第4の方向(例えば、下向き)の移動であるとの判定に従って、デバイスは、第1のメディアアイテム、前方メディアアイテムのうちの1つ以上、及び/又は後方メディアアイテムのうちの1つ以上の表現を含む、コレクション内の複数のメディアアイテムの表現を並行して表示するユーザインタフェースを表示する(924)(例えば、コレクション内の複数のメディアアイテムの代表画像の静止サムネイルを表示する)(例えば、メディアアイテムのコレクションが図5Bに示されている)。第4の方向(例えば、下向き)のタッチ入力に応じて、サムネイルがメディアアイテムからの静止画像(例えば、代表画像及び/又はマージされた画像)である、メディアアイテムのコレクションのこの異なるビュー(例えば、メディアアイテムのサムネイル画像のアレイ)に切り替えることにより、コレクション内の他のメディアアイテムにより迅速にナビゲートすることを支援する。
いくつかの実施形態では、第1のメディアアイテムの表現は、第1のユーザインタフェース内に第1の倍率で表示され、デバイスは、第1のユーザインタフェース内に、第1のメディアアイテムの表現と、メディアアイテムのコレクションを通してナビゲートするように構成されたコレクションナビゲーションコントロール(例えば、図5DAのメディアアイテムコレクション領域510)を並行して表示し(926)(例えば、コントロール上のタップ又はスワイプ入力に基づいて、メディアアイテムのどの表現がプレビュー領域内に表示されるかを切り替える)、コレクションナビゲーションコントロールは、コレクション内のメディアアイテムのより小さい表現を含み(例えば、第1の倍率未満の第2の倍率で表示される複数のメディアアイテムの縮小表現を含む、スライダ、ストリップ、又は他の領域)、コレクションナビゲーションコントロールは、第1のメディアアイテムの第1のより小さい表現(例えば、第2の倍率で表示された第1のメディアアイテムの表現)(例えば、第1のメディアアイテムからの単一の代表画像)を含む。デバイスは、第1のメディアアイテムに対応する入力(例えば、第1の倍率で表示された第1のメディアアイテムの表現上のタップ、長い押圧、若しくは深い押圧などの入力、又はコレクションナビゲーションコントロール内に表示された第1のメディアアイテムのより小さい表現上のタップ、長い押圧、若しくは深い押圧などの入力)を検出し、第1のメディアアイテムに対応する入力(例えば、コレクションナビゲーションコントロール内に表示された第1のメディアアイテムの第1のより小さい表現上のタップ)を検出したことに応じて、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現を表示する(例えば、コレクションナビゲーションコントロール内に第1のメディアアイテム内の一連の画像からの代表画像及び追加画像を表示する)(例えば、図5DBの拡張表現551)。いくつかの実施形態では、第1の倍率で表示された第1のメディアアイテムの表現上の入力(例えば、タップ又は深い押圧)はまた、第1のメディアアイテムに対して現在選択されている表示モード(例えば、ライブリ写真表示モード)で第1のメディアアイテムを再生する。このようにコレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現を表示することにより、第1のメディアアイテムをコレクションナビゲーションコントロールを介して再生することができるという視覚的フィードバックをユーザに提供する。この視覚的フィードバックにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、第1のメディアアイテムに対応する入力を検出したことに応じて、デバイスは、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現内にスクラブインジケータ(例えば、図5DBのスクラバ544などの、再生ヘッド、スクラババー、再生位置インジケータ、又は他のスクラブインジケータ)を表示する(928)。いくつかの実施形態では、スクラブインジケータは、一連の画像内の代表画像に対応する位置に表示される。デバイスは、コレクションナビゲーションコントロールの一部分に向けられた入力を検出し(例えば、第1のメディアアイテムの拡張表現に沿った動きの成分を有するスクラブインジケータ上で開始する接触によるドラッグジェスチャを検出する、又は、コレクションナビゲーションコントロール上で開始するドラッグジェスチャを検出する)、コレクションナビゲーションコントロールの一部分に向けられた入力(例えば、スクラブインジケータに向けられた入力、又はコレクションナビゲーションコントロールに向けられた入力)を検出している間に、デバイスは、コレクションナビゲーションコントロールの一部分に向けられた入力に従って、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現とスクラブインジケータとの相対位置を変更し(例えば、第1のメディアアイテムの拡張表現に沿った入力の接触の動きの成分に従って第1のメディアアイテムの拡張表現内で再生スクラブインジケータを移動させる、又は再生スクラブインジケータをディスプレイ上の固定位置に維持しながら、第1のメディアアイテムの拡張表現を移動させる)、デバイスは、第1の倍率で、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現内のスクラブインジケータの現在位置に対応する第1のメディアアイテムの一連の画像内の画像を表示する(例えば、図5DB~図5DEを参照)。いくつかの実施形態では、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現とスクラブインジケータとの相対位置が変化すると、一連の画像の画像は、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現内のスクラブインジケータの位置に対応するように変化する。いくつかの実施形態では、一連の画像の拡張表現が、スクラブインジケータによって占有されていた位置を越えて移動すると、スクラブインジケータは、代わりにドラッグされ、入力が終了すると、一連の画像の拡張表現が跳ねて戻る。このようにコレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現と相互作用することにより、第1のメディアアイテム内の画像の閲覧の正確な制御をユーザに提供する。この正確な制御により、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、コレクションナビゲーションコントロールの一部分(例えば、スクラブインジケータ、又は第1のメディアアイテムの拡張表現)に向けられた入力を検出している間に、スクラブインジケータが、第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置まで所定の距離(ゼロより大きい)内にあるという判定に従って、デバイスは、第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置に(例えば、スクラブインジケータ又はコレクションナビゲーションコントロールを)スナップする(930)(例えば、図5DEを参照)。このスナップすることにより、ユーザがメディアアイテムのスクラブ中に代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し(932)、デバイスは、コレクションナビゲーションコントロールの一部分(例えば、スクラブインジケータ、又は第1のメディアアイテムの拡張表現)に向けられた入力を検出している間に、スクラブインジケータが、第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置まで所定の距離(ゼロより大きい)内にあるという判定に従って、第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置に(例えば、スクラブインジケータ又はコレクションナビゲーションコントロールを)スナップし、スクラブインジケータがその位置にスナップすると、触知出力を生成する(例えば、図5DEを参照)。スナップ中に触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、スクラブインジケータ又はコレクションナビゲーションコントロールが代表画像の表現に対応する位置にスナップしたことをユーザに警告し、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、電子デバイスは、1つ以上の触知出力生成器を有し(934)、コレクションナビゲーションコントロールの一部分に向けられた入力は、第1のメディアアイテムの一連の画像の代表画像に対応する第1のメディアアイテムの拡張表現の部分の既定の距離(ゼロよりも大きい)内にスクラブインジケータを動かす移動を含み、デバイスは、コレクションナビゲーションコントロールの一部分(例えば、スクラブインジケータ、又は第1のメディアアイテムの拡張表現)に向けられた入力を検出している間に、スナップ基準であって、スナップ基準は、スナップ基準が満たされるために、スクラブインジケータが第1のメディアアイテムの一連の画像の代表画像に対応する第1のメディアアイテムの拡張表現の部分の既定の距離(ゼロよりも大きい)内にあるときに、第1のメディアアイテムの拡張表現とスクラブインジケータとの間の相対移動が既定の速度未満であるという要件を含む、スナップ基準を移動が満たすとの判定に従って、スクラブインジケータが第1のメディアアイテムの一連の画像の代表画像の表現に対応する第1のメディアアイテムの拡張表現の部分にあるように、コレクションナビゲーションコントロールを更新し(例えば、スクラブインジケータを第1のメディアアイテムの一連の画像の代表画像に対応する第1のメディアアイテムの拡張表現の部分にスナップする、又は第1のメディアアイテムの一連の画像の代表画像に対応する第1のメディアアイテムの拡張表現をスクラブインジケータにその部分でスナップする)、対応する触知出力を生成し、(例えば、ドラッグ入力が、第1のメディアアイテムの現在の代表画像の縮小表現に向かって移動するときに、対応する速度閾値を下回る速度を有する場合、デバイスは、対応する触知出力を生成し、ドラッグ入力が、第1のメディアアイテムの現在の代表画像の縮小表現に向かって移動するときに、対応する速度閾値を上回る速度を有する場合、デバイスは、対応する触知出力を生成することを控える、又はその逆)、移動がスナップ基準を満たさないとの判定に従って、対応する触知出力を生成することなく、スクラブインジケータが移動に基づいて選択された第1のメディアアイテムの拡張表現に対する位置にあるように、コレクションナビゲーションコントロールを更新する(例えば、スクラブインジケータにスナップすることなく、第1のメディアアイテムの拡張表現を移動させる、又は第1のメディアアイテムの拡張表現にスナップすることなく、スクラブインジケータを移動させる)。このように触覚フィードバックを提供することにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザを支援することになるいくつかの状況では触覚フィードバックを提供するが、多過ぎるフィードバックを提供する場合がある、又はユーザを混乱させる場合がある他の状況では、触覚フィードバックを提供せず、それにより、ユーザが意図した結果を達成することを支援し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現内にスクラブインジケータを表示している間に、デバイスは、コレクション内の別のメディアアイテムにナビゲートする入力を検出し(936)(例えば、第1の倍率での第1のメディアアイテムの表現上のスワイプジェスチャを検出する(例えば、図5DFを参照)、又はコレクションナビゲーションコントロール内の別のメディアアイテム上のタップジェスチャを検出する、又はコレクションナビゲーションコントロール上のスワイプジェスチャを検出する)、コレクション内の別のメディアアイテムにナビゲートする入力を検出したことに応じて、コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現を表示することを停止する(及び、コレクションナビゲーションコントロール内の第1のメディアアイテムの前の(元の)表現(第1のメディアアイテムからの単一の代表画像などの)を表示する)(例えば、図5DF~図5DGを参照)。コレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現を表示することを停止することにより、デバイスが別のメディアアイテムにナビゲートしたという視覚的フィードバックをユーザに提供する。この視覚的フィードバックにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザにナビゲーションコンテキストを提供することによって)。
いくつかの実施形態では、スクラブインジケータをコレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現内に表示している間に、スクラブインジケータが第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置から離れて位置するとの判定に従って、デバイスは、第1のメディアアイテムの一連の画像の代表画像のインジケータ(例えば、図5DDのドット542などのドット)を表示し(938)、スクラブインジケータが第1のメディアアイテムの一連の画像の代表画像の表現に対応する位置に位置するとの判定に従って、第1のメディアアイテムの一連の画像の代表画像のインジケータの表示を控える。いくつかの実施形態では、コレクションナビゲーションコントロールは、第1のメディアアイテムの現在の代表画像の隣にドット又は他のインジケータを表示し、スクラブインジケータが第1のメディアアイテムの現在の代表画像に位置するときに、ドットは消失する。このようにメディアアイテムの代表画像のインジケータを表示することにより、ユーザに改善された視覚的フィードバックを提供し、ユーザがメディアアイテムのスクラブ中に代表画像に戻ることを助ける。これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる(例えば、ユーザがどの入力がユーザによって意図された結果を生成するかを判定することを支援するフィードバックを提供し、デバイスを操作する/デバイスと相互作用するときのユーザの誤りを低減することによって)。
いくつかの実施形態では、第1の表示モードで第1のメディアアイテムの表現を表示している間に、第1のユーザインタフェースは、第1の倍率で第1のメディアアイテム内の一連の画像内の画像を順次表示するように構成された第1の(既定の)領域を並行して表示する(940)(例えば、図5DHを参照)。いくつかの実施形態では、第1の領域は、一連の画像内の画像を一度に1つずつ表示し、対応する画像が表示されると、対応する画像が第1の領域を満たす。第1のユーザインタフェースは、第1の倍率未満の第2の倍率でのメディアアイテムのコレクション内のメディアアイテムの表現を含む、第1の領域とは別個の第2の(既定の)領域を並行して表示し(例えば、複数のメディアアイテムの縮小表現を含むスライダ内に)、デバイスは、第1の領域内の第1のメディアアイテムの一連の画像からの代表画像と、第2の領域内の第1のメディアアイテムの一連の画像からの代表画像の表現とを並行して表示し、第1の領域内の第1のメディアアイテムの一連の画像からの代表画像及び第2の領域内の第1のメディアアイテムの一連の画像からの代表画像の表現を並行して表示している間に、入力を検出し(例えば、図5DHの第1の領域内の一連の画像からの代表画像上の接触580-26による押圧ジェスチャを検出する)、入力を検出したことに応じて、第1の領域内に第1の表示モードで第1のメディアアイテムの一連の画像を再生し、第2の領域内に、第1のメディアアイテムの代表画像の表現、第1のメディアアイテムの一連の画像内の追加画像の表現、及び第1の領域内に表示されている一連の画像内の現在の再生位置を示すスクラブインジケータを表示する。いくつかの実施形態では、第1の領域内の一連の画像の再生中に、(再生前の第1のメディアアイテム内の一連の画像の代表画像の表現のみを表示する)第2の領域の一部分は、図5DH~図5DJに示すように、(例えば、水平に)拡大して、第1のメディアアイテム内の一連の画像内の追加画像の表現、並びに第1の領域内に示されている一連の画像内の現在位置を示すスクラブインジケータを並行して表示する。このようにコレクションナビゲーションコントロール内の第1のメディアアイテムの拡張表現を表示することにより、第1の領域内に示されている一連の画像内の現在位置に関する視覚的フィードバックをユーザに提供する。この視覚的フィードバックにより、ユーザにナビゲーションコンテキストを提供することによって、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、スクラブインジケータは、第2の領域内の第1のメディアアイテムの代表画像の表現の位置に最初に表示される(942)(例えば、図5DIを参照)。代表画像の表現の位置に最初にスクラブインジケータを表示することにより、第1の領域内に示されている一連の画像内の現在位置に関する視覚的フィードバックをユーザに提供する。この視覚的フィードバックにより、ユーザにナビゲーションコンテキストを提供することによって、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
図9A~図9Iにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法600、700、800、及び1000)に関して本明細書で記載されている他のプロセスの詳細は、また、図9A~図9Iに関連して上述されている方法900に類似の方法で適用可能であることも留意されたい。例えば、方法900を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションは、任意選択的に、本明細書に記載の他の方法(例えば、方法600、700、800、及び1000)を参照して本明細書で記載されている接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図10A~図10Cは、いくつかの実施形態に係る、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現とメディアアイテムの静的表現との間の対応を示すための方法のフロー図である。方法1000は、ディスプレイ、タッチ感知面、及び任意選択的にタッチ感知面との接触の強度を検出するための1つ以上のセンサを有する電子デバイス(例えば、デバイス300、図3、又はポータブル多機能デバイス100、図1A)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にあるか又はこれに組み込まれている。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法1000の一部の動作が任意選択的に組み合わされ、かつ/又は、一部の動作の順序が任意選択的に変更される。
以下に説明するように、方法1000は、メディアアイテムが複数のユーザ選択可能な表示モードを有する、メディアアイテムの動的表現(例えば、メディアアイテム内の一連の画像の動的再生)とメディアアイテムの静的表現(例えば、メディアアイテム内の一連の画像からの代表画像又はマージされた画像)との間の対応を示すための直感的な方法を提供する。この方法は、コレクション内のメディアアイテムをそれらの選択された表示モードでナビゲートし、閲覧するための、より効率的なヒューマンマシンインタフェースを生成する。バッテリ動作電子デバイスに関しては、ユーザがより効率的にメディアアイテムをそれらの選択された表示モードでナビゲートし閲覧することを可能にすることにより、電力を節約し、バッテリを充電する間隔が増大する。
デバイスは、ディスプレイ上の第1のユーザインタフェース内に、複数のユーザ選択可能な表示モードの対応する表示モード(例えば、ライブリ写真表示モード)で、一連の画像に対応する第1のメディアアイテムの第1の表現(例えば、仮想シャッターボタン上のタップ、物理シャッターボタンのクリック、又は仮想若しくは物理シャッターボタン上の長い押圧入力などのシャッターボタンの単一のアクティブ化に応じてキャプチャされた画像)を表示する(1002)(例えば、図5DKを参照)。いくつかの実施形態では、第1の表現は、ユーザが第1のメディアアイテムを閲覧しているが、第1のメディアアイテムと相互作用していない(例えば、押圧入力若しくはスワイプ入力を実行していない、又は第1のメディアアイテムを編集するための編集ユーザインタフェースを使用していない)ときに表示されるメディアアイテムの表現である。
ディスプレイ上に、対応する表示モードで第1のメディアアイテムの第1の表現を表示している間に、デバイスは、第1のメディアアイテムの表現に対応する位置でのタッチ感知面上のタッチ入力を検出する(1004)(例えば、図5DLを参照)。
タッチ入力を検出したことに応じて、かつタッチ入力が第1のメディアアイテムの表現に対応する位置でタッチ感知面上で検出され続けている間に、タッチ入力がタッチの対応する特性の大きさに基づく表現変更基準を満たし、かつ第1のメディアアイテムの対応する表示モードが、第1のメディアアイテムの第1の表現が(例えば、ユーザ入力なしに自動的に)経時的に変化する第1のメディアアイテムの動的表現である表示モード(例えば、ループ又は前後)にあるとの判定に従って、デバイスは、メディアアイテムの第1の表現の表示を経時的に変化しない第1のメディアアイテムの静的表現(例えば、一連の画像の代表画像)に置き換え(1006)、タッチ入力が表現変更基準を満たさないとの判定に従って、第1のメディアアイテムの第1の表現の表示を動的表現として維持する(例えば、図5DMを参照)。
いくつかの実施形態では、タッチの対応する特性は、タッチの強度であり(1008)、表現変更基準は、表現変更基準が満たされるために、タッチの特性強度が対応する閾値を上回って増大するという要件を含む(例えば、図5DMを参照)。タッチ入力の強度を使用して、メディアアイテムの動的表現の表示からメディアアイテムの静的表現の表示に切り替えることにより、追加の表示されたコントロールを必要とせずにメディアアイテムの表示のための追加の制御オプションを提供し、これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、タッチの対応する特性は、タッチの持続時間であり(1010)、表現変更基準は、表現変更基準が満たされるために、タッチが所定の時間の間に所定の量より多く移動しないという要件を含む。タッチ入力の持続時間を使用して、メディアアイテムの動的表現の表示からメディアアイテムの静的表現の表示に切り替えることにより、追加の表示されたコントロールを必要とせずにメディアアイテムの表示のための追加の制御オプションを提供し、これにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、タッチ入力を検出したことに応じて、タッチ入力が表現変更基準を満たし、かつ第1のメディアアイテムの対応する表示モードが、第1のメディアアイテムの第1の表現が経時的に変化しない第1のメディアアイテムの静的表現(例えば、ライブリ写真に対する代表画像、又は長時間露光に対するマージされた画像)である第2の表示モードにあるとの判定に従って、デバイスは、メディアアイテムの第1の表現の表示を(例えば、ユーザ入力なしに自動的に)経時的に変化する第1のメディアアイテムの動的表現に置き換える(1012)(例えば、一連の画像の開始から開始して、又は一連の画像の代表画像から開始して、一連のメディアアイテムを通して再生する)(例えば、図5DP~図5DQを参照)。
いくつかの実施形態では、第1のメディアアイテムの第1の表現は、第1のメディアアイテムの動的表現であり(1014)、第1のメディアアイテムの動的表現は、一連の画像の開始から一連の画像の終了まで一連の画像を通して再生し、次いで一連の画像の開始に戻って開始する(例えば、代表画像で開始する、又は一連の画像内の開始画像で開始する)ことを含み、第1のメディアアイテムの静的表現は、一連の画像からの代表画像である(例えば、図5DK~図5DMを参照)。ループするメディアアイテムと同じメディアアイテムの代表画像との間の対応を示すことにより、ユーザがより効率的にコレクション内のメディアアイテムをそれらの選択された表示モードでナビゲートし閲覧することを支援し、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、第1のメディアアイテムの第1の表現は、第1のメディアアイテムの動的表現であり(1016)、第1のメディアアイテムの動的表現は、一連の画像の開始から一連の画像の終了まで一連の画像を通して再生し、次いで一連の画像の終了から一連の画像の開始まで一連の画像を通して再生する(例えば、代表画像で開始する、又は一連の画像内の開始画像で開始する)ことを含み、第1のメディアアイテムの静的表現は、一連の画像からの代表画像である(例えば、図5DT~図5DUを参照)。前後に再生するメディアアイテムと同じメディアアイテムの代表画像との間の対応を示すことにより、ユーザがより効率的にコレクション内のメディアアイテムをそれらの選択された表示モードでナビゲートし閲覧することを支援し、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、第1のメディアアイテムの第1の表現は、第1のメディアアイテムの静的表現であり(1018)、第1のメディアアイテムの静的表現は、一連の画像からの代表画像であり、第1のメディアアイテムの動的表現は、一連の画像を通して再生する(例えば、代表画像で開始する、又は一連の画像内の開始画像で開始する)ことを含む(例えば、図5DV~図5DWを参照)。メディアアイテムの静的代表画像と同じメディアアイテムの動的再生との間の対応を示すことにより、ユーザがより効率的にコレクション内のメディアアイテムをそれらの選択された表示モードでナビゲートし閲覧することを支援し、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、第1のメディアアイテムの第1の表現は、第1のメディアアイテムの静的表現であり(1020)、第1のメディアアイテムの静的表現は、一連の画像内の2つ以上の画像からの並行して表示されたコンテンツを含む画像であり、第1のメディアアイテムの動的表現は、一連の画像を通して再生する(例えば、代表画像で開始する、又は一連の画像内の開始画像で開始する)ことを含む(例えば、図5DP~図5DQ)。メディアアイテムの静的マージ画像と同じメディアアイテムの一連の画像の動的再生との間の対応を示すことにより、ユーザがより効率的にコレクション内のメディアアイテムをそれらの選択された表示モードでナビゲートし閲覧することを支援し、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、メディアアイテムの一連の画像に対する代表画像は、方法600及び800を参照して上述したような編集ユーザインタフェースを介して設定することができる。いくつかの実施形態では、メディアアイテムの一連の画像に対する開始画像及び/又は終了画像は、方法600及び800を参照して上述したような編集ユーザインタフェースを介して設定することができる。
いくつかの実施形態では、タッチ入力が表現変更基準を満たし、かつメディアアイテムの静的表現の表示が第1のメディアアイテムの動的表現の表示に置き換えられた場合、ディスプレイ上に第1のメディアアイテムの動的表現を表示している間に、デバイスは、タッチ入力の終了(例えば、タッチ感知面からのタッチのリフトオフ)を検出し(1022)、タッチ入力の終了を検出したことに応じて、メディアアイテムの動的表現の表示を第1のメディアアイテムの静的表現の表示に置き換える(例えば、静的表現から動的表現への遷移は、タッチ入力がディスプレイ上に留まる限り維持される)(例えば、図5DQ及び図5DRを参照)。タッチ入力の終了を検出すると、メディアアイテムの動的表現の表示からメディアアイテムの静的表現の表示に戻して切り替えることにより、1つのタッチ入力で、動的から静的に及び静的から動的に戻る両方の方向で表示されるものを切り替えることを可能にし、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、タッチ入力が表現変更基準を満たし、かつメディアアイテムの静的表現の表示が第1のメディアアイテムの動的表現の表示に置き換えられた場合、ディスプレイ上に第1のメディアアイテムの動的表現を表示している間に、デバイスは、タッチ入力の強度の低下を検出し(1024)、タッチ入力の強度の低下を検出したことに応じて、入力の強度の低下が対応する強度閾値を下回るとの判定に従って、メディアアイテムの動的表現の表示を第1のメディアアイテムの静的表現の表示に置き換え(例えば、静的表現から動的表現への遷移は、タッチ入力がディスプレイ上に留まる限り維持される)、入力の強度の低下が対応する強度閾値を下回らないとの判定に従って、メディアアイテムの動的表現の表示を維持する(例えば、図5DQ及び図5DSを参照)。タッチ入力の強度の減少を検出すると、メディアアイテムの動的表現の表示からメディアアイテムの静的表現の表示に戻して切り替えることにより、1つのタッチ入力で、動的から静的に及び静的から動的に戻る両方の方向で表示されるものを切り替えることを可能にし、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、タッチ入力が表現変更基準を満たし、かつメディアアイテムの動的表現の表示が第1のメディアアイテムの静的表現の表示に置き換えられた場合、第1のメディアアイテムの静的表現を表示している間に、デバイスは、タッチ入力の終了(例えば、タッチ感知面からのタッチのリフトオフ)を検出し(1026)、タッチ入力の終了を検出したことに応じて、メディアアイテムの静的表現の表示を第1のメディアアイテムの動的表現の表示に置き換える(例えば、動的表現から静的表現への遷移は、タッチ入力がディスプレイ上に留まる限り維持される)(例えば、図5DM~図5DNを参照)。タッチ入力の終了を検出すると、メディアアイテムの静的表現の表示からメディアアイテムの動的表現の表示に戻して切り替えることにより、1つのタッチ入力で、静的から動的に及び動的から静的に戻る両方の方向で表示されるものを切り替えることを可能にし、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
いくつかの実施形態では、タッチ入力が表現変更基準を満たし、かつメディアアイテムの動的表現の表示が第1のメディアアイテムの静的表現の表示に置き換えられた場合、第1のメディアアイテムの動的表現を表示している間に、デバイスは、タッチ入力の強度の低下を検出し(1028)、タッチ入力の強度の低下を検出したことに応じて、入力の強度の低下が対応する強度閾値を下回るとの判定に従って、メディアアイテムの静的表現の表示を第1のメディアアイテムの動的表現の表示に置き換え(例えば、静的表現から動的表現への遷移は、タッチ入力がディスプレイ上に留まる限り維持される)、入力の強度の低下が対応する強度閾値を下回らないとの判定に従って、メディアアイテムの静的表現の表示を維持する(例えば、図5DM及び図5DOを参照)。タッチ入力の強度の減少を検出すると、メディアアイテムの静的表現の表示からメディアアイテムの動的表現の表示に戻して切り替えることにより、1つのタッチ入力で、静的から動的に及び動的から静的に戻る両方の方向で表示されるものを切り替えることを可能にし、それにより、デバイスの操作性が向上し、ユーザデバイスインタフェースがより効率的になる。
図10A~図10Cにおける動作について説明された特定の順序は単なる例であり、説明された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書に記載される動作を再順序付けるための様々な方法を認識するであろう。加えて、本明細書に記載の他の方法(例えば、方法600、700、800、及び900)に関して本明細書で記載された他のプロセスの詳細はまた、図10A~図10Cに関連して上述された方法1000に類似の方法で適用可能であることも留意されたい。例えば、方法1000を参照して上述した接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションは、任意選択的に、本明細書に記載の他の方法(例えば、方法600、700、800、及び900)を参照して本明細書で記載されている接触、ジェスチャ、ユーザインタフェースオブジェクト、範囲トリムアフォーダンス、表示モード、メディアアイテム、代表画像選択アフォーダンス、触知出力、及びアニメーションの特性のうちの1つ以上を有する。簡潔にするために、それらの詳細はここでは繰り返さない。
図6A~図6F、図7A~図7D、図8A~図8F、及び図9A~図9Iを参照して上述した動作は、任意選択的に図1A~図1Bに記される構成要素によって実施される。例えば、動作は、任意選択的にイベントソート部170、イベント認識部180、及びイベント処理部190により実施される。イベントソート部170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136-1に配信する。アプリケーション136-1の対応するイベント認識部180は、そのイベント情報を対応するイベント定義186と比較し、タッチ感知面上の第1の位置における第1の接触(又は、デバイスの回転)が、ユーザインタフェース上のオブジェクトの選択、又は1つの向きから別の向きへのデバイスの回転などの、所定のイベント又はサブイベントに対応するかどうかを判定する。対応する既定のイベント又はサブイベントが検出されると、イベント認識部180は、そのイベント又はサブイベントの検出に関連付けられたイベント処理部190をアクティブ化する。イベント処理部190は、アプリケーション内部状態192を更新するために、データ更新部176又はオブジェクト更新部177を、任意選択で使用するか又は呼び出す。いくつかの実施形態では、イベント処理部190は、アプリケーションにより表示されるものを更新するために、対応するGUI更新部178にアクセスする。同様に、当業者にとって、他の処理が図1A~図1Bに記される構成要素に基づいてどのように実施されるかは明らかであろう。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に適した様々な変更で本発明及び様々な記載された実施形態を最良の形で使用することを有効化するために、これらの実施形態を選択し記載した。

Claims (22)

  1. ディスプレイ及びタッチ感知面を有する電子デバイスにおいて、
    前記ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムであって、前記メディアアイテムが、第1の表示モードにおける前記一連の画像からの代表画像を含む、メディアアイテムの表現を表示することと、
    前記第1の表示モードで前記一連の画像に対応する前記メディアアイテムの前記表現を表示している間に、第1の入力を検出することと、
    前記第1の入力を検出したことに応じて、前記ディスプレイ上に前記第1の表示モードで、前記メディアアイテムの編集ユーザインタフェースであって、前記編集ユーザインタフェースは、
    前記一連の画像内の画像を第1の倍率で順次表示するように構成された第1の領域と、
    前記第1の領域とは別個の第2の領域であって、
    前記第2の領域内のスライダ内に表示される、前記第1の倍率未満の第2の倍率での前記一連の画像内の画像の縮小表現と、
    ユーザ調整可能な代表画像選択アフォーダンスであって、前記スライダに対する前記代表画像選択アフォーダンスの位置を介して前記一連の画像内の新しい代表画像を選択するように構成された、代表画像選択アフォーダンスと、
    複数の範囲トリムアフォーダンスであって、
    前記一連の画像を通して再生するための第1の境界を示す、ユーザ調整可能な開始トリムアフォーダンス、
    及び前記一連の画像を通して再生するための第2の境界を示す、ユーザ調整可能な終了トリムアフォーダンス、
    を含む、複数の範囲トリムアフォーダンスと、
    を含む、第2の領域と、
    を並行して表示する、編集ユーザインタフェースを表示することと、
    前記編集ユーザインタフェースを表示している間に、前記代表画像選択アフォーダンスに向けられた第2の入力を検出することと、
    前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、
    前記第2の入力に従って、前記スライダに対して前記代表画像選択アフォーダンスを移動させることと、
    前記スライダに対する前記代表画像選択アフォーダンスの現在位置に対応する前記第2の領域内の画像の視覚的強調表現を表示することと、
    前記第1の領域内に、前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記一連の画像からの画像を表示することと、
    を含む、方法。
  2. 前記メディアアイテム内の前記一連の画像は、カメラによって撮影されており、
    前記一連の画像は、前記代表画像を取得した後に前記カメラによって取得された1つ以上の画像を含み、
    前記一連の画像は、前記代表画像を取得する前に前記カメラによって取得された1つ以上の画像を含む、
    請求項に記載の方法。
  3. 前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記第2の領域内の画像の前記表現及び前記代表画像選択アフォーダンスの前記現在位置に対応する前記第1の領域内の前記画像は、前記代表画像選択アフォーダンスの前記位置が前記スライダに対して移動するに従って、更新される、請求項に記載の方法。
  4. 前記第2の入力の終了を検出することと、
    前記第2の入力の前記終了を検出したことに応じて、代表画像確認アフォーダンスを表示することと、
    を含む、請求項からのいずれか一項に記載の方法。
  5. 前記代表画像確認アフォーダンスを表示している間に、前記代表画像確認アフォーダンスに向けられた入力を検出することと、
    前記代表画像確認アフォーダンスに向けられた前記入力を検出したことに応じて、前記一連の画像内の前記代表画像を、前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記画像に更新することと、
    を含む、請求項に記載の方法。
  6. 前記代表画像確認アフォーダンスに向けられた前記入力を検出したことに応じて、前記第2の領域内に、前記一連の画像の元の前記代表画像のインジケータを表示することを含む、
    請求項に記載の方法。
  7. 前記電子デバイスが、1つ以上の触知出力生成器を有し、前記方法が、
    前記一連の画像内の前記代表画像を更新した後で、前記編集ユーザインタフェース内で、かつ前記代表画像選択アフォーダンスに向けられた入力を検出している間に、前記代表画像選択アフォーダンスが前記一連の画像内の更新された前記代表画像の表現に対応する位置の上を移動するときに、触知出力を生成することを含む、
    請求項に記載の方法。
  8. 前記代表画像確認アフォーダンスを表示している間に、前記代表画像確認アフォーダンスに向けられていない入力を検出することと、
    前記代表画像確認アフォーダンスに向けられていない前記入力を検出したことに応じて、前記一連の画像内の前記代表画像を、前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記画像に更新することを控えることと、
    を含む、請求項に記載の方法。
  9. 前記代表画像確認アフォーダンスに向けられていない前記入力を検出したことに応じて、
    前記代表画像確認アフォーダンスを表示することを停止することと、
    前記スライダに対する前記代表画像選択アフォーダンスの前記位置を前記代表画像の表現に移動させることと、
    を含む、請求項に記載の方法。
  10. 前記編集ユーザインタフェースを表示している間に、対応する範囲トリムアフォーダンスに向けられた第3の入力であって、
    前記第3の入力は、前記対応する範囲トリムアフォーダンスが開始位置にある間に開始し、
    かつ前記第3の入力は、対応する大きさを有する、
    第3の入力を検出することと、
    前記対応する範囲トリムアフォーダンスに向けられた前記第3の入力を検出したことに応じて、
    前記第3の入力の前記対応する大きさが、前記対応する範囲トリムアフォーダンスの前記開始位置と前記代表画像選択アフォーダンスとの間の距離未満の第1の量だけの前記対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、前記第1の量だけ前記対応する範囲トリムアフォーダンスを移動させることと、
    前記第3の入力の前記対応する大きさが、前記対応する範囲トリムアフォーダンスの前記開始位置と前記代表画像選択アフォーダンスとの間の前記距離よりも大きい第2の量だけの前記対応する範囲トリムアフォーダンスの移動に対応するとの判定に従って、前記対応する範囲トリムアフォーダンスを前記代表画像選択アフォーダンスに隣接して移動させることと、
    を含む、請求項からのいずれか一項に記載の方法。
  11. 前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、前記第2の領域内に、前記一連の画像内現在の前記代表画像のインジケータを表示することを含む、
    請求項からのいずれか一項に記載の方法。
  12. 前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、前記代表画像選択アフォーダンスが前記一連の画像内の前記代表画像の表現に対応する位置にあるときに、前記第2の領域内に、前記一連の画像内現在の前記代表画像の前記インジケータを表示することを控えることを含む、
    請求項11に記載の方法。
  13. 前記電子デバイスが、1つ以上の触知出力生成器を有し、前記方法が、
    前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、前記代表画像選択アフォーダンスが前記一連の画像内の前記代表画像の表現に対応する位置の上を移動するときに、触知出力を生成することを含む、
    請求項からのいずれか一項に記載の方法。
  14. 前記電子デバイスが、1つ以上の触知出力生成器を有し、前記方法が、
    前記編集ユーザインタフェース内で、かつ対応する範囲トリムアフォーダンスに向けられた入力を検出している間に、前記対応する範囲トリムアフォーダンスが前記一連の画像内の前記代表画像の表現に対応する位置に移動されると、触知出力を生成することを含む、
    請求項からのいずれか一項に記載の方法。
  15. 前記代表画像選択アフォーダンスを範囲トリムアフォーダンスを越えた位置に移動する要求に対応する入力を検出することと、
    前記代表画像選択アフォーダンスを移動する前記要求に対応する前記入力を検出したことに応じて、前記範囲トリムアフォーダンスを移動させることと、
    を含む、請求項からのいずれか一項に記載の方法。
  16. 前記代表画像選択アフォーダンスを範囲トリムアフォーダンスを越えた位置に移動する要求に対応する入力を検出することと、
    前記代表画像選択アフォーダンスを移動する前記要求に対応する前記入力を検出したことに応じて、
    前記範囲トリムアフォーダンスが前記一連の画像の終端にないとの判定に従って、前記範囲トリムアフォーダンスを移動させることと、
    前記範囲トリムアフォーダンスが前記一連の画像の終端にあるとの判定に従って、前記範囲トリムアフォーダンスを移動させることを控えることと、
    を含む、請求項からのいずれか一項に記載の方法。
  17. 範囲トリムアフォーダンスに対して前記代表画像選択アフォーダンスを移動する要求に対応する入力を検出することと、
    前記範囲トリムアフォーダンスに対して前記代表画像選択アフォーダンスを移動する前記要求に対応する前記入力を検出したことに応じて、
    前記範囲トリムアフォーダンスに対して前記代表画像選択アフォーダンスを移動する前記要求に対応する前記入力が、前記範囲トリムアフォーダンスを前記代表画像選択アフォーダンスを越えた位置に移動する要求であるとの判定に従って、前記範囲トリムアフォーダンスを前記代表画像選択アフォーダンスに隣接して移動させ、触知出力を生成することと、
    前記範囲トリムアフォーダンスに対して前記代表画像選択アフォーダンスを移動する前記要求に対応する前記入力が、前記代表画像選択アフォーダンスを前記範囲トリムアフォーダンスを越えた位置に移動する要求であるとの判定に従って、触知出力を生成することなく、前記代表画像選択アフォーダンスを前記範囲トリムアフォーダンスに隣接して移動させることと、
    を含む、請求項からのいずれか一項に記載の方法。
  18. 前記一連の画像を編集する要求に対応する入力を検出することと、
    前記一連の画像を編集する前記要求に対応する前記入力を検出したことに応じて、
    前記一連の画像を編集する前記要求に対応する前記入力が、前記代表画像選択アフォーダンスを現在の前記代表画像の表現に隣接して又は前記表現を越えて移動する要求であるとの判定に従って、前記代表画像選択アフォーダンスを移動させ、前記入力の移動速度が対応する速度閾値を上回るか否かに基づいて、条件付きで触知出力を生成することと、
    前記一連の画像を編集する前記要求に対応する前記入力が、範囲トリムアフォーダンスを現在の前記代表画像の前記表現を越えた位置に移動する要求であるとの判定に従って、前記範囲トリムアフォーダンスを移動させ、前記入力の前記移動速度に関わらず触知出力を生成することと、
    を含む、請求項からのいずれか一項に記載の方法。
  19. ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を備える、電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
    前記ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムであって、前記メディアアイテムが、第1の表示モードにおける前記一連の画像からの代表画像を含む、メディアアイテムの表現を表示し、
    前記第1の表示モードで前記一連の画像に対応する前記メディアアイテムの前記表現を表示している間に、第1の入力を検出し、
    前記第1の入力を検出したことに応じて、前記ディスプレイ上に前記第1の表示モードで、前記メディアアイテムの編集ユーザインタフェースであって、前記編集ユーザインタフェースは、
    前記一連の画像内の画像を第1の倍率で順次表示するように構成された第1の領域と、
    前記第1の領域とは別個の第2の領域であって、
    前記第2の領域内のスライダ内に表示される、前記第1の倍率未満の第2の倍率での前記一連の画像内の画像の縮小表現と、
    ユーザ調整可能な代表画像選択アフォーダンスであって、前記スライダに対する前記代表画像選択アフォーダンスの位置を介して前記一連の画像内の新しい代表画像を選択するように構成された、代表画像選択アフォーダンスと、
    複数の範囲トリムアフォーダンスであって、
    前記一連の画像を通して再生するための第1の境界を示す、ユーザ調整可能な開始トリムアフォーダンス、
    及び前記一連の画像を通して再生するための第2の境界を示す、ユーザ調整可能な終了トリムアフォーダンス、
    を含む、複数の範囲トリムアフォーダンスと、
    を含む、第2の領域と、
    を並行して表示する、編集ユーザインタフェースを表示し、
    前記編集ユーザインタフェースを表示している間に、前記代表画像選択アフォーダンスに向けられた第2の入力を検出し、
    前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、
    前記第2の入力に従って、前記スライダに対して前記代表画像選択アフォーダンスを移動させ、
    前記スライダに対する前記代表画像選択アフォーダンスの現在位置に対応する前記第2の領域内の画像の視覚的強調表現を表示し、
    前記第1の領域内に、前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記一連の画像からの画像を表示する、
    ための命令群を含む、電子デバイス。
  20. 前記1つ以上のプログラムは、請求項2~18のいずれか1項に記載の方法を実行するための命令群を含む、請求項19に記載の電子デバイス。
  21. 命令群を含むプログラムであって、前記命令群は、ディスプレイ及びタッチ感知面を有する電子デバイスによって実行されると、前記電子デバイスに、
    前記ディスプレイ上の第1のユーザインタフェース内に、一連の画像に対応するメディアアイテムであって、前記メディアアイテムが、第1の表示モードにおける前記一連の画像からの代表画像を含む、メディアアイテムの表現を表示させ、
    前記第1の表示モードで前記一連の画像に対応する前記メディアアイテムの前記表現を表示している間に、第1の入力を検出させ、
    前記第1の入力を検出したことに応じて、前記ディスプレイ上に前記第1の表示モードで、前記メディアアイテムの編集ユーザインタフェースであって、前記編集ユーザインタフェースは、
    前記一連の画像内の画像を第1の倍率で順次表示するように構成された第1の領域と、
    前記第1の領域とは別個の第2の領域であって、
    前記第2の領域内のスライダ内に表示される、前記第1の倍率未満の第2の倍率での前記一連の画像内の画像の縮小表現と、
    ユーザ調整可能な代表画像選択アフォーダンスであって、前記スライダに対する前記代表画像選択アフォーダンスの位置を介して前記一連の画像内の新しい代表画像を選択するように構成された、代表画像選択アフォーダンスと、
    複数の範囲トリムアフォーダンスであって、
    前記一連の画像を通して再生するための第1の境界を示す、ユーザ調整可能な開始トリムアフォーダンス、
    及び前記一連の画像を通して再生するための第2の境界を示す、ユーザ調整可能な終了トリムアフォーダンス、
    を含む、複数の範囲トリムアフォーダンスと、
    を含む、第2の領域と、
    を並行して表示する、編集ユーザインタフェースを表示させ、
    前記編集ユーザインタフェースを表示している間に、前記代表画像選択アフォーダンスに向けられた第2の入力を検出させ、
    前記代表画像選択アフォーダンスに向けられた前記第2の入力を検出している間に、
    前記第2の入力に従って、前記スライダに対して前記代表画像選択アフォーダンスを移動させ、
    前記スライダに対する前記代表画像選択アフォーダンスの現在位置に対応する前記第2の領域内の画像の視覚的強調表現を表示させ、
    前記第1の領域内に、前記スライダに対する前記代表画像選択アフォーダンスの前記現在位置に対応する前記一連の画像からの画像を表示させる、
    プログラム。
  22. 前記プログラムは、請求項2~18のいずれか1項に記載の方法を実行するための命令群を含む、請求項21に記載のプログラム。
JP2023016295A 2017-05-16 2023-02-06 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース Active JP7461523B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201762507214P 2017-05-16 2017-05-16
US62/507,214 2017-05-16
DKPA201770370A DK179932B1 (en) 2017-05-16 2017-05-24 DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES
DKPA201770370 2017-05-24
US15/845,589 2017-12-18
US15/845,589 US10877628B2 (en) 2017-05-16 2017-12-18 Devices, methods, and graphical user interfaces for navigating, displaying, and editing media items with multiple display modes
JP2021200361A JP7223830B2 (ja) 2017-05-16 2021-12-09 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021200361A Division JP7223830B2 (ja) 2017-05-16 2021-12-09 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2023071668A JP2023071668A (ja) 2023-05-23
JP7461523B2 true JP7461523B2 (ja) 2024-04-03

Family

ID=64271668

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2019561881A Active JP6712681B1 (ja) 2017-05-16 2018-05-02 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2020095625A Active JP6993469B2 (ja) 2017-05-16 2020-06-01 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2021200361A Active JP7223830B2 (ja) 2017-05-16 2021-12-09 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2023016295A Active JP7461523B2 (ja) 2017-05-16 2023-02-06 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2019561881A Active JP6712681B1 (ja) 2017-05-16 2018-05-02 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2020095625A Active JP6993469B2 (ja) 2017-05-16 2020-06-01 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2021200361A Active JP7223830B2 (ja) 2017-05-16 2021-12-09 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース

Country Status (6)

Country Link
US (3) US10877628B2 (ja)
JP (4) JP6712681B1 (ja)
KR (4) KR20230132630A (ja)
CN (2) CN116560553A (ja)
AU (2) AU2023202756B2 (ja)
DK (1) DK179932B1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
KR20180128091A (ko) 2013-09-03 2018-11-30 애플 인크. 자기 특성을 갖는 사용자 인터페이스 객체를 조작하는 사용자 인터페이스
WO2015200889A1 (en) 2014-06-27 2015-12-30 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
TWI582641B (zh) 2014-09-02 2017-05-11 蘋果公司 按鈕功能性
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
USD817991S1 (en) * 2016-10-26 2018-05-15 Apple Inc. Display screen or portion thereof with graphical user interface
USD817992S1 (en) * 2016-10-27 2018-05-15 Apple Inc. Display screen or portion thereof with graphical user interface
USD943624S1 (en) 2016-10-27 2022-02-15 Apple Inc. Electronic device with pair of display screens or portions thereof each with animated graphical user interface
USD815141S1 (en) * 2016-10-27 2018-04-10 Apple Inc. Display screen or portion thereof with graphical user interface
USD815140S1 (en) * 2016-10-27 2018-04-10 Apple Inc. Display screen or portion thereof with graphical user interface
CA174365S (en) * 2016-10-27 2017-11-28 Apple Inc Display screen with graphical user interface
USD927529S1 (en) * 2019-01-11 2021-08-10 Apple Inc. Electronic device with pair of display screens or portions thereof each with graphical user interface
USD820303S1 (en) * 2016-10-27 2018-06-12 Apple Inc. Display screen or portion thereof with graphical user interface
USD820304S1 (en) * 2016-10-27 2018-06-12 Apple Inc. Display screen or portion thereof with graphical user interface
USD900860S1 (en) * 2016-10-27 2020-11-03 Apple Inc. Display screen or portion thereof with graphical user interface
USD817993S1 (en) * 2016-10-27 2018-05-15 Apple Inc. Display screen or portion thereof with graphical user interface
USD815137S1 (en) * 2016-10-27 2018-04-10 Apple Inc. Display screen or portion thereof with graphical user interface
JP7161824B2 (ja) * 2017-01-13 2022-10-27 リンゴジン ホールディング リミテッド 表示コンテンツのパネルをナビゲートする方法
JP1614673S (ja) 2017-02-10 2018-10-01
JP1590264S (ja) 2017-02-10 2017-11-06
JP1590265S (ja) * 2017-02-10 2017-11-06
DK179932B1 (en) 2017-05-16 2019-10-11 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
JP6601690B2 (ja) * 2017-08-25 2019-11-06 パナソニックIpマネジメント株式会社 表示制御装置
US20190143213A1 (en) * 2017-11-16 2019-05-16 Gustav Pastorino Method for Organizing Pictures and Videos within a Computing Device
US10589173B2 (en) * 2017-11-17 2020-03-17 International Business Machines Corporation Contextual and differentiated augmented-reality worlds
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10963128B1 (en) * 2018-09-06 2021-03-30 Facebook, Inc. Systems and methods for capturing content
DK179896B1 (en) * 2018-09-11 2019-08-30 Apple Inc. CONTENT-BASED TACTILE OUTPUTS
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
JP7170483B2 (ja) * 2018-09-28 2022-11-14 キヤノン株式会社 編集装置、その制御方法、及びプログラム
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
JP7172796B2 (ja) * 2019-03-28 2022-11-16 コニカミノルタ株式会社 表示システム、表示制御装置及び表示制御方法
CN110087120B (zh) * 2019-04-29 2019-12-10 掌阅科技股份有限公司 在线列表与本地列表的同窗切换方法、及计算设备
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11010875B2 (en) * 2019-05-29 2021-05-18 Datalogic Ip Tech S.R.L. Apparatus and method to compute a high dynamic range image from a single acquisition
USD913315S1 (en) * 2019-05-31 2021-03-16 Apple Inc. Electronic device with graphical user interface
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US10990263B1 (en) * 2019-09-03 2021-04-27 Gopro, Inc. Interface for trimming videos
US11722762B2 (en) * 2020-09-01 2023-08-08 Motorola Mobility Llc Face tracking dual preview system
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US20220382440A1 (en) * 2021-06-01 2022-12-01 Apple Inc. User interfaces for managing media styles
US11949761B2 (en) * 2021-07-29 2024-04-02 Oracle International Corporation Techniques for distributed interface component generation
KR20230124379A (ko) * 2022-02-18 2023-08-25 삼성전자주식회사 전자 장치 및 전자 장치에서 객체를 디스플레이하는 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320756A (ja) 2003-04-04 2004-11-11 Sony Corp 映像編集装置および方法、記録媒体、並びにプログラム
JP2008067009A (ja) 2006-09-06 2008-03-21 Nikon Corp 画像再生装置及び撮像装置
US20100128139A1 (en) 2008-11-27 2010-05-27 Samsung Electronics Co., Ltd Image editing method and an image editing apparatus using the same
US20100281371A1 (en) 2009-04-30 2010-11-04 Peter Warner Navigation Tool for Video Presentations
JP2011082635A (ja) 2009-10-02 2011-04-21 Panasonic Corp 画像表示装置、画像表示方法およびプログラム
JP2013165462A (ja) 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2013183255A (ja) 2012-03-01 2013-09-12 Dainippon Printing Co Ltd 画像出力システムおよび画像出力方法、並びに、画像出力受付端末およびプログラム
JP2014086815A (ja) 2012-10-22 2014-05-12 Xacti Corp 電子機器

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4472066A (en) * 1981-03-06 1984-09-18 Citizen Watch Company Limited Digital electronic timepiece
US5404316A (en) 1992-08-03 1995-04-04 Spectra Group Ltd., Inc. Desktop digital video processing system
US7038681B2 (en) 2000-03-29 2006-05-02 Sourceprose Corporation System and method for georeferencing maps
JP4660879B2 (ja) * 2000-04-27 2011-03-30 ソニー株式会社 情報提供装置および方法、並びにプログラム
JP2002157275A (ja) 2000-11-22 2002-05-31 Fuji Photo Film Co Ltd 画像表示装置及び記憶媒体
WO2006126055A2 (en) 2005-05-23 2006-11-30 Nokia Corporation Improved pocket computer and associated methods
US20080065992A1 (en) * 2006-09-11 2008-03-13 Apple Computer, Inc. Cascaded display of video media
KR20090093904A (ko) * 2008-02-28 2009-09-02 미디어코러스 주식회사 장면 변화에 강인한 멀티미디어 영상 분석 장치 및 그 방법과, 그를 이용한 객체 기반 멀티미디어 편집 시스템
JP5430972B2 (ja) 2009-02-24 2014-03-05 任天堂株式会社 情報処理装置、情報処理システム、ならびに起動用プログラムおよびそれを記憶した記憶媒体
US9148618B2 (en) 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
US8698762B2 (en) * 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
WO2013179096A1 (en) 2012-05-31 2013-12-05 Nokia Corporation A display apparatus
KR101909030B1 (ko) * 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
JP6021589B2 (ja) 2012-10-31 2016-11-09 三菱電機株式会社 画像出力装置、画像表示方法および画像表示プログラム
US9471200B2 (en) 2013-03-15 2016-10-18 Apple Inc. Device, method, and graphical user interface for organizing and presenting a collection of media items
US20140325439A1 (en) 2013-04-24 2014-10-30 Samsung Electronics Co., Ltd. Method for outputting image and electronic device thereof
KR20140127131A (ko) 2013-04-24 2014-11-03 삼성전자주식회사 영상 출력 방법 및 그 방법을 처리하는 전자장치
US9307112B2 (en) * 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US9319589B2 (en) * 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
US9063640B2 (en) * 2013-10-17 2015-06-23 Spotify Ab System and method for switching between media items in a plurality of sequences of media items
KR20150071162A (ko) 2013-12-18 2015-06-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN111488112B (zh) 2014-01-23 2024-03-08 苹果公司 虚拟计算机键盘
US9232188B2 (en) * 2014-06-04 2016-01-05 Apple Inc. Dynamic transition from video messaging to video communication
US9524339B2 (en) 2014-07-30 2016-12-20 Sonos, Inc. Contextual indexing of media items
WO2016160629A1 (en) * 2015-03-27 2016-10-06 Google Inc. Providing selected images from a set of images
US10871868B2 (en) * 2015-06-05 2020-12-22 Apple Inc. Synchronized content scrubber
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
KR20160146281A (ko) * 2015-06-12 2016-12-21 삼성전자주식회사 전자 장치 및 전자 장치에서 이미지 표시 방법
KR20170022227A (ko) * 2015-08-19 2017-03-02 엘지전자 주식회사 이동단말기 및 그 제어방법
CN109901765B (zh) 2015-10-06 2022-06-21 佳能株式会社 电子设备及其控制方法
JP6082896B1 (ja) 2016-03-21 2017-02-22 Uxent株式会社 画像編集装置、及び画像編集方法
US10402062B2 (en) * 2016-04-16 2019-09-03 Apple Inc. Organized timeline
DK179932B1 (en) 2017-05-16 2019-10-11 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING, DISPLAYING, AND EDITING MEDIA ITEMS WITH MULTIPLE DISPLAY MODES

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004320756A (ja) 2003-04-04 2004-11-11 Sony Corp 映像編集装置および方法、記録媒体、並びにプログラム
JP2008067009A (ja) 2006-09-06 2008-03-21 Nikon Corp 画像再生装置及び撮像装置
US20100128139A1 (en) 2008-11-27 2010-05-27 Samsung Electronics Co., Ltd Image editing method and an image editing apparatus using the same
US20100281371A1 (en) 2009-04-30 2010-11-04 Peter Warner Navigation Tool for Video Presentations
JP2011082635A (ja) 2009-10-02 2011-04-21 Panasonic Corp 画像表示装置、画像表示方法およびプログラム
JP2013165462A (ja) 2012-02-13 2013-08-22 Canon Inc 動画記録装置及びその制御方法、コンピュータプログラム、記憶媒体
JP2013183255A (ja) 2012-03-01 2013-09-12 Dainippon Printing Co Ltd 画像出力システムおよび画像出力方法、並びに、画像出力受付端末およびプログラム
JP2014086815A (ja) 2012-10-22 2014-05-12 Xacti Corp 電子機器

Also Published As

Publication number Publication date
KR20200093692A (ko) 2020-08-05
US10877628B2 (en) 2020-12-29
AU2023229566A1 (en) 2023-10-05
AU2023202756A1 (en) 2023-05-18
KR102432929B1 (ko) 2022-08-18
KR20230132630A (ko) 2023-09-15
JP7223830B2 (ja) 2023-02-16
KR20210135363A (ko) 2021-11-12
KR102577625B1 (ko) 2023-09-13
US11487402B2 (en) 2022-11-01
JP2023071668A (ja) 2023-05-23
US20180335901A1 (en) 2018-11-22
AU2023202756B2 (en) 2023-10-12
JP6993469B2 (ja) 2022-01-13
DK179932B1 (en) 2019-10-11
JP2020527765A (ja) 2020-09-10
JP6712681B1 (ja) 2020-06-24
DK201770370A1 (en) 2018-12-21
US11921978B2 (en) 2024-03-05
US20210072872A1 (en) 2021-03-11
KR20220116365A (ko) 2022-08-22
CN116560548A (zh) 2023-08-08
CN116560553A (zh) 2023-08-08
US20220326819A1 (en) 2022-10-13
JP2022046519A (ja) 2022-03-23
JP2020149722A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7461523B2 (ja) 複数の表示モードを有するメディアアイテムをナビゲート、表示、及び編集するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6705842B2 (ja) ナビゲーション及び検索機能を提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP3269144B1 (en) Devices and methods for controlling media presentation
KR20230131953A (ko) 사용자 인터페이스들을 위한 촉각 피드백
DK180979B1 (en) Devices, methods and graphical user interfaces for messaging
AU2021212001B2 (en) Devices, methods, and graphical user interfaces for navigating, displaying, and editing media items with multiple display modes
US11966578B2 (en) Devices and methods for integrating video with user interface navigation
KR20190136061A (ko) 사용자 인터페이스들을 위한 촉각 피드백

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230301

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240322

R150 Certificate of patent or registration of utility model

Ref document number: 7461523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150