JP2021144739A - 文脈的関連メディアコンテンツを検索するためのユーザインタフェース - Google Patents

文脈的関連メディアコンテンツを検索するためのユーザインタフェース Download PDF

Info

Publication number
JP2021144739A
JP2021144739A JP2021094529A JP2021094529A JP2021144739A JP 2021144739 A JP2021144739 A JP 2021144739A JP 2021094529 A JP2021094529 A JP 2021094529A JP 2021094529 A JP2021094529 A JP 2021094529A JP 2021144739 A JP2021144739 A JP 2021144739A
Authority
JP
Japan
Prior art keywords
display
user input
collection
receiving
media items
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021094529A
Other languages
English (en)
Other versions
JP6956910B2 (ja
Inventor
ブリット エス. ミウラ,
S Miura Britt
ブリット エス. ミウラ,
シモン ボヴェット,
Bovet Simon
シモン ボヴェット,
ギャリー イアン ブッチャー,
Ian Butcher Gary
ギャリー イアン ブッチャー,
エリック サークリーズ,
M G Circlaeys Eric
エリック サークリーズ,
アラン シー. ダイ,
C Dye Alan
アラン シー. ダイ,
ルバルカヴァ, ダニエル イー. ゴベラ
E Gobera Rubalcava Daniel
ルバルカヴァ, ダニエル イー. ゴベラ
サイルス ダニエル イラニ,
Daniel Irani Cyrus
サイルス ダニエル イラニ,
ステファン オー. レミー,
O Lemay Stephen
ステファン オー. レミー,
ブレンダン ジェイ. ランゴラント,
J Langolant Brendan
ブレンダン ジェイ. ランゴラント,
パウロ ミケーロ ロペス,
Michaelo Lopez Paulo
パウロ ミケーロ ロペス,
ライアン オルーク,
O'rourke Ryan
ライアン オルーク,
エンリケ ペンハ,
Penha Henrique
エンリケ ペンハ,
ジャスティン エス. ティティ,
S Titi Justin
ジャスティン エス. ティティ,
クリストファー ウィルソン,
Wilson Christopher
クリストファー ウィルソン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021144739A publication Critical patent/JP2021144739A/ja
Application granted granted Critical
Publication of JP6956910B2 publication Critical patent/JP6956910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/178Techniques for file synchronisation in file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/447Temporal browsing, e.g. timeline
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Liquid Crystal Substances (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】文脈的関連メディアコンテンツを検索するための方法を提供する。【解決手段】パーソナル電子装置は、文脈的関連メディアを表示する要求を受信し、それに応答して、デバイスのコンテキストに関連するメディア項目のコレクションの表現を表示する。また、シーケンス項目の視覚的メディア項目を表示し、スワイプジェスチャを受信することに応答して、メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを表示する。また、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを表示し、選択された場合、個人が出席した複数のイベントに対応する視覚的メディアを表示する。また、ユーザ入力に応答して、視覚的メディアの自動生成されたコレクションを取得し、対応するアフォーダンスを表示する。【選択図】図7A

Description

関連出願の相互参照
本出願は、2016年6月12日に出願された、「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題する米国仮特許出願第62/349,109号の優先権を主張し、その内容全体が参照により本明細書に組み込まれる。本出願は、2016年8月10日に出願された「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題するデンマーク特許出願第PA201670608号、及び2016年8月10日に出願された「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題するデンマーク特許出願第PA201670609号の優先権を主張し、そのそれぞれの内容全体が参照により本明細書に組み込まれる。
本出願は、2016年6月12日に出願された「NOTABLE MOMENTS IN A COLLECTION OF DIGITAL ASSETS」と題する米国特許出願(代理人整理番号P31270USP1(119−1249USP1))、2016年6月12日に出願された「KNOWLEDGE BASE BASED ON NOTABLE MOMENTS」と題する米国特許出願(代理人整理番号P31270USP2(119−11249USP2))及び2016年6月12日に出願された「RELATING DIGITAL ASSETS USING NOTABLE MOMENT」と題する米国特許出願(代理人整理番号P31270USP3(119−11249USP3))に関する。これらの出願の内容は、全体が、参照により本明細書に組み込まれる。
本開示は、一般に、コンピュータユーザインタフェースに関し、より具体的には、文脈的関連メディアコンテンツを検索するための技術に関する。
相互接続されたデバイス間の容易なメディア共有の増加と相まって、デバイスの記憶容量及び処理能力が増加し続けるにつれて、メディア項目(例えば、写真及び動画)の平均のユーザライブラリのサイズは毎日増加している。
しかしながら、コンテンツのライブラリが成長し続けるにつれて、ユーザの人生と経験のアーカイブを作成するのは、管理が難しくなると同時にナビゲーションするのが煩雑になり得る。例えば、多くのライブラリは、実質的に時間順に既定によってメディア項目を配置する。特定のタイプの写真を閲覧しているユーザは、その写真に関連するコンテンツをライブラリ全体にわたって見たいが、所望の関連コンテンツに関連付けられた特定の日付を記憶していないので、彼らが求めているコンテンツを見つけるまで、多数のメディアディレクトリを閲覧することを強制される。これは非効率的で、利用者の時間及びデバイスリソースの無駄である。したがって、文脈的関連メディアコンテンツの検索及び提示を容易にすることができ、それによってメディアコンテンツに係合するための改善されたインタフェースを提供することが望ましい。
しかしながら、電子デバイスを使用して文脈的関連メディアコンテンツを検索及び視聴するためのいくつかの技術は、一般に、煩雑で非効率的である。例えば、いくつかの既存の技術は、複数のキー押圧又はキーストロークを含み得る複雑かつ時間がかかるユーザインタフェースを使用する。既存の技術では、必要以上の時間が必要であり、ユーザの時間及びデバイスの電力を浪費する。後者の問題は、バッテリ動作デバイスにおいては特に重大である。
したがって、本技術は、文脈的関連コンテンツを検索して閲覧するための、より迅速でより効率的な方法及びインタフェースを有する電子デバイスを提供する。そのような方法及びインタフェースは、任意選択的に、文脈的関連コンテンツを検索して視聴するための他の方法を補完又は置換する。このような方法及びインタフェースは、ユーザに対する認識的負荷を低減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ動作コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、電池充電間の時間を増大させる。例えば、文脈的関連コンテンツを検索して視聴するための直感的なインタフェースは、デバイスによって受信された不要な、無関係な、又は反復入力の数を減らし、結果としてディスプレイ及び1つ以上のプロセッサによるバッテリ使用量を低減する。
一部の実施形態では、方法が実行され、方法は、ディスプレイを有するデバイスにおいて、文脈的関連メディアを表示する要求を受信することと、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示することと、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示することであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、ことと、を含む。
一部の実施形態では、電子デバイスは、ディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、文脈的関連メディアを表示する要求を受信し、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示し、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する命令を含み、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる。
一部の実施形態では、非一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、文脈的関連メディアを表示する要求を受信させ、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示させ、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示させ、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる。
一部の実施形態では、一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、文脈的関連メディアを表示する要求を受信させ、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示させ、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示させ、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる。
一部の実施形態では、システムは、ディスプレイと、文脈的関連メディアを表示する要求を受信する手段と、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示する手段と、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する手段であって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、手段と、を含む。
一部の実施形態では、デバイスは、ディスプレイユニットと、ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、文脈的関連メディアを表示する要求を受信するように構成された受信ユニットと、要求に応答して、デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを有効化し、デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、表示有効化ユニットと、を含む。
一部の実施形態では、方法が実行され、方法は、ディスプレイ及びタッチ感知面を有するデバイスにおいて、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示することと、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信することと、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことと、を含む。
一部の実施形態では、電子デバイスは、ディスプレイと、タッチ感知面と、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示し、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信し、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定し、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる。
一部の実施形態では、非一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示させ、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示させ、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる。
一部の実施形態では、一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示させ、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示させ、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる。
一部の実施形態では、システムは、ディスプレイと、タッチ感知面と、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示する手段と、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信する手段と、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定する手段と、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、手段と、を含む。
一部の実施形態では、デバイスは、ディスプレイユニットと、タッチ感知面ユニットと、ディスプレイユニット及びタッチ感知面ユニットに結合された処理ユニットと、を含み、処理ユニットは、視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットと、第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信するように構成された受信ユニットと、ユーザ入力を受信することに応答して、ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定するように構成された判定ユニットと、を含み、表示有効化ユニットは、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことを有効化するように更に構成されている。
一部の実施形態では、方法が実行され、方法は、ディスプレイを有するデバイスにおいて、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示することと、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示することと、アフォーダンスの選択に対応するユーザ入力を受信することと、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことと、を含む。
一部の実施形態では、電子デバイスは、ディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示し、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、アフォーダンスの選択に対応するユーザ入力を受信し、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる。
一部の実施形態では、非一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示させ、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示させ、アフォーダンスの選択に対応するユーザ入力を受信させ、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示させ、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる。
一部の実施形態では、一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示させ、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示させ、アフォーダンスの選択に対応するユーザ入力を受信させ、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示させ、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる。
一部の実施形態では、システムは、ディスプレイと、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示する手段と、第1の詳細ユーザインタフェースを表示しながら、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、アフォーダンスの選択に対応するユーザ入力を受信する手段と、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、手段と、を含む。
一部の実施形態において、デバイスは、ディスプレイユニットと、ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、第1の詳細ユーザインタフェースを表示しながら、表示有効化ユニットは、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されている、表示有効化ユニットと、アフォーダンスの選択に対応するユーザ入力を受信するように構成された受信ユニットと、を含み、表示有効化ユニットは、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことを有効化するように更に構成されている。
一部の実施形態では、方法が実行され、方法は、ディスプレイを有するデバイスにおいて、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示することと、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信することと、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することと、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加することと、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示することと、を含む。
一部の実施形態では、電子デバイスは、ディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示し、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信し、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加し、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含む。
一部の実施形態では、非一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示させ、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加させ、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示させる。
一部の実施形態では、一時的コンピュータ可読記憶媒体は、1つ以上のプログラムを記憶し、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示させ、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加させ、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示させる。
一部の実施形態では、システムは、ディスプレイと、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示する手段と、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信する手段と、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加する手段と、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信する手段と、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する手段と、を含む。
いくつかの実施形態では、デバイスは、ディスプレイユニットと、ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットと、複数のアフォーダンスを表示しながら、第1のユーザ入力を受信するように構成された受信ユニットと、第1のユーザ入力を受信することに応答して、視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得するように構成された取得ユニットと、ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加するように構成された追加ユニットと、を含み、受信ユニットは、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、表示有効化ユニットは、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている。
これらの機能を実行するための実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品に含まれる。これらの機能を実行するための実行可能命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品に含まれる。
したがって、デバイスには、1組の共通の特性及びそれに関連するコンテンツを共有するメディア項目のコレクションを視聴するための、より早い、より効率的な方法及びインタフェースが備えられ、これにより、そのようなデバイスの有効性、効率及びユーザ満足度が向上する。そのような方法及びインタフェースは、1組の共通の特性及びそれに関連するコンテンツを共有するメディア項目のコレクションを視聴するための他の方法を補完又は置き換えることができる。
様々な記載される実施形態のより良好な理解のため、以下の図面と併せて以下の実施形態の説明を参照すべきであり、図面中の同様の参照番号は対応する部分を指す。
いくつかの実施形態に従った、タッチ感知ディスプレイを備えたポータブル多機能装置を示すブロック図である。
いくつかの実施形態に従った、イベント処理のための例示的な構成要素を示すブロック図である。
いくつかの実施形態に従った、タッチスクリーンを有するポータブル多機能装置を示す。
一部の実施形態に従った、ディスプレイ及びタッチ感知面を有する例示的な多機能装置のブロック図である。
いくつかの実施形態に従った、ポータブル多機能装置上のアプリケーションのメニューに対する例示的なユーザインタフェースを示す。
いくつかの実施形態に従った、ディスプレイから分離されたタッチ感知面を有する多機能装置の例示的なユーザインタフェースを示す。
一部の実施形態に従ったパーソナル電子デバイスを示す。
一部の実施形態に従ったパーソナル電子デバイスのブロック図である。
いくつかの実施形態に従った、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。 いくつかの実施形態に従った、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。
いくつかの実施形態に従ったパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に従ったパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に従ったパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態に従ったパーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。
メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。 メディアの文脈的関連コレクションを視聴するための例示的なユーザインタフェースを示す。
文脈的関連メディア及び関連コンテンツの視聴を行うための例示的な処理を示すフロー図である。 文脈的関連メディア及び関連コンテンツの視聴を行うための例示的な処理を示すフロー図である。 文脈的関連メディア及び関連コンテンツの視聴を行うための例示的な処理を示すフロー図である。 文脈的関連メディア及び関連コンテンツの視聴を行うための例示的な処理を示すフロー図である。 文脈的関連メディア及び関連コンテンツの視聴を行うための例示的な処理を示すフロー図である。
いくつかの実施形態に従った電子デバイスの機能ブロック図である。
関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。 関連コンテンツを視聴するための例示的なユーザインタフェースを示す。
関連コンテンツを視聴するための例示的な処理を示すフロー図である。 関連コンテンツを視聴するための例示的な処理を示すフロー図である。 関連コンテンツを視聴するための例示的な処理を示すフロー図である。 関連コンテンツを視聴するための例示的な処理を示すフロー図である。
いくつかの実施形態に従った電子デバイスの機能ブロック図である。
識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。 識別された個人に関連するコンテンツを視聴するための例示的なユーザインタフェースを示す。
識別された個人に関連するコンテンツを視聴するための例示的な処理を示すフロー図である。 識別された個人に関連するコンテンツを視聴するための例示的な処理を示すフロー図である。 識別された個人に関連するコンテンツを視聴するための例示的な処理を示すフロー図である。 識別された個人に関連するコンテンツを視聴するための例示的な処理を示すフロー図である。
いくつかの実施形態に従った電子デバイスの機能ブロック図である。
メディアの自動生成されたコレクションを取得するための例示的なユーザインタフェースを示す。 メディアの自動生成されたコレクションを取得するための例示的なユーザインタフェースを示す。 メディアの自動生成されたコレクションを取得するための例示的なユーザインタフェースを示す。 メディアの自動生成されたコレクションを取得するための例示的なユーザインタフェースを示す。 メディアの自動生成されたコレクションを取得するための例示的なユーザインタフェースを示す。
メディアの自動生成されたコレクションを取得するための例示的な処理を示すフロー図である。 メディアの自動生成されたコレクションを取得するための例示的な処理を示すフロー図である。 メディアの自動生成されたコレクションを取得するための例示的な処理を示すフロー図である。 メディアの自動生成されたコレクションを取得するための例示的な処理を示すフロー図である。
いくつかの実施形態に従った電子デバイスの機能ブロック図である。
以下の説明は、例示的な方法やパラメータなどを述べるものである。しかし、そのような説明は、本開示の範囲の限定として意図されてはおらず、例示的な実施形態として提供されることを認識されたい。
文脈的に関連のあるコンテンツを引き出して見る効率的な方法とインタフェースを提供する電子装置に対する要求がある。例えば、1つ以上のコンテキスト属性に基づいて関連するコンテンツを引き出すためにユーザをナビゲートするインタフェースによって膨大な手間を削減する技術がある。そのような技術は、文脈的に関連のあるメディアコンテンツにアクセスするユーザの認識的負担を軽減させることができ、よって生産性を向上させる。更に、そのような技術は、そうでなければ冗長なユーザ入力に浪費されてしまうことになるプロセッサやバッテリの電力を削減することができる。
以下、図1A〜1B、図2、図3、図4A〜4B、図5A〜5Hは、イベント通知を管理する技術を実行する例示的な装置の説明を提供する。図6A〜6Rは、メディアの文脈的に関連のあるコレクションを見る例示的なユーザインタフェースを表す。図7A〜7Eは、文脈的に関連のあるメディア及び関連するコンテンツを見ることを処理する例示的なプロセスを表すフロー図である。図6A〜6Rのユーザインタフェースは、図7A〜7Eの処理を含む、以下に説明される処理を表すために用いられる。図9A〜9Lは、関連するコンテンツを見る例示的なユーザインタフェースを表す。図10A〜10Dは、関連するコンテンツを見る例示的な処理を表すフロー図である。図9A〜9Lのユーザインタフェースは、図10A〜10Dの処理を含む、以下に説明される処理を表すために用いられる。図12A〜12Kは、識別された個人に関連するコンテンツを見る例示的なユーザインタフェースを表す。図13A〜13Dは、識別された個人に関連するコンテンツを見る例示的な処理を表すフロー図である。図12A〜12Kのユーザインタフェースは、図13A〜13Dの処理を含む、以下に説明される処理を表すために用いられる。図15A〜15Eは、メディアの自動生成されたコレクションを取得する例示的なユーザインタフェースを表す。図16A〜16Dは、メディアの自動生成されたコレクションを取得する例示的な処理を表すフロー図である。図15A〜15Eのユーザインタフェースは、図16A〜16Dの処理を含む、以下に説明される処理を表すために用いられる。
以下の説明では、様々な要素を説明するために「第1」、「第2」などの用語が使用されるが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲を逸脱することなく、第1のタッチは第2のタッチと称され得ることになるし、また同様に、第2のタッチは第1のタッチと称され得ることになる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
本明細書に記載された様々な実施形態の説明で使用される術語は、特定の実施形態について説明することのみを目的とし、限定的であることは意図されていない。記載された様々な実施形態の説明及び添付の特許請求の範囲内で使用するとき、単数形の「a」、「an」、及び「the」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図されている。ここに用いられている用語「and/or」は、関連付けられて列挙された項目の1つ以上のいかなる及び全ての可能な組み合わせも表しかつ含むことも理解される。更に、用語「includes」、「including」、「comprises」及び/又は「comprising」は、この明細書で用いられるとき、述べられている特徴、完全体、ステップ、動作、要素及び/又は構成要素を特定するが、1つ以上の特徴、完全体、ステップ、動作、要素、構成要素及び/又はそれらのグループの存在又は追加を除外しないことが理解される。
用語「〜の場合(if)」は、文脈に応じて、「〜のとき(when)」又は「〜すると(upon)」又は「〜の決定に応じて(in response to determining)」又は「〜の検出に応じて(in response to detectinig)」を意味すると任意選択的に解釈される。同様に、フレーズ「決定された場合(if it is determined)」又は「(述べられた状態若しくはイベントが)検出された場合(if [a stated condition or event] is detected)」は、文脈に応じて、「決定すると(upon determining)」又は「決定に応じて(in response to determining)」又は「(述べられた状態若しくはイベントが)検出されると(upon detecting [the stated condition or event])」又は「(述べられた状態若しくはイベントの)検出に応じて(in response to detecting [the stated condition or event])」を意味すると任意選択的に解釈される。
電子装置、そのような装置のためのユーザインタフェース及びそのような装置を使用するために関連付けられた処理の実施形態が、説明される。いくつかの実施形態では、装置は、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信装置である。ポータブル多機能装置の例示的な実施形態には、限定されることなく、カルフォルニア州クパチーノのアップル社からのiPhone装置(登録商標)、iPod Touch装置(登録商標)及びiPad(登録商標)装置が含まれる。任意選択的に、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータなどの他のポータブル電子装置も使用される。また、いくつかの実施形態では、装置は、ポータブル通信装置ではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されたい。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子装置について説明する。しかし、電子装置は、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェース装置を含むことを理解されたい。
装置は、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。
装置上で実行される様々なアプリケーションは、任意選択的に、タッチ感知面などの少なくとも1つの共通の物理ユーザインタフェース装置を使用する。タッチ感知面の1つ以上の機能及び装置上に表示される対応する情報は、任意選択的に、アプリケーション相互間及び/又はそれぞれのアプリケーション内で調整及び/又は変更される。このようにして、装置の共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直感的かつ透過的なユーザインタフェースによって様々なアプリケーションに対応する。
次に、タッチ感知ディスプレイを有するポータブル装置の実施形態に注意を向ける。図1Aは、いくつかの実施形態に係るタッチ感知ディスプレイシステム112を有するポータブル多機能装置100を表すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれる場合があり、「タッチ感知ディスプレイシステム」として既知であるか、又はそのように呼ばれる場合もある。装置100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力制御デバイス116及び外部ポート124を含む。装置100は、任意選択的に、1つ以上の光センサ164を含む。装置100は、任意選択的に、装置100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、装置100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。装置100は、任意選択的に、装置100上で触知出力を生成する(例えば装置100のタッチ感知ディスプレイシステム112又は装置300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103上を任意選択的に通信する。
本明細書及び特許請求の範囲で使用するとき、タッチ感知面上の接触の、用語「強度」は、タッチ感知面上の接触(例えば、指接触)の力若しくは圧力(単位面積当たりの力)、又は、タッチ感知面上の接触の力若しくは圧力に対する代わりのもの(代替)を指す。接触の強度は、少なくとも4つの別個の値を含む値の範囲をもち、より典型的には数百個の別個の値(例えば、少なくとも256)を含む。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して判定(又は、測定)される。例えば、タッチ感知面の下に又はこれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々な点における力を測定するために使用される。いくつかの実装形態では、複数の力センサからの力測定値を組み合わせて(例えば、加重平均)、推定される接触の力を判定する。同様に、スタイラスの感圧性先端部を任意選択的に使用して、タッチ感知面上のスタイラスの圧力を判定する。あるいは、タッチ感知面上で検知される接触面積のサイズ及び/若しくはその変化、接触付近のタッチ感知面のキャパシタンス及び/若しくはその変化、並びに/又は、接触付近のタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力に対する代わりのものとして用いられる。いくつかの実装形態では、接触の力又は圧力に対する代替的測定値が、強度の閾値を超えたかどうかを判定するために直接的に用いられる(例えば、強度閾値が代替的測定値に対応する単位で記述されている)。いくつかの実装形態では、これらの接触の力又は圧力に対する代替的測定値は、推定される力又は圧力に変換され、その推定される力又は圧力を使用して、強度閾値を超えているか否かが判定される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示する、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受ける面積が制限されている、縮小されたサイズの装置上で、そうでなければユーザによってアクセスすることが可能でないこともあり得る追加の装置の機能性への、ユーザのアクセスが可能となる。
本明細書及び特許請求の範囲で使用するとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、装置の従前の位置に対する、その装置の物理的変位、装置の構成要素(例えば、タッチ感知面)の、その装置の別の構成要素(例えば、筐体)に対する物理的変位、又は、装置の質量中心に対する構成要素の変位を指す。例えば、装置又は装置の構成要素がタッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、その装置又は装置の構成要素の物理的特性の認識される変化に対応する触感としてユーザによって解釈されるであろう。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の動きは、ユーザによって、任意選択的に、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として解釈される。いくつかの場合では、ユーザの動きによって物理的に押された(例えば、変位させられた)タッチ感知面に関連付けられた物理アクチュエータボタンの動きがないときであっても、ユーザは「ダウンクリック」又は「アップクリック」のような触感を感じることになる。別の例として、タッチ感知面の滑らかさに変化がないときであっても、タッチ感知面の動きは、任意選択的に、ユーザによってタッチ感知面の「粗さ」として解釈され又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個別化された知覚の影響を受けることになるが、大多数のユーザに共通する多くのタッチの知覚がある。このように、触知出力がユーザの特定の知覚に対応するように説明されるとき(例えば、「アップクリック」、「ダウンクリック」、「粗さ」)、別途述べられていなければ、生成された触知出力は、典型的な(又は平均的)なユーザに対しその説明された知覚を生成することになる装置又はその構成要素の物理的変位に対応する。
装置100は、単にポータブル多機能装置の一例であり、装置100は、示されているよりも多くの若しくは少ない構成要素を任意選択的に有し、2つ以上の構成要素を任意選択的に組み合わせ、又は、構成要素の異なる構成若しくは配置を有することを理解されたい。図1Aに示された様々な構成要素は、1つ以上の信号処理集積回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア又はハードウェアとソフトウェアの両方の組み合わせで実装される。
メモリ102は、高速ランダムアクセスメモリを任意選択的に含み、磁気ディスク記憶装置、フラッシュメモリデバイス又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリの1つ以上も任意選択的に含む。メモリコントローラ122は、任意選択的に、装置100の他の構成要素によるメモリ102へのアクセスを制御する。
周辺機器インタフェース118は、装置の入出力周辺機器をCPU120及びメモリ102に結合するために使用されることができる。1つ以上のプロセッサ120は、メモリ102に記憶された、装置100に対し様々な機能を実行しデータを処理する様々なソフトウェアプログラム及び/又は命令のセットを、動作させ又は実行する。いくつかの実施形態では、周辺機器インタフェース118、CPU120及びメモリコントローラ122は、任意選択的に、チップ104などの、シングルチップチップ上に実施される。いくつかの他の実施形態では、これらは、任意選択的に、別個のチップ上に実施される。
RF(高周波)回路108は、電磁信号とも呼ばれるRF信号を受信し送信する。RF回路108は、電気信号を電磁信号に又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信装置と通信する。RF回路108は、アンテナシステム、RFトランシーバ、1つ以上の増幅器、チューナ、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを限定されることなく含む、これらの機能を実行する周知の回路を任意選択的に含む。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他の装置と、無線通信によって通信する。RF回路108は、任意選択的に、近距離通信無線などによる近距離無線通信(near field communication:NFC)フィールドを検出する、周知の回路を含む。無線通信は、移動通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリー(EV−DO)、HSPA、HSPA+、Dual−Cell HSPA(DC−HSPA)、ロングタームエヴォリューション(long term evolution、LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(wideband code division multiple access、W−CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetooth Low Energy(BLE)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n及び/若しくはIEEE 802.11ac)、ボイスオーバーインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi MAX、電子メールのプロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP)、インスタントメッセージング(例えば、extensible messaging and presence protocol(XMPP)、Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions(SIMPLE)、Instant Messaging and Presence Service(IMPS))及び/若しくはショートメッセージサービス(SMS)、又は、この文書の出願日には未だ開発されていない通信プロトコルを含む他のいずれの適切な通信プロトコルを、限定されることなく、含む、複数の通信規格、プロトコル及び技術のうちのいずれも任意選択的に使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザと装置100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受け、オーディオデータを電気信号に変換し、電気信号をスピーカ111に伝送する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号も受ける。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に伝送する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から引き出され、かつ/又はメモリ102及び/若しくはRF回路108に伝送される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)も含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を有するヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力制御デバイス116などの、装置100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御装置のための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力制御デバイス116との間で、電気信号を受信/送信する。他の入力制御デバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的実施形態では、入力コントローラ(単数又は複数)160は、任意選択的に、キーボード、赤外線ポート、USBポート及びマウスなどのポインタ装置のうちのいずれかに結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。
全体が参照により本明細書に組み込まれる、2005年12月23日出願の米国特許第7,657,849号である米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」で説明されているように、このプッシュボタンの素早い押圧により、任意選択的に、タッチスクリーン112のロックが解除され、又は、任意選択的に、タッチスクリーン上のジェスチャを使用して装置をロック解除するプロセスが開始される。プッシュボタン(例えば、206)をより長く押圧することにより、任意選択的に、装置100の電源がオン又はオフにされる。1つ以上のボタンの機能性は、任意選択的に、ユーザのカスタマイズが可能である。タッチスクリーン112は、仮想ボタン又はソフトボタン、及び1つ以上のソフトキーボードを実装するために使用される。
タッチ感知ディスプレイ112は、装置とユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112との間で、電気信号を受信及び/又は送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、これらの視覚出力のいくつか又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触知の接触に基づいてユーザからの入力を受け入れる、タッチ感知面、センサ、あるいはセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内のあらゆる関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上での接触(及び、その接触のあらゆる動き又は中断)を検出し、その検出された接触を、タッチスクリーン112上に表示されているユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。例示的実施形態では、タッチスクリーン112とユーザとの接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(liquid crystal display:液晶ディスプレイ)技術、LPD(light emitting polymer display;発光ポリマーディスプレイ)技術、又はLED(light emitting diode:発光ダイオード)技術を使用するものであるが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、現在既知の若しくは今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びその接触のあらゆる動き若しくは中断を検出するものであり、それらのタッチ感知技術としては、限定するものではないが、静電容量技術、抵抗性技術、赤外線技術、及び表面弾性波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素が挙げられる。例示的実施形態では、Apple Inc.(カルフォルニア州クパチーノ)によるiPhone(登録商標)及びiPod Touch(登録商標)において見られるような、投影型相互静電容量感知技術が使用される。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、米国特許第6,323,846号(Westermanら)、同第6,570,557号(Westermanら)、及び/又は同第6,677,932号(Westerman)、並びに/あるいは米国特許出願公開第2002/0015024(A1)号で説明されている、マルチタッチ感知タッチパッドに類似しており、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。しかしながら、タッチスクリーン112は、装置100からの視覚出力を表示するものであるが、タッチ感知タッチパッドは、視覚出力を提供しない。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、以下の出願で説明されている:(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の同第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の同第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の同第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の同第11/038,590号、「Mode−Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の同第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の同第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の同第11/228,737号、「Activating Virtual Keys Of A Touch−Screen Virtual Keyboard」、及び(9)2006年3月3日出願の同第11/367,749号、「Multi−Functional Hand−Held Device」。これらの出願の全ては、全体が参照により本明細書に組み込まれる。
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、このタッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の好適な物体又は付属物を使用して、タッチスクリーン112と接触する。いくつかの実施形態では、ユーザインタフェースは、主として指に基づく接触及びジェスチャによって機能するように設計されているが、これにより、タッチスクリーン上での指の接触面積がより広いことにより、スタイラスに基づく入力よりも精度が低い恐れがある。いくつかの実施形態では、装置は、指に基づく粗い入力を、ユーザによって所望されているアクションを実行する、正確なポインタ/カーソルの位置又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、装置100は、特定の機能をアクティブにし又は非アクティブにするタッチパッド(図示せず)を任意選択的に含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、装置のタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又は、タッチスクリーンによって形成されているタッチ感知面の拡張部である。
装置100は、また、様々な構成要素に電力を供給する電力システム162を含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えばバッテリ、交流(AC))、再充電システム、電源異常検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば発光ダイオード(LED))、並びにポータブル装置における電力の生成、管理及び分配に関連するその他の任意の構成要素を含む。
また、装置100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、電荷結合素子(charge-coupled device、CCD)又は相補型金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)光トランジスタを任意選択的に含む。光センサ164は、1つ以上のレンズを通って投影された、環境からの光を受け、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、タッチスクリーンディスプレイが、静止画像及び/又はビデオ画像の取得のためのビューファインダとしての使用が可能とされるように、光センサは、装置の前面のタッチスクリーンディスプレイ112の反対側である、装置100の背面に配置されている。いくつかの実施形態では、ユーザが他のテレビ会議参加者をタッチスクリーンディスプレイ上で見ている間に、そのユーザの画像が、任意選択的に、テレビ会議のために取得されるように、装置の前面に光センサが配置されている。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、装置筐体内のレンズ及びセンサを回転させることによって)変更させられることができ、それにより、単一の光センサ164が、タッチスクリーンディスプレイと共に、テレビ会議並びに静止画像及び/又はビデオ画像の取得の双方のために使用される。
装置100は、任意選択的に、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された接触強度センサを示す。接触強度センサ165は、任意選択的に、1つ以上のピエゾ抵抗歪みゲージ、容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は、圧力)を測定するために使用されるセンサ)を含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報又は圧力情報に対して代わりとなるもの)を受ける。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接している。いくつかの実施形態では、少なくとも1つの接触強度センサは、装置100の前面に配置されているタッチスクリーンディスプレイ112の反対側である、装置100の背面に配置されている。
また、装置100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、同第11/240,788号、「Proximity Detector In Handheld Device」、同第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、同第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、近接センサは、この多機能装置がユーザの耳の近くに配置されている場合に(例えば、ユーザが電話で通話している場合に)、タッチスクリーン112をオフにして無効化する。
また、装置100は、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響装置、及び/又は、モータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、電気信号を装置上の触知出力に変換する構成要素)などの、エネルギーを直線運動に変換する電気機械装置を含む。接触強度センサ165は、触覚フィードバックモジュール133からの触知フィードバック生成命令を受けて、装置100のユーザによって感知されることが可能な触知出力を、装置100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置されるか又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向に(例えば装置100の表面の内/外に)、又は横方向に(例えば装置100の表面と同じ平面内で前後に)動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサが、装置100の前面に配置されているタッチスクリーンディスプレイ112の反対側である、装置100の背面に配置されている。
また、装置100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、米国特許出願公開第20050190059号、「Acceleration−based Theft Detection System for Portable Electronic Devices」、及び同第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」で説明されるように実行されるものであり、これらの文献の双方は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、情報は、1つ以上の加速度計から受けたデータの分析に基づいて、縦長表示又は横長表示でタッチスクリーンディスプレイ上に表示される。装置100は任意選択で、加速度計(単数又は複数)168に加えて、磁気計(図示せず)並びに装置100の場所及び向き(例えば、縦向き又は横向き)に関する情報を取得するGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信機(図示せず)を含む。
いくつかの実施形態では、メモリ102に記憶されたソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は、命令のセット)128、接触/動きモジュール(又は、命令のセット)130、グラフィックモジュール(又は、命令のセット)132、テキスト入力モジュール(又は、命令のセット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は、命令のセット)135、及びアプリケーション(又は、命令のセット)136を含む。更に、いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、図1A及び図3に示すように、装置/グローバル内部状態157を記憶する。装置/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示す、アクティブアプリケーション状態、いずれのアプリケーション、ビュー、又は他の情報が、タッチスクリーンディスプレイ112の様々な領域を占有しているかを示す、ディスプレイ状態、装置の様々なセンサ及び入力制御デバイス116から取得された情報を含む、センサ状態、並びに、装置の場所及び/又は姿勢に関する場所情報を含む。
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又は、VxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶装置制御、電力管理など)を制御及び管理する、様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素及びソフトウェア構成要素間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他の装置との通信を円滑化し、また、RF回路108及び/又は外部ポート124によって受けられたデータを処理する様々なソフトウェア構成要素も含む。外部ポート124(例えば、ユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他の装置に連結するように適合させられている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)装置上で使用される30ピンコネクタと同じ若しくは同様のマルチピン(例えば、30ピン)コネクタ、及び/又は互換性のあるマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、(ディスプレイコントローラ156と連携して)タッチスクリーン112との接触、及び他のタッチ感知装置(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が起きたかどうかを判定すること(例えば、指下げイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力又は接触の力若しくは圧力に対する代わりのもの)を判定すること、接触の動きがあるかどうかを判定すること及びタッチ感知面にわたって動きを追跡すること(例えば、1つ以上の指ドラッグイベントを検出すること)、並びに接触が中止されたかどうかを判定すること(例えば、接触において指上昇イベント又は中断を検出すること)などの、接触の検出に関連する様々な動作を実行する様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受ける。一連の接触データによって表現される、接触点の動きを判定することは、接触点の、速度(大きさ)、速度(大きさと方向)、及び/又は加速度(大きさ及び/又は方向における変化)を判定することを任意選択的に含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって操作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットは、ソフトウェアパラメータにしたがって決定される(例えば、強度閾値が、特定の物理アクチュエータのアクティベーション閾値によって判定されずに、装置100の物理ハードウェアを変化させることなく調整されることができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、そのトラックパッド又はタッチスクリーンディスプレイのハードウェアを変更することなく、広範囲の既定の閾値のうちのいずれかに設定することができる。更には、いくつかの実装形態では、装置のユーザには、(例えば、個々の強度閾値を調節することによって、及び/又は、システムレベルのクリック「強度」パラメータを使用して一度に複数の強度閾値を調節することによって)強度閾値のセットのうちの1つ以上を調節するソフトウェア設定が提供される。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、異なる動き、タイミング、及び/又は検出された接触の強度)を有する。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、(例えば、アイコンの位置での)指下げイベントを検出し、続いて、その指下げイベントと同じ位置(又は、実質的に同じ位置)で指上げ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上での指スワイプジェスチャを検出することは、指下げイベントを検出し、続いて、1つ以上の指ドラッグイベントを検出し、その後、続いて指上げ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚的性質)を変更する構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングし表示する、様々な既知のソフトウェア構成要素を含む。本明細書に用いられているように、用語「グラフィック」は、限定なしに、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示されることができるいかなるオブジェクトも含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されるべきグラフィックを表現するデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要であれば座標データ及び他のグラフィック属性データと共に表示されるべきグラフィックを特定する1つ以上のコードを受け、スクリーン画像データを生成してディスプレイコントローラ156に出力する。
触覚フィードバックモジュール133は、装置100とのユーザ対話に応答して、装置100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(単数又は複数)167によって使用される命令を生成する、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、これは、任意選択的に、グラフィックスモジュール132の構成要素であって、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するソフトキーボードを提供する。
GPSモジュール135は、装置の場所を判定し、この情報を様々なアプリケーションで使用するために(例えば、場所に基づくダイヤル発呼で使用するために電話138へ、写真/ビデオのメタデータとしてカメラ143へ、並びに、天気ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、場所に基づくサービスを提供するアプリケーションへ)提供する。
アプリケーション136は、次のモジュール(又は命令のセット)、又はそのサブセット又はスーパーセットを任意選択的に含む。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138;
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作成するウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は
●オンラインビデオモジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、連絡先モジュール137は、アドレス帳に名前を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、電子メールアドレス(単数又は複数)、物理的アドレス(単数又は複数)又はその他の情報を名前に関連付けること、画像を名前と関連付けること、名前を分類し整理すること、電話138、テレビ会議モジュール139、電子メール140若しくはIM141よって通信を開始し及び/又は容易にするために電話番号又は電子メールアドレスを提供することなどを含んで、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶されている)を管理するために、任意選択的に、使用される。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電話モジュール138は、電話番号に対応する文字列を入力し、連絡先モジュール137内の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、対応する電話番号をダイヤルし、会話を行い、及び会話が完了したときに接続を断ち電話を切るために、任意選択的に、使用される。上述のように、無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを任意選択的に使用する。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連携して、テレビ会議モジュール139は、ユーザの命令にしたがって、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、遂行し、終了する、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、電子メールクライアントモジュール140は、ユーザの命令に応答して、電子メールを作成し、送信し、受け、管理する実行可能命令を含む。画像管理モジュール144に連携して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成し及び送信することを非常に容易にする。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字列を入力し、以前に入力された文字を修正し、対応するインスタントメッセージを(例えば、電話ベースのインスタントメッセージ用のショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service;MMS)プロトコルを使用して又はインターネットベースのインスタントメッセージ用のXMPP、SIMPLE若しくはIMPSを使用して)送信し、インスタントメッセージを受け、受けられたインスタントメッセージを見る、実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service;EMS)でサポートされるような、グラフィック、写真、オーディオファイル、ビデオファイル及び/又は他の添付ファイルを含む。本明細書で使用されるとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の双方を指す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154及び音楽プレーヤモジュールと連携して、トレーニングサポートモジュール142は、(例えば、時間、距離及び/又はカロリー消費目標を有する)トレーニングを作成し、トレーニングセンサ(スポーツ装置)と通信し、トレーニングセンサデータを受け、トレーニングをモニタするために使用されるセンサを較正し、トレーニング用の音楽を選択して再生し、トレーニングデータを表示し、記憶し、送信する実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ(単数又は複数)164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連携して、カメラモジュール143は、静止画像又は(ビデオストリームを含む)ビデオをキャプチャし、それらをメモリ102内に記憶し、静止画像又はビデオの特性を修正し、あるいはメモリ102から静止画像又はビデオを削除する実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びカメラモジュール143と連携して、画像管理モジュール144は、静止画像及び/又はビデオ画像を、配列し、修正し(例えば、編集し)若しくは他の方式で操作し、ラベルを付け、削除し、(例えば、デジタルスライドショー又はアルバムとして)提示し、記憶する、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、ブラウザモジュール147は、ウェブページ又はその部分、並びにウェブページにリンクされた添付ファイル及び他のファイルを検索し、リンクし、受け、表示することを含む、ユーザの命令にしたがってインターネットをブラウズする、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの命令にしたがって、カレンダ、及びカレンダに関連付けられるデータ(例えば、カレンダ項目、to doリストなど)を作成し、表示し、修正し、記憶する実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びブラウザモジュール147と連携する、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされて使用されるミニアプリケーション(例えば、天気ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4及び辞書ウィジェット149−5)、又は、ユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Language:ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets;カスケーディングスタイルシート)ファイル及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134及びブラウザモジュール147と連携して、ウィジェットクリエータモジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットに変える)ために、ユーザによって使用される。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連携して、検索モジュール151は、ユーザの命令にしたがって、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索用語)に一致する、メモリ102内のテキスト、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索する、実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3ファイル又はAACファイルなどの1つ以上のファイル形式で記憶された、録音済みの音楽ファイル又は他のサウンドファイルを、ユーザがダウンロード及び再生することを可能にする、実行可能命令と、ビデオを(例えば、タッチスクリーン112上に、又は外部ポート124を介して接続されている外部のディスプレイ上に)表示し、提示し、又は他の方式で再生する、実行可能命令とを含む。いくつかの実施形態では、装置100は、任意選択的に、iPod(Apple社の商標)などのMP3プレーヤの機能を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132及びテキスト入力モジュール134と連携して、メモモジュール153は、ユーザの命令にしたがって、メモ、to doリストなどを作成し及び管理する、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連携して、地図モジュール154は、任意選択的に、ユーザの命令にしたがって、地図、及び地図に関連付けられるデータ(例えば、運転方向、特定の場所若しくはその付近の店舗及び他の関心対象地点についてのデータ、並びに場所に基づく他のデータ)を受け、表示し、修正し、記憶するために、使用される。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、オンラインビデオモジュール155は、ユーザが、特定のオンラインビデオにアクセスし、閲覧し、(例えば、ストリーミング及び/又はダウンロードによって)受け、(例えば、タッチスクリーン上で又は外部ポート124を介して接続されている外部のディスプレイ上で)再生し、その特定のオンラインビデオへのリンクを含む電子メールを送信し、またH.264などの1つ以上のファイル形式でオンラインビデオを別の方法で管理することを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションの更なる説明は、2007年6月20日出願の米国特許仮出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」に見出すことができ、これらの出願の内容は、全体が参照により本明細書に組み込まれる。
上記で明らかにされたモジュール及びアプリケーションのそれぞれは、上述の1つ以上の機能、及び本出願で説明される方法(例えば、コンピュータにより実施される方法及び本明細書で説明される他の情報処理方法)を実行する実行可能命令のセットに対応する。これらのモジュール(例えば、命令のセット)は、別個のソフトウェアプログラム、プロシージャ、又はモジュールとして実装される必要はなく、したがってこれらのモジュールの様々なサブセットは、任意選択的に、組み合わせられ又はそうでなければ様々な実施形態に再配置される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わせられて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で明らかにされたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、任意選択的に、上記で説明されていない追加のモジュール及びデータ構造を記憶する。
いくつかの実施形態では、装置100は、その装置における所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行される装置である。装置100の操作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、装置100上の物理的な入力制御デバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される機能の所定のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、装置100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー又はルートメニューに装置100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドに代えて、物理プッシュボタン又はその他の物理入力制御デバイスである。
図1Bは、いくつかの実施形態に従うイベント処理をする例示的な構成要素を表すブロック図である。いくつかの実施形態では、メモリ102(図1A)又はメモリ370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内の)及び対応するアプリケーション136−1(例えば、上述のアプリケーション137〜151、155、380〜390のいずれでも)を含む。
イベントソータ170は、イベント情報を受け、イベント情報の配信先となるアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136−1は、そのアプリケーションがアクティブであるか又は実行中のときタッチ感知ディスプレイ112上に表示される現在のアプリケーションビュー(単数又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、装置/グローバル内部状態157をイベントソータ170が使用して、どのアプリケーション(単数又は複数)が現在アクティブであるかを判定し、アプリケーション内部状態192をイベントソータ170が使用して、イベント情報の配信先となるアプリケーションビュー191を決定する。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開するときに使用される再開情報、アプリケーション136−1によって表示されている又は表示される準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にする状態待ち行列、及びユーザが行った以前のアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受ける。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上へのユーザのタッチ)についての情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計(単数又は複数)168及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受ける情報を伝送する。周辺機器インタフェース118がI/Oサブシステム106から受ける情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。応答して、周辺機器インタフェース118は、イベント情報を伝送する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回りかつ/又は所定の持続時間を超えた入力を受けること)が存在するときにのみ、イベント情報を送信する。
いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が1つを超えるビューを表示するときに、1つ以上のビュー内のどこでサブイベントが起こったかを判定するソフトウェアプロシージャを提供する。ビューは、ユーザがディスプレイ上で見ることができる制御及びその他の要素からなる。
アプリケーションに関連付けられたユーザインタフェースの他の様相は、ビューのセットであり、情報が表示され及びタッチによるジェスチャが発生する、アプリケーションビュー又はユーザインタフェースウィンドウと、本明細書では時に呼ばれる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチによるジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。
ヒットビュー判定モジュール172は、タッチによるジェスチャのサブイベントに関連する情報を受ける。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき階層内の最下位のビューとして、ヒットビューを識別する。殆どの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する、最下位レベルのビューである。ヒットビューが、ヒットビュー判定モジュール172によって識別されると、そのヒットビューは、典型的には、それによってヒットビューとして識別された同じタッチ又は入力ソースに関連する全てのサブイベントを受ける。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受けるべきかを決定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受けるべきであると決定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的場所を含む全てのビューがアクティブに関わりがあることを判定し、よって、アクティブに関わりがある全てのビューがサブイベントの特定のシーケンスを受けるべきことを判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられた領域に完全に制限された場合であっても、階層内でより高いビューは、依然としてアクティブに関わりがあるビューのままであることになる。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)に発送する。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173によって判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、対応するイベント受信部182によって引き出されるイベント情報をイベントキューに記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュール、又は、接触/動きモジュール130などの、メモリ102に記憶された他のモジュールの一部である。
いくつかの実施形態では、アプリケーション136−1は、それぞれがアプリケーションのユーザインタフェースの対応するビュー内で起こる接触イベントを処理する命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、対応するアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136−1が方法及び他の特性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、対応するイベントハンドラ190は、データ更新部176、オブジェクト更新部177、GUI更新部178及び/又はイベントソータ170から受けられたイベントデータ179、のうちの1つ以上を含む。イベントハンドラ190は、データ更新部176、オブジェクト更新部177、又はGUI更新部178を任意選択的に利用し又は呼び出して、アプリケーション内部状態192を更新する。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受けて、そのイベント情報からイベントを識別する。イベント認識部180は、イベント受信部182及びイベント比較器184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくとも1つのサブセットも含む。
イベント受信部182は、イベントソータ170からイベント情報を受ける。イベント情報は、サブイベントについての情報、例えば、タッチ又はタッチの動きについての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの場所などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、装置のある向きから別の向きへの回転(例えば、縦長向きから横長向き、又はその逆)を含み、イベント情報は、装置の現在の向き(装置姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較器184は、イベント情報を定義済みのイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを判定し、又はイベント若しくはサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較器184は、イベント定義186を含む。イベント定義186は、イベントの定義(例えば、サブイベントの定義済みのシーケンス)、例えば、イベント1(187−1)、イベント2(187−2)などを含む。いくつかの実施形態では、イベント(187)内のサブイベントは、例えば、タッチの開始、タッチの終了、タッチの動き、タッチの取り消し、及び複数のタッチを含む。一例では、イベント1(187−1)の定義は、表示されたオブジェクト上でのダブルタップである。このダブルタップは、例えば、所定の段階に関する表示オブジェクト上での第1のタッチ(タッチの開始)、所定の段階に関する第1のリフトオフ(タッチの終了)、所定の段階に関する表示オブジェクト上での第2のタッチ(タッチの開始)、及び所定の段階に関する第2のリフトオフ(タッチの終了)を含む。別の例では、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に関する表示オブジェクト上でのタッチ(又は、接触)、タッチ感知ディスプレイ112を横断するタッチの動き、及びタッチのリフトオフ(タッチの終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較器184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較器184は、3つのユーザインタフェースオブジェクトのうちのいずれがそのタッチ(サブイベント)と関連付けられているかを判定するために、ヒットテストを実行する。表示されたオブジェクトのそれぞれが、対応するイベントハンドラ190に関連付けられている場合には、イベント比較器は、ヒットテストの結果を使用して、どのイベントハンドラ190をアクティブ化すべきかを判定する。例えば、イベント比較器184は、ヒットテストをトリガするサブイベント及びオブジェクトと関連付けられたイベントハンドラを選択する。
いくつかの実施形態では、それぞれのイベント(187)に関する定義はまた、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の配信を遅延させる、遅延アクションを含む。
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のいずれのイベントとも一致しないことを判定したときには、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態になり、その後は、タッチによるジェスチャの後続のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチによるジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにしてサブイベント配信を実行すべきかをアクティブに関わりがあるイベント認識部に対して示す、構成可能なプロパティ、フラグ及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話することができるようになっているかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における様々なレベルに配信されるかどうかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されたときに、イベントと関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントと関連付けられたイベント情報を、イベントハンドラ190に配信する。イベントハンドラ190をアクティブ化することは、サブイベントをそれぞれのヒットビューに送信すること(及び遅らせて送信すること)とは異なる。いくつかの実施形態では、イベント認識部180は、認識されたイベントと関連付けられたフラグを投入し、そのフラグと関連付けられたイベントハンドラ190は、そのフラグを捉え、所定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。このサブイベント配信命令は、その代わりに、一連のサブイベントと関連付けられたイベントハンドラ、又はアクティブに関わりがあるビューに、イベント情報を配信する。一連のサブイベント又はアクティブに関わりがあるビューと関連付けられたイベントハンドラは、イベント情報を受け、所定のプロセスを実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136−1で使用されるデータを作成し及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成する、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、ディスプレイ情報を用意し、タッチ感知ディスプレイ上の表示のためにそれをグラフィックスモジュール132に送る。
いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はアクセスする。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上でのユーザのタッチのイベント処理に関する前述の論考はまた、入力装置を使用して多機能装置100を動作させる他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの動き及びマウスボタンの押圧、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触の動き、ペンスタイラス入力、装置の動き、口頭指示、検出された眼球運動、バイオメトリック入力、及び/又はこれらのいかなる組み合わせも、認識されるべきイベントを定義するサブイベントに対応する入力として任意選択的に利用される。
図2は、いくつかの実施形態に従う、タッチスクリーン112を有するポータブル多機能装置100を表す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態並びに以下で説明される他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャをなすことによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断するときに起こる。いくつかの実施形態では、ジェスチャは、任意選択的に、1回以上のタップ、1回以上の(左から右へ、右から左へ、上方向へ及び/又は下方向への)スワイプ、及び/又は、装置100と接触した指の(右から左へ、左から右へ、上方向へ及び/又は下方向への)ローリングを含む。いくつかの実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択しない。
装置100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、装置100上で任意選択的に実行されるアプリケーションのセット内の任意のアプリケーション136にナビゲートするために、任意選択的に使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、装置100は、タッチスクリーン112、メニューボタン204、装置の電源をオン/オフし装置をロックするプッシュボタン206、音量調節ボタン(単数又は複数)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の期間にわたってボタンを押し下げた状態に保持することによって、装置の電源をオン/オフするため、ボタンを押し下げて、所定の期間が経過する前にボタンを解放することによって、装置をロックするため、及び/又は装置をロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的実施形態では、装置100はまた、マイクロフォン113を介して、いくつかの機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。装置100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又は、装置100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167も含む。
図3は、いくつかの実施形態に従う、ディスプレイ及びタッチ感知面を有する例示的な多機能装置のブロック図である。装置300は、ポータブル型である必要はない。いくつかの実施形態では、装置300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤ装置、ナビゲーション装置、教育装置(子供の学習玩具など)、ゲームシステム、又は制御装置(例えば、家庭や産業用のコントローラ)である。装置300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク若しくは他の通信インタフェース360、メモリ370、及び、これらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、システム構成要素間の通信を相互接続する及び制御する回路(チップセットと呼ばれることがある)を、任意選択的に含む。装置300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、キーボード及び/又はマウス(又は他のポインティング装置)350及びタッチパッド355、装置300に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して上述された触知出力生成器(単数又は複数)167に類似する)、センサ359(例えば、図1Aを参照して上述された接触強度センサ(単数又は複数)165に類似する、光センサ、加速度センサ、近接センサ、タッチ感知センサ及び/又は接触強度センサ)を任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリ装置、又は他の不揮発性ソリッドステート記憶装置などの不揮発性メモリを含む。メモリ370は、CPU(単数又は複数)310から離れて位置する1つ以上の記憶装置を任意選択的に含む。いくつかの実施形態では、メモリ370は、ポータブル多機能装置100のメモリ102に記憶された、プログラム、モジュール及びプログラムに類似するデータ構造、モジュール、及びデータ構造(図1A)又はそのサブセットを記憶する。更に、メモリ370は、ポータブル多機能装置100のメモリ102にはない追加のプログラム、モジュール及びデータ構造を任意選択的に記憶する。例えば、装置300のメモリ370は、描画モジュール380、提示モジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388及び/又はスプレッドシートモジュール390を任意選択的に記憶するが、一方ポータブル多機能装置100のメモリ102(図1A)は任意選択的にこれらのモジュールを記憶しない。
上記で明らかにされた図3の要素のそれぞれは、任意選択的に、前述のメモリ装置のうちの1つ以上に記憶される。上記で明らかにされたモジュールのそれぞれは、上述の機能を実行する命令セットに対応する。上記で明らかにされたモジュール又はプログラム(例えば、命令のセット)は、別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、任意選択的に、組み合わせられ又はさもなければ様々な実施形態に再配置される。いくつかの実施形態では、メモリ370は、上記で明らかにされたモジュール及びデータ構造のサブセットを任意選択的に記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
ここで、例えばポータブル多機能装置100上に任意選択的に実装される、ユーザインタフェースの実施形態に注意を向ける。
図4Aは、いくつかの実施形態に従うポータブル多機能装置100上のアプリケーションのメニュー用の例示的なユーザインタフェースを表す。同様のユーザインタフェースは、任意選択的に、装置300で実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセット、すなわち、
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)に関する信号強度インジケータ(単数又は複数)402、
●時間404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、

○逸した呼又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた電話モジュール138用のアイコン416、
○未読の電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称される、ビデオ及び音楽プレーヤモジュール152用のアイコン422などの、頻繁に使用されるアプリケーション用のアイコンを有するトレイ408、並びに、

○「メッセージ」とラベル付けされたIMモジュール141用のアイコン424、
○「カレンダ」とラベル付けされたカレンダモジュール148用のアイコン426、
○「写真」とラベル付けされた画像管理モジュール144の用のアイコン428、
○「カメラ」とラベル付けされたカメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされたオンラインビデオモジュール155用のアイコン432、
○「株式」とラベル付けされた株式ウィジェット149−2用のアイコン434、
○「地図」とラベル付けされた地図モジュール154用のアイコン436、
○「天気」とラベル付けされた天気ウィジェット149−1用のアイコン438、
○「時計」とラベル付けされたアラーム時計ウィジェット149−4用のアイコン440、
○「トレーニングサポート」とラベル付けされたトレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされたモジュール153用のアイコン444、及び
○装置100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション若しくはモジュール用のアイコン446などの、他のアプリケーション用のアイコンを含む。
図4Aに表されたアイコンのラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽再生モジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコン用に任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコン用のラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコン用のラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、タブレット又はタッチパッド355、図3)を有する装置(例えば、装置300、図3)上の例示的なユーザインタフェースを表す。装置300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、1つ以上のセンサ359)及び/又は装置300のユーザに対し触知出力を生成する1つ以上の触知出力生成器357を含む。
以下の例のいくつかは、タッチスクリーンディスプレイ112(タッチ感知面とディスプレイが組み合わせられている)上の入力について示されるが、いくつかの実施形態では、装置が、図4Bに示されているように、ディスプレイとは別個のタッチ感知面の上での入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、装置は、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bで、460は468に対応し、462は470に対応する)においてタッチ感知面451で接触(例えば、図4Bにおける460と462)を検出する。このようにして、タッチ感知面(例えば、図4Bにおける451)上で装置によって検出されたユーザ入力(例えば、接触460と462、及びその動き)は、タッチ感知面がディスプレイとは別個であるとき、装置によって使用されて、多機能装置のディスプレイ(例えば、図4Bにおける450)上のユーザインタフェースを操作する。同様の方法は、任意選択的に、本明細書に記載された他のユーザインタフェース用に使用されることを理解されたい。
更には、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)に関して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力装置からの入力(例えば、マウスに基づく入力、又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の動きの代わりの)スワイプの経路に沿ったカーソルの動きによって、任意選択的に置き換えられる。いくつかの実施形態では、タップジェスチャは、任意選択的に、カーソルがタップジェスチャの場所上に位置する間マウスクリックに置き換えられる(例えば、接触の検出に続く接触の検出を止めることに換えて)。同様に、複数のユーザ入力が同時に検出されるときは、複数のコンピュータマウスが任意選択的に同時に使用されるか、又はマウスと指接触が任意選択的に同時に使用されることを理解されたい。
図5Aは、例示的なパーソナル電子装置500を表す。装置500は、本体502を含む。いくつかの実施形態では、装置500は、装置100及び300(例えば、図1A〜4B)に関して説明された特徴のいくつか又は全てを含むことができる。いくつかの実施形態では、装置500は、以下ではタッチスクリーン504である、タッチ感知ディスプレイスクリーン504を有する。あるいは、又はタッチスクリーン504に加えて、装置500は、ディスプレイ及びタッチ感知面を有する。装置100及び300の場合と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、加えられている接触(例えば、タッチ)の強さを検出する1つ以上の強度センサを任意選択的に含む。タッチスクリーン504(又は、タッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。装置500のユーザインタフェースは、それらの強度に基づいてタッチに応答することができ、異なる強度のタッチは装置500上に異なるユーザインタフェース動作を引き起こすことができることを意味する。
タッチ強度を検出して処理する例示的な技術は、例えば、関連出願である、2013年5月8日出願の「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」と題された国際特許出願第PCT/US2013/040061号(国際公開第WO/2013/169849号として公開)、及び2013年11月11日出願の「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」と題された同第PCT/US2013/069483号(国際公開第WO/2014/105276号として公開)に見出され、これらの文献のそれぞれは、全体が参照により本明細書に組み込まれる。
いくつかの実施形態では、装置500は、1つ以上の入力機構506及び入力機構508を有する。入力機構506及び入力機構508は、含まれる場合には、物理的なものとすることができる。物理入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、装置500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合には、装置500を、例えば、帽子、アイウェア、イヤリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計バンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどに取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザによって装置500が着用されることを可能にする。
図5Bは、例示的なパーソナル電子装置500を示す。いくつかの実施形態では、装置500は、図1A、図1B及び図3について説明された構成要素のいくつか又は全部を含むことができる。装置500は、I/O部514を、1つ以上のコンピュータプロセッサ516及びメモリ518と動作可能に結合する、バス512を有する。I/O部514は、タッチ感知構成要素522、及び、任意選択的に、強度センサ524(例えば、接触強度センサ)を有することができるディスプレイ504に接続されることができる。加えて、I/O部514は、Wi−Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技術を使用して、アプリケーション及びオペレーティングシステムデータを受ける通信ユニット530に接続されることができる。装置500は、入力機構506及び/又は508を含むことができる。例えば、入力機構506は、任意選択的に、回転可能入力装置、又は押下可能かつ回転可能な入力装置である。いくつかの例では、入力機構508は、任意選択的にボタンである。
いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子装置500は、GPSセンサ532、加速度計534、方向センサ540(例えばコンパス)、ジャイロスコープ536、モーションセンサ538、及び/又はそれらの組み合わせなど、これらの全てがI/O部514に動作可能に接続されることができる、様々なセンサを任意選択的に含む。
パーソナル電子装置500のメモリ518は、1つ以上のコンピュータプロセッサ516によって実行されたとき、例えば、処理700、1000、1300及び1600(図7、図10、図13及び図16)を含む、以下に説明される技術をコンピュータプロセッサに実行させることができる、コンピュータ実行可能な命令を記憶する、1つ以上の非一時的なコンピュータ可読記憶媒体を含むことができる。パーソナル電子装置500は、図5Bの構成要素や構成に限定されることなく、複数の構成における他の又は追加の構成要素を含むことができる。
ここで使用されるとき、用語「アフォーダンス」は、装置100、300及び/又は500(図1、図3及び図5)のディスプレイスクリーン上に任意選択的に表示されるユーザ対話式のグラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン及びテキスト(例えば、ハイパーリンク)はそれぞれ、任意選択的に、アフォーダンスを構成する。
本明細書で使用されるとき、用語「フォーカスセレクタ」とは、ユーザが対話しているユーザインタフェースの現在の一部を示す、入力要素を指す。カーソル又はその他の場所マーカを含むいくつかの実装形態では、カーソルは、「フォーカスセレクタ」として動作して、カーソルが特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ又は他のユーザインタフェース要素)上にある間に、入力(例えば、押圧入力)がタッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で検出されたとき、特定のユーザインタフェース要素は検出された入力にしたがって調整される。タッチスクリーンディスプレイ上でユーザインタフェース要素との直接的な対話を可能にするタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上で検出された接触は、「フォーカスセレクタ」として動作して、入力(例えば、接触による押圧入力)がタッチスクリーンディスプレイ上で特定のユーザインタフェース要素(例えば、ボタン、ウィンドウ、スライダ又は他のユーザインタフェース要素)の場所に検出されたとき、特定のユーザインタフェース要素は、検出された入力にしたがって調整される。いくつかの実装形態では、フォーカスは、タッチスクリーンディスプレイ上における対応するカーソルの動き又は接触の動きを伴うことなく(例えば、タブキー又は矢印キーを使用して、1つのボタンから別のボタンにフォーカスを動かすことによって)、ユーザインタフェースの1つの領域からユーザインタフェースの別の領域に動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの動きにしたがって動く。フォーカスセレクタが呈する具体的な形態とは関わりなく、フォーカスセレクタは、一般的に、ユーザが意図するユーザインタフェースとの対話を(例えば、それを用いてユーザが対話することを意図しているユーザインタフェースの要素を装置に示すことによって)伝達するようにユーザによって制御されるユーザインタフェース要素(又は、タッチスクリーンディスプレイ上での接触)である。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、対応するボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の場所は、対応するボタンを(その装置のディスプレイ上に示される他のユーザインタフェース要素と対照的に)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲で使用されるとき、接触の「特性強度」という用語は、接触の1つ以上の強度に基づくその接触の特性を指す。いくつかの実施形態では、特性強度は、複数の強度サンプルに基づく。特性強度は、任意選択的に、既定数の強度サンプル、又は、既定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の動きの開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後)に関連する所定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された、強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均値、接触の強度の平均の値、接触の強度のトップ10パーセント値、接触の強度の最大の半分における値、接触の強度の最大の90パーセントにおける値などのうちの1つ以上に基づく。いくつかの実施形態では、接触の持続時間は、特性強度(例えば、特性強度が時間経過における接触の強度の平均であるとき)を決定することに、用いられる。いくつかの実施形態では、操作がユーザによって実行されたか否かを判定するために、特性強度を1つ以上の強度閾値のセットと比較する。例えば、1つ以上の強度閾値のセットは、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、結果として第1の動作をもたらし、第1の強度閾値を超過しかつ第2の強度閾値を超過しない特性強度を有する接触は、結果として第2の動作をもたらし、第2の閾値を超過する特性強度を有する接触は、結果として第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との比較は、第1の動作又は第2の動作を行うかを判定するために使用されるよりむしろ、1つ以上の動作を実行するか又は実行しないか(例えば、対応する動作を行うか又は対応する動作を実行することを取り止めるかどうか)を判定するために使用される。
図5Cは、複数の強度センサ524A〜524Dを有するタッチ感知ディスプレイスクリーン504上で複数の接触552A〜552Eを検出することを表す。図5Cは、追加として、強度単位に対する強度センサ524A〜524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。いくつかの実装形態では、集計強度は、複数の強度センサ524A〜524Dの強度測定値の和であり、この例では32強度単位である。いくつかの実施形態では、各接触には、この集計強度の部分である、それぞれの強度が割り当てられる。図5Dは、力554の中心からの接触552A〜552Eの距離に基づいて、集計強度を接触552A〜552Eに割り当てることを表す。この例では、接触552A、552B及び552Eのそれぞれは、集計強度の8強度単位の接触の強度が割り当てられ、接触552Cと552Dのそれぞれは、集計強度の4強度単位の接触の強度が割り当てられる。より一般的には、いくつかの実装形態では、各接触jは、既定の数学関数Ij=A・(Dj/ΣDi)にしたがって、集計強度Aの部分である、それぞれの強度Ijが割り当てられる。ここで、Djは、力の中心までのそれぞれの接触jの距離であり、ΣDiは、力の中心までのそれぞれの接触全て(例えば、i=1から最後まで)の距離の和である。図5C〜5Dを参照して説明された動作は、装置100、300又は500と類似する若しくは同じ電子装置を使用して行われることができる。いくつかの実施形態では、接触の特性強度は、その接触の1つ以上の強度に基づく。いくつかの実施形態では、強度センサを使用して、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定する。強度図は表示されるユーザインタフェースの部分ではないが、読み手のために、図5C〜5Dに含まれていることに留意されたい。
いくつかの実施形態では、特性強度を判定する目的のために、ジェスチャの部分が識別される。例えば、タッチ感知面は、任意選択的に、開始場所から移行して終了場所に到達し、その時点で接触の強度が増大する、連続的なスワイプ接触を受ける。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触の全体ではなく、連続的なスワイプ接触の部分のみ(例えば、終了場所におけるスワイプ接触の部分のみ)に基づいている。いくつかの実施形態では、接触の特性強度を判定する前に、平滑化アルゴリズムが、任意選択的に、スワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の狭小な上昇又は低下を取り除く。
タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの、1つ以上の強度閾値に応じて特徴付けされる。いくつかの実施形態では、軽い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることに典型的に関連付けられた動作を装置が実行することになる強度に対応する。いくつかの実施形態では、深い押圧強度閾値は、物理マウスのボタン又はトラックパッドをクリックすることに典型的に関連付けられた動作とは異なる動作を装置が実行することになる強度に対応する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、かつ、それを下回ると接触がもはや検出されない微弱な接触検出強度閾値を上回る)特性強度で接触が検出されるとき、装置は、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の動きにしたがって、フォーカスセレクタを動かすことになる。一般的には、別途記載のない限り、これらの強度閾値は、異なるユーザインタフェース図のセット間でも一貫している。
軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」入力と称される場合がある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」入力と称される場合がある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と称される場合がある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と称される場合がある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値はゼロよりも大きい。
本明細書で説明されるいくつかの実施形態では、1つ以上の動作は、対応する押圧入力を含むジェスチャの検出に応答して、又は、対応する接触(又は、複数の接触)で実行される対応する押圧入力の検出に応答して実行され、それらの対応する押圧入力は、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度の増大を検出することに少なくとも部分的に基づいて検出される。いくつかの実施形態では、対応する動作は、押圧入力強度閾値を上回る、対応する接触の強度の増大(例えば、対応する押圧入力の「ダウンストローク」)の検出に応答して、実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回る、対応する接触の強度の増大、及び、後続の押圧入力強度閾値を下回る接触の強度の減少を含み、対応する動作は、その後続の押圧入力閾値を下回る、対応する接触の強度の減少(例えば、対応する押圧入力の「アップストローク」)の検出に応答して、実行される。
図5E〜5Hは、図5Eの軽い押圧強度閾値(例えば、「IT」)を下回る強度から図5Hの深い押圧強度閾値を上回る強度(例えば、「IT」)への、接触562の強度の増大に対応する押圧入力を含むジェスチャの検出を表す。接触562で実行されたジェスチャは、既定の領域574内に表示されたアプリケーションアイコン572A〜572Dを含む表示されたユーザインタフェース570上で、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示されている間に、タッチ感知面560上で検出される。いくつかの実施形態では、このジェスチャは、タッチ感知ディスプレイ504上で検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。この装置は、接触562の強度が、深い押圧強度閾値(例えば、「IT」)を上回るピークに達したことを判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応答して、ジェスチャの間に深い押圧強度閾値(例えば、「IT」)を上回る強度を有する接触562にしたがって、図5F〜5Hに示されたように、アプリ2に対して最近開いた文書の縮尺が低減された表現578A〜578C(例えば、サムネイル)が表示される。いくつかの実施形態では、1つ以上の強度閾値と比較される強度は、接触の特性強度である。接触562の強度図は、表示されるユーザインタフェースの一部ではないが、読み手のために、図5E〜5Hに含まれていることに留意されたい。
いくつかの実施形態では、表現578A〜578Cの表示は、アニメーションを含む。例えば、表現578Aは、最初、図5Fに示すように、アプリケーションアイコン572Bに近接して表示されている。アニメーションが進行するにつれて、図5Gに示すように、表現578Aは上方へ動き、アプリケーションアイコン572Bに近接して表現578Bが表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Aに向けて表現578Bが上方へ動き、アプリケーションアイコン572Bに近接して表現578Cが表示される。表現578A〜578Cは、アイコン572Bの上方にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F〜5Gに示すように、接触562の強度にしたがって進行し、ここで、接触562の強度が深い押圧強度閾値(例えば、「IT」)に向けて増大するにつれて、表現578A〜578Cが現れ、そして上方へ動く。いくつかの実施形態では、このアニメーションの進行が基づく強度は、接触の特性強度である。図5E〜5Hを参照して説明する動作は、装置100、300又は500に類似する又は同じ電子装置を使用して実行することができる。
いくつかの実施形態では、装置は、時に「ジッタ」と称される不測の入力を避けるために強度ヒステリシスを用い、ここで、装置は、押圧入力強度閾値に対する規定の関係を持つヒステリシス強度閾値(例えば、ヒステリシス強度閾値は押圧入力強度閾値よりも小さいX強度単位であるか又はヒステリシス強度閾値は押圧入力強度閾値の75%、90%又はある適当な比率である)を規定し又は選択する。それゆえ、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回る、対応する接触の強度の増大、及び後続の、押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、対応する動作は、ヒステリシス強度閾値を下回る、後続の対応する接触の強度の減少(例えば、対応の押圧入力の「アップストローク」)の検出に応答して、実行される。同様に、いくつかの実施形態では、押圧入力は、装置が、ヒステリシス強度閾値以下の強度から、押圧入力強度閾値以上の強度への、接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への、後続の接触の強度の減少を検出するときにのみ、検出され、対応する動作は、その押圧入力(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)の検出に応答して、実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力に応答して、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかの検出に応答して、任意選択的にトリガされる。更には、押圧入力強度閾値を下回る、接触の強度の減少の検出に応答して、動作が実行されるとして説明される例では、その動作は、押圧入力強度閾値に対応し、かつ押圧入力強度閾値よりも低い、ヒステリシス強度閾値を下回る、接触の強度の減少の検出に応答して、任意選択的に実行される。
例示的な方法、非一時的コンピュータ可読記憶媒体、システム、及び電子デバイスが以下の項目において説明される。
1.
ディスプレイを有するデバイスにおいて、
文脈的関連メディアを表示する要求を受信することと、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示することであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、ことと、
を含む、方法。
2.
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第3のコレクションの表現をディスプレイ上に表示することであって、メディア項目の第1のコレクションは、第1のコンテキストプロパティに基づく第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキストプロパティに基づく第1のコンテキストに関連し、第2のコンテキストプロパティは、第1のコンテキストプロパティとは異なる、ことを更に含む、項目1に記載の方法。
3.
メディア項目の第1のコレクションの表現は、第1のアフォーダンスであり、方法は、
第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
ユーザ入力を受信することに応答して、メディア項目の第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目1又は2に記載の方法。
4.
メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む、項目1から3のいずれか一項に記載の方法。
5.
メディア項目の第1のコレクションに関連付けられたテキスト識別子を生成することと、
選択されたメディア項目内の顔を識別することであって、選択されたメディア項目は画像である、ことと、
メディア項目の第1のコレクションの表現に重ね合わせられたテキスト識別子をディスプレイ上に表示することであって、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔と重畳されない、ことと、
を更に含む、項目1から4のいずれか一項に記載の方法。
6.
メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上の単語を含む、項目5に記載の方法。
7.
詳細ユーザインタフェースを表示する前に、ディスプレイの第1の部分を視覚的に占有するメディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに続いて、かつ詳細ユーザインタフェースを表示しながら、ディスプレイの第1の部分とは別個のディスプレイの第2の部分を視覚的に占有するメディア項目の第1のコレクションのキーメディア項目をディスプレイ上に表示することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに更に応答して、キーメディア項目に移行するメディア項目の第1のコレクションの表現のアニメートされた遷移をディスプレイ上に表示することと、
を更に含む、項目3から6のいずれか一項に記載の方法。
8.
詳細ユーザインタフェースを表示しながら、メディア項目の第1のコレクションの複数のメディア項目を含むスライドショーをディスプレイ上に表示することと、
スライドショーの選択に対応するユーザ入力を受信することと、
スライドショーの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの複数のメディア項目を含む動画をディスプレイ上に表示することであって、スライドショーと動画は異なる、ことと、
を更に含む、項目3から7のいずれか一項に記載の方法。
9.
スライドショーを編集する要求に対応するユーザ入力を受信することと、
スライドショーを編集する要求に対応するユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目8に記載の方法。
10.
詳細ユーザインタフェースは、第1の領域を含み、第1の領域は、メディア項目の第1のコレクションのメディア項目のサブセットを含むキュレートされたビューを含み、メディア項目のサブセットは、より低い品質の写真を除外するように選択される、項目3から9のいずれか一項に記載の方法。
11.
第1の領域は、第2のアフォーダンスを更に含み、方法は、
第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のアフォーダンスの選択に対応する入力を受信する前に表示されなかったメディア項目の第1のコレクションの追加メディア項目の表現を含む拡張ビューをディスプレイ上に表示することと、
を更に含む、項目10に記載の方法。
12.
キュレートされたビューにおけるメディア項目のサブセットは、メディア項目のサブセットのメディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、項目10又は11に記載の方法。
13.
キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配列に配置され、メディア項目のキュレートされた配列に含まれるメディア項目のサブセットは、キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するようにメディア項目のエッジが整列されるように配置される、項目10から12のいずれか一項に記載の方法。
14.
キュレートされた配列の下部における実質的に真っ直ぐな境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される、項目13に記載の方法。
15.
第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、第1のサイズと第2のサイズは異なり、第1のアスペクト比と第2のアスペクト比は異なり、キュレートされた配列の下部における実質的に真っ直ぐな境界は、第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、項目14に記載の方法。
16.
メディア項目の寸法に部分的に基づいて、メディア項目の第1のコレクションのメディア項目からメディア項目のキュレートされたサブセットを選択すること、
を更に含む、項目10から15のいずれか一項に記載の方法。
17.
キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することと、
キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することに応答して、第3のメディア項目及びスクラビングアフォーダンスをディスプレイ上に表示することと、
スクラビングアフォーダンスに対応するユーザ入力を受信することと、
スクラビングアフォーダンスに対応するユーザ入力を受信することに応答して、スクラビングアフォーダンスを表示し続けながら、第3のメディア項目の表示をメディア項目のキュレートされたサブセットの第4のメディア項目の表示に置き換えることと、
を更に含む、項目10から14のいずれか一項に記載の方法。
18.
詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、詳細ユーザインタフェースを表示することは、
メディア項目の第1のコレクションの第5のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示すること、
を更に含む、項目3から17のいずれか一項に記載の方法。
19.
地理的地図を表示しながら、第3のアフォーダンスをディスプレイ上に表示することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションに含まれていないメディア項目の位置に対応する地理的地図ビュー内の追加位置インジケータをディスプレイ上に表示することと、
を更に含む、項目18に記載の方法。
20.
追加位置インジケータを表示した後、
第4のアフォーダンスをディスプレイ上に表示することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、追加位置インジケータを地理的地図ビューに表示することを停止することと、
を更に含む、項目19に記載の方法。
21.
位置インジケータの選択に対応するユーザ入力を受信することと、
位置インジケータの選択に対応するユーザ入力を受信することに応答して、地理的地図ビューの表示を第5のメディア項目の表示に置き換えることと、
を更に含む、項目18から20のいずれか一項に記載の方法。
22.
詳細ユーザインタフェースは、メディア項目の第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、方法は、
識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することと、
識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションをディスプレイ上に表示することであって、メディア項目の第4のコレクションのメディア項目のそれぞれは、識別された顔を含む、ことと、
を更に含む、項目3から21のいずれか一項に記載の方法。
23.
詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の第5のコレクションのメディア項目は、メディア項目の第1のコレクションのメディア項目を有する第1の特性を共有し、方法は、
メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目3から22のいずれか一項に記載の方法。
24.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、
1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信することであって、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なる、ことと、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することに応答して、詳細ユーザインタフェース、及び第4の領域内のメディア項目の第6のコレクションの表現をディスプレイ上に表示することと、
を更に含む、項目23に記載の方法。
25.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示しながら、
第5のアフォーダンスをディスプレイ上に表示することと、
第5のアフォーダンスの選択に対応するユーザ入力を受信することと、
第5のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けることと、
を更に含む、項目3から24のいずれか一項に記載の方法。
26.
メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することと、
メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
を更に含む、項目25に記載の方法。
27.
ディスプレイ及びタッチ感知面を有するデバイスにおいて、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示することと、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信することと、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことと、
を含む、方法。
28.
ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置で検出される、項目27に記載の方法。
29.
それぞれの方向の移動を含むユーザ入力は、第1のユーザ入力であり、方法は、
第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
第2のユーザ入力が第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第2の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示に置き換えることと、
を更に含む、項目27又は28に記載の方法。
30.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、方法は、
第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
第2のユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、第2の視覚的メディア項目に対する関連コンテンツは、第1のメディア項目に対する関連コンテンツとは異なる、ことと、
を更に含む、項目29に記載の方法。
31.
第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信することと、
第3のユーザ入力が第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
第3のユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイ上に表示することと、
を更に含む、項目27から30のいずれか一項に記載の方法。
32.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、経時的に配置される、項目31に記載の方法。
33.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、項目31から32のいずれか一項に記載の方法。
34.
第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信することと、
第4のユーザ入力が第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイ上に表示することと、
を更に含む、項目31から33のいずれか一項に記載の方法。
35.
第1の視覚的メディア項目に対する関連コンテンツの表現は、経時的に配置される、項目27から34のいずれか一項に記載の方法。
36.
第1の視覚的メディア項目を表示しながら、第1の方向の移動を含む第5のユーザ入力を受信することと、
第5のユーザ入力を受信することに応答して、
第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがってディスプレイ上の第1の視覚的メディア項目を移動することと、
第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、第5のユーザ入力にしたがってディスプレイ上の第1の視覚的メディア項目を移動し、詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目27から35のいずれか一項に記載の方法。
37.
詳細ユーザインタフェースは、第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目内で識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含み、方法は、
識別された顔の選択に対応するユーザ入力を受信することと、
識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションをディスプレイ上に表示することであって、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される、ことと、
を更に含む、項目27から36のいずれか一項に記載の方法。
38.
詳細ユーザインタフェースは、第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、第2のカテゴリは、位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、項目27から37のいずれか一項に記載の方法。
39.
第2の領域の選択に対応するユーザ入力を受信することと、
第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置の視覚表現を含む地図ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目38に記載の方法。
40.
アドレスの選択に対応するユーザ入力を受信することと、
アドレスの選択に対応するユーザ入力に応答して、地図アプリケーションのユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目39に記載の方法。
41.
詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、方法は、
視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することと、
を更に含む、項目27から40のいずれか一項に記載の方法。
42.
視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する、項目41に記載の方法。
43.
第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを表示することは、
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することを含む、項目27から42のいずれか一項に記載の方法。
44.
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することは、
表示されたままの第1の視覚的メディア項目の部分が第1の視覚的メディア項目の所定の部分になるまで、表示された第1の視覚的メディア項目を第1の方向にスクロールすることと、
所定の部分が表示された部分になるまでスクロールした後、
第1の視覚的メディア項目のスクロールを停止することと、
第1のメディア項目の所定の部分が静止している間に、詳細ユーザインタフェースを明瞭化するためにスクロールを続けることと、
を含む、項目43に記載の方法。
45.
第1の視覚的メディア項目は、画像又は動画である、項目27から44のいずれか一項に記載の方法。
46.
詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示された任意の視覚的メディア項目のディスプレイにおいてアクセス可能である、項目27から45のいずれか一項に記載の方法。
47.
ディスプレイを有するデバイスにおいて、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示することと、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示することと、
アフォーダンスの選択に対応するユーザ入力を受信することと、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことと、
を含む、方法。
48.
複数の個人による特定のイベントの出席は、特定のイベントに対応する少なくとも1つのメディア項目内の複数の個人のうちの個人の顔を識別することに基づいて識別される、項目47に記載の方法。
49.
複数の個人による特定のイベントの出席は、複数の個人に関連付けられた位置データに基づいて識別され、位置データは、特定のイベントの時刻に特定のイベントの場所にいた複数の個人のうちの個人に対応するデバイスを識別するデータを含む、項目47又は48に記載の方法。
50.
第2の視覚的メディアは、複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、項目47から49のいずれか一項に記載の方法。
51.
第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショーを含む第1の領域を含み、方法は、
スライドショーの選択に対応するユーザ入力を受信することと、
スライドショーの選択に対応するユーザ入力に応答して、第2の視覚的メディアのメディア項目を含む動画をディスプレイ上に表示することであって、スライドショーと動画は異なる、ことと、
を更に含む、項目47から50のいずれか一項に記載の方法。
52.
第2の詳細ユーザインタフェースは、第2の領域を含み、第2の領域は、第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む、項目47から51のいずれか一項に記載の方法。
53.
第2の領域は、第1のアフォーダンスを更に含み、方法は、
第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の視覚的メディアのメディア項目の拡張ビューをディスプレイ上に表示することと、
を更に含む、項目52に記載の方法。
54.
第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、詳細ユーザインタフェースを表示することは、
第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示すること、
を更に含む、項目47から53のいずれか一項に記載の方法。
55.
第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、方法は、
視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することと、
を更に含む、項目47から54のいずれか一項に記載の方法。
56.
視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する、項目55に記載の方法。
57.
第2の詳細ユーザインタフェースを表示しながら、それぞれが複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域をディスプレイ上に表示することと、
第5の領域内の複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信することであって、アフォーダンスは、第1の個人に対応する、ことと、
第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースをディスプレイ上に表示することであって、第3の視覚的メディアは、第3の複数のメディア項目を含み、第3の複数のメディア項目のそれぞれは、第1の個人を示すものとして識別され、第3の複数のメディア項目は、第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、第2のイベント、第3のイベント、及び第4のイベントは異なる、ことと、
を更に含む、項目47から56のいずれか一項に記載の方法。
58.
第5の領域をスクロールする要求に対応するユーザ入力を受信することと、
第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、第5の領域が静止している間に第5の領域に含まれる複数のアフォーダンスをスクロールさせることであって、複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが第5の領域に表示され、以前に表示されていないアフォーダンスは、複数の個人に含まれていない第2の個人に対応する、ことと、
を更に含む、項目57に記載の方法。
59.
第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスをディスプレイ上に表示することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースをディスプレイ上に表示することであって、候補視覚的メディア項目は、第3の視覚的メディアに含まれない、ことと、
を更に含む、項目57又は58に記載の方法。
60.
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することと、
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することに応答して、
個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力又は拒否入力を表すかどうかを判定することと、
個人確認ユーザインタフェースに関連付けられたユーザ入力が確認入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることと、
個人確認ユーザインタフェースに関連付けられたユーザ入力が拒否入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることを見合わせることと、
を更に含む、項目59に記載の方法。
61.
複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
ユーザ入力の第1の特性強度を判定することと、
ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースを表示することであって、強度依存基準は、強度依存基準が満たされるためにタッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことと、
を更に含む、項目57から60のいずれか一項に記載の方法。
62.
コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、方法は、
第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースをディスプレイ上に表示することと、
名前編集ユーザインタフェースを表示しながら、第1の個人の更新された名前を受信することと、
第1の個人の更新された名前を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を更新された名前に更新することと、
を更に含む、項目61に記載の方法。
63.
提示された個人に対応するアフォーダンスをディスプレイ上に表示することであって、提示された個人は、デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことと、
提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することと、
提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を提案された個人の名前に更新することと、
を更に含む、項目62に記載の方法。
64.
コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、方法は、
第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子を選択された個人の識別子のリストに関連付けることと、
識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースをディスプレイ上に表示することであって、識別された個人の表現は、選択された個人のリストのうちの個人を含む、ことと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、選択された個人の識別子のリストに関連付けられた識別子に対応しない個人の表現の表示を停止することと、
を更に含む、項目61から63のいずれか一項に記載の方法。
65.
第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、方法は、
第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の詳細ユーザインタフェースを、ユーザによって保存された1組の詳細ユーザインタフェースに追加することと、
第2の詳細ユーザインタフェースの表示を停止することと、
第2の詳細ユーザインタフェースの表示を停止した後、第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
第2の詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目47から64のいずれか一項に記載の方法。
66.
ディスプレイを有するデバイスにおいて、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示することと、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信することと、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することと、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加することと、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を含む、方法。
67.
視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することは、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することを含む、項目66に記載の方法。
68.
第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、
1組の共通の特性を共有するメディア項目のコレクションを判定することと、
1組の共通の特性を共有するメディア項目の1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成することと、
を含む、項目67に記載の方法。
69.
第2のユーザ入力を受信する前に、第3のユーザ入力を受信することと、
第3のユーザ入力を受信することに応答して、視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることと、
を更に含む、項目66から68のいずれか一項に記載の方法。
70.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、
表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、第2のアフォーダンスは、表示された複数のアフォーダンスに以前含まれておらず、第1のアフォーダンスは、第1の日付に関連付けられ、第2のアフォーダンスは、第1とは異なる第2の日付に関連付けられる、ことを含む、項目69に記載の方法。
71.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、表示された複数のアフォーダンスをスクロールすることは、複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、方法は、
第2のビュー内に複数のアフォーダンスを表示しながら、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、第1の詳細ユーザインタフェースをディスプレイ上に表示することであって、第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
第1の詳細なユーザインタフェースを表示しながら、第2のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
第2の詳細ユーザインタフェースを表示しながら、第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のビュー内の複数のアフォーダンスをディスプレイ上に表示することと、
を更に含む、項目70に記載の方法。
72.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスは、自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、項目66から71のいずれか一項に記載の方法。
73.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、
現在の期間に対応する複数のアフォーダンスをディスプレイ上に表示することを含む、項目66から72のいずれか一項に記載の方法。
74.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、
複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスをディスプレイ上に表示することであって、複数のアフォーダンスは、所定数のアフォーダンスである、ことを含む、項目66から73のいずれか一項に記載の方法。
75.
視覚的メディアの自動生成されたコレクションは、デバイスの一般的なコンテキストに文脈的に関連すると判定された、項目66から74のいずれか一項に記載の方法。
76.
視覚的メディアの第1のコレクションは、デバイスの特定のコンテキストに文脈的に関連する、項目66から75のいずれか一項に記載の方法。
77.
コンテキストは、デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、デバイスの現在位置の近くに現在ある対象地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、項目75から76のいずれか一項に記載の方法。
78.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数のアフォーダンスのそれぞれと共にコンテキスト情報をディスプレイ上に表示することを含む、項目66から77のいずれか一項に記載の方法。
79.
デバイスは、タッチ感知面を含み、第2のユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
タッチユーザ入力の第1の特性強度を判定することと、
タッチユーザ入力が選択基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、選択基準は、選択基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ことと、
タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースをディスプレイ上に表示することであって、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値を超えることを要求し、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第2の強度閾値を超えることを要求しない、ことと、
タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、第2の強度依存基準は、第2の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値及び第2の強度閾値を超えることを要求する、ことと、
を更に含む、項目66から78のいずれか一項に記載の方法。
80.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
文脈的関連メディアを表示する要求を受信し、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示し、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する命令を含み、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、
電子デバイス。
81.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
文脈的関連メディアを表示する要求を受信させ、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示させ、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示させ、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、
非一時的コンピュータ可読記憶媒体。
82.
ディスプレイと、
文脈的関連メディアを表示する要求を受信する手段と、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示する手段と、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する手段であって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、手段と、
を含む、システム。
83.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目1から26のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
84.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目1から26のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
85.
ディスプレイと、項目1から26のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
86.
ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示し、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信し、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定し、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、
電子デバイス。
87.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示させ、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示させ、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、
非一時的コンピュータ可読記憶媒体。
88.
ディスプレイと、
タッチ感知面と、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示する手段と、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信する手段と、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定する手段と、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、手段と、
を含む、システム。
89.
ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目27から46のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
90.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、項目27から46のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
91.
ディスプレイと、
タッチ感知面と、項目27から46のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
92.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示し、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、
アフォーダンスの選択に対応するユーザ入力を受信し、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、
電子デバイス。
93.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示させ、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示させ、
アフォーダンスの選択に対応するユーザ入力を受信させ、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示させ、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、
非一時的コンピュータ可読記憶媒体。
94.
ディスプレイと、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示する手段と、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、
アフォーダンスの選択に対応するユーザ入力を受信する手段と、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、手段と、
を含む、システム。
95.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目47から65のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
96.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目47から65のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
97.
ディスプレイと、項目47から65のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
98.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示し、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信し、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加し、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含む、
電子デバイス。
99.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示させ、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加させ、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示させる、
非一時的コンピュータ可読記憶媒体。
100.
ディスプレイと、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示する手段と、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信する手段と、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加する手段と、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信する手段と、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する手段と、
を含む、システム。
101.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目66から79のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
102.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目66から79のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
103.
ディスプレイと、項目66から79のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
104.
デバイスであって、
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
文脈的関連メディアを表示する要求を受信するように構成された受信ユニットと、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを可能にし、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、表示有効化ユニットと、
を含む、デバイス。
105.
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第3のコレクションの表現をディスプレイユニット上に表示することを有効化することであって、メディア項目の第1のコレクションは、第1のコンテキストプロパティに基づく第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキストプロパティに基づく第1のコンテキストに関連し、第2のコンテキストプロパティは、第1のコンテキストプロパティとは異なる、ことを更に含む、項目104に記載のデバイス。
106.
メディア項目の第1のコレクションの表現は、第1のアフォーダンスであり、
受信ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、ユーザ入力を受信することに応答して、メディア項目の第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目104又は105に記載のデバイス。
107.
メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む、項目104から106のいずれか一項に記載のデバイス。
108.
処理ユニットは、
メディア項目の第1のコレクションに関連付けられたテキスト識別子を生成するように構成された生成ユニットと、
選択されたメディア項目内の顔を識別するように構成された識別ユニットであって、選択されたメディア項目は画像である、識別ユニットと、を更に含み、
表示有効化ユニットは、メディア項目の第1のコレクションの表現に重ね合わせられたテキスト識別子をディスプレイユニット上に表示することであって、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔と重畳されない、ことを有効化するように更に構成されている、項目104から107のいずれか一項に記載のデバイス。
109.
メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上の単語を含む、項目108に記載のデバイス。
110.
表示有効化ユニットは、
詳細ユーザインタフェースを表示する前に、ディスプレイの第1の部分を視覚的に占有するメディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを有効化し、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに続いて、かつ詳細ユーザインタフェースを表示しながら、ディスプレイの第1の部分とは別個のディスプレイの第2の部分を視覚的に占有するメディア項目の第1のコレクションのキーメディア項目をディスプレイユニット上に表示することを有効化し、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに更に応答して、キーメディア項目に移行するメディア項目の第1のコレクションの表現のアニメートされた遷移をディスプレイユニット上に表示することと、を有効化するように更に構成されている、項目106から109のいずれか一項に記載のデバイス。
111.
表示有効化ユニットは、詳細ユーザインタフェースを表示しながら、メディア項目の第1のコレクションの複数のメディア項目を含むスライドショーをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、スライドショーの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの複数のメディア項目を含む動画をディスプレイユニット上に表示することであって、スライドショーと動画は異なる、ことを有効化するように更に構成されている、項目106から110のいずれか一項に記載のデバイス。
112.
受信ユニットは、スライドショーを編集する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーを編集する要求に対応するユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目111に記載のデバイス。
113.
詳細ユーザインタフェースは、第1の領域を含み、第1の領域は、メディア項目の第1のコレクションのメディア項目のサブセットを含むキュレートされたビューを含み、メディア項目のサブセットは、より低い品質の写真を除外するように選択される、項目106から112のいずれか一項に記載のデバイス。
114.
第1の領域は、第2のアフォーダンスを更に含み、
受信ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のアフォーダンスの選択に対応する入力を受信する前に表示されなかったメディア項目の第1のコレクションの追加メディア項目の表現を含む拡張ビューをディスプレイユニット上に表示することを有効化するように更に構成されている、項目113に記載のデバイス。
115.
キュレートされたビューにおけるメディア項目のサブセットは、メディア項目のサブセットのメディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、項目113又は114に記載のデバイス。
116.
キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配列に配置され、メディア項目のキュレートされた配列に含まれるメディア項目のサブセットは、キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するようにメディア項目のエッジが整列されるように配置される、項目113から115のいずれか一項に記載のデバイス。
117.
キュレートされた配列の下部における実質的に真っ直ぐな境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される、項目116に記載のデバイス。
118.
第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、第1のサイズと第2のサイズは異なり、第1のアスペクト比と第2のアスペクト比は異なり、キュレートされた配列の下部における実質的に真っ直ぐな境界は、第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、項目117に記載のデバイス。
119.
処理ユニットは、
メディア項目の寸法に部分的に基づいて、メディア項目の第1のコレクションのメディア項目からメディア項目のキュレートされたサブセットを選択するように更に構成された選択ユニットを更に含む、項目113から118のいずれか一項に記載のデバイス。
120.
受信ユニットは、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することに応答して、第3のメディア項目及びスクラビングアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、スクラビングアフォーダンスに対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スクラビングアフォーダンスに対応するユーザ入力を受信することに応答して、スクラビングアフォーダンスを表示し続けながら、ディスプレイユニット上の第3のメディア項目の表示をメディア項目のキュレートされたサブセットの第4のメディア項目の表示に置き換えるように更に構成されている、項目113から117のいずれか一項に記載のデバイス。
121.
詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、メディア項目の第1のコレクションの第5のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示することを有効化するように更に構成されている、ことを更に含む、項目106から120のいずれか一項に記載のデバイス。
122.
表示有効化ユニットは、地理的地図を表示しながら、第3のアフォーダンスをディスプレイ上に表示することを有効化するように更に構成されており、
受信ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションに含まれていないメディア項目の位置に対応する地理的地図ビュー内の追加位置インジケータをディスプレイユニット上に表示することを有効化するように更に構成されている、項目121に記載のデバイス。
123.
追加位置インジケータを表示した後、
表示有効化ユニットは、第4のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、追加位置インジケータをディスプレイユニット上の地理的地図ビューに表示することを停止するように更に構成されている、項目122に記載のデバイス。
124.
受信ユニットは、位置インジケータの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、位置インジケータの選択に対応するユーザ入力を受信することに応答して、ディスプレイユニット上の地理的地図ビューの表示を第5のメディア項目の表示に置き換えるように更に構成されている、項目121から123のいずれか一項に記載のデバイス。
125.
詳細ユーザインタフェースは、メディア項目の第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、
受信ユニットは、識別された顔に対応するインジケータの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションをディスプレイユニット上に表示することであって、メディア項目の第4のコレクションのメディア項目のそれぞれは、識別された顔を含む、ことを有効化するように更に構成されている、項目106から124のいずれか一項に記載のデバイス。
126.
詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の第5のコレクションのメディア項目は、メディア項目の第1のコレクションのメディア項目を有する第1の特性を共有し、
受信ユニットは、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目106から125のいずれか一項に記載のデバイス。
127.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、
受信ユニットは、1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信するように更に構成されており、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なり、
受信ユニットは、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することに応答して、詳細ユーザインタフェース、及び第4の領域内のメディア項目の第6のコレクションの表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目126に記載のデバイス。
128.
処理ユニットは、関連付けユニットを更に含み、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示しながら、
表示有効化ユニットは、第5のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第5のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
関連付けユニットは、第5のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けるように構成されている、項目106から127のいずれか一項に記載のデバイス。
129.
受信ユニットは、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目128に記載のデバイス。
130.
ディスプレイユニットと、
タッチ感知面ユニットと、
ディスプレイユニット及びタッチ感知面ユニットに結合された処理ユニットと、を含み、処理ユニットは、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットと、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信するように構成された受信ユニットと、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定するように構成された判定ユニットと、を含み、
表示有効化ユニットは、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことを有効化するように更に構成されている、
デバイス。
131.
ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置で検出される、項目130に記載のデバイス。
132.
それぞれの方向の移動を含むユーザ入力は、第1のユーザ入力であり、
受信ユニットは、第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信するように更に構成されており、
判定ユニットは、第2のユーザ入力が第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第2の方向のスワイプジェスチャに対応するという判定にしたがって、ディスプレイユニット上の第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示に置き換えるように更に構成されている、項目130又は131に記載のデバイス。
133.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、
受信ユニットは、第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信するように更に構成されており、
判定ユニットは、第2のユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第2の視覚的メディア項目に対する関連コンテンツは、第1のメディア項目に対する関連コンテンツとは異なる、ことを有効化するように更に構成されている、項目132に記載のデバイス。
134.
受信ユニットは、第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信するように更に構成されており、
判定ユニットは、第3のユーザ入力が第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、第3のユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から133のいずれか一項に記載のデバイス。
135.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、経時的に配置される、項目134に記載のデバイス。
136.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、項目134又は135に記載のデバイス。
137.
受信ユニットは、第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信するように更に構成されており、
判定ユニットは、第4のユーザ入力が第3の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイユニット上に表示することを有効化するように更に構成されている、項目134から136のいずれか一項に記載のデバイス。
138.
第1の視覚的メディア項目に対する関連コンテンツの表現は、経時的に配置される、項目130から137のいずれか一項に記載のデバイス。
139.
受信ユニットは、第1の視覚的メディア項目を表示しながら、第1の方向の移動を含む第5のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第5のユーザ入力を受信することに応答して、
第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがってディスプレイユニット上の第1の視覚的メディア項目を移動し、
第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、第5のユーザ入力にしたがってディスプレイユニット上の第1の視覚的メディア項目を移動し、詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から138のいずれか一項に記載のデバイス。
140.
詳細ユーザインタフェースは、第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目内で識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含み、
受信ユニットは、識別された顔の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションをディスプレイユニット上に表示することであって、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される、ことを有効化するように更に構成されている、項目130から139のいずれか一項に記載のデバイス。
141.
詳細ユーザインタフェースは、第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、第2のカテゴリは、位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、項目130から140のいずれか一項に記載のデバイス。
142.
受信ユニットは、第2の領域の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置の視覚表現を含む地図ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目141に記載のデバイス。
143.
受信ユニットは、アドレスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、アドレスの選択に対応するユーザ入力に応答して、地図アプリケーションのユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目142に記載のデバイス。
144.
詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、
受信ユニットは、視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から143のいずれか一項に記載のデバイス。
145.
視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する、項目144に記載のデバイス。
146.
第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、表示された第1の視覚的メディア項目をディスプレイユニット上で第1の方向にスクロールして詳細ユーザインタフェースを明瞭化するように更に構成されている、ことを含む、項目130から145のいずれか一項に記載のデバイス。
147.
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することは、
表示有効化ユニットが、表示されたままの第1の視覚的メディア項目の部分が第1の視覚的メディア項目の所定の部分になるまで、ディスプレイユニット上で表示された第1の視覚的メディア項目を第1の方向にスクロールするように更に構成されており、
表示有効化ユニットが、所定の部分が表示された部分になるまでスクロールした後、
ディスプレイユニット上で第1の視覚的メディア項目のスクロールを停止し、
第1のメディア項目の所定の部分が静止している間に、ディスプレイユニット上で詳細ユーザインタフェースを明瞭化するためにスクロールを続けるように更に構成されている、ことを含む、項目146に記載のデバイス。
148.
第1の視覚的メディア項目は、画像又は動画である、項目130から147のいずれか一項に記載のデバイス。
149.
詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示された任意の視覚的メディア項目のディスプレイにおいてアクセス可能である、項目130から148のいずれか一項に記載のデバイス。
150.
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、
第1の詳細ユーザインタフェースを表示しながら、
表示有効化ユニットは、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されている、表示有効化ユニットと、
アフォーダンスの選択に対応するユーザ入力を受信するように構成された受信ユニットと、
を含み、
表示有効化ユニットは、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことを有効化するように更に構成されている、
デバイス。
151.
複数の個人による特定のイベントの出席は、特定のイベントに対応する少なくとも1つのメディア項目内の複数の個人のうちの個人の顔を識別することに基づいて識別される、項目150に記載のデバイス。
152.
複数の個人による特定のイベントの出席は、複数の個人に関連付けられた位置データに基づいて識別され、位置データは、特定のイベントの時刻に特定のイベントの場所にいた複数の個人のうちの個人に対応するデバイスを識別するデータを含む、項目150又は151に記載のデバイス。
153.
第2の視覚的メディアは、複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、項目150から152のいずれか一項に記載のデバイス。
154.
第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショーを含む第1の領域を含み、
受信ユニットは、スライドショーの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーの選択に対応するユーザ入力に応答して、第2の視覚的メディアのメディア項目を含む動画をディスプレイユニット上に表示することであって、スライドショーと動画は異なる、ことを有効化するように更に構成されている、項目150から153のいずれか一項に記載のデバイス。
155.
第2の詳細ユーザインタフェースは、第2の領域を含み、第2の領域は、第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む、項目150から154のいずれか一項に記載のデバイス。
156.
第2の領域は、第1のアフォーダンスを更に含み、
受信ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の視覚的メディアのメディア項目の拡張ビューをディスプレイユニット上に表示することを有効化するように更に構成されている、項目155に記載のデバイス。
157.
第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイユニット上に表示することを有効化するように更に構成されている、ことを更に含む、項目150から156のいずれか一項に記載のデバイス。
158.
第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、
視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することを有効化するように更に構成されている、項目150から157のいずれか一項に記載のデバイス。
159.
視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する、項目158に記載のデバイス。
160.
表示有効化ユニットは、第2の詳細ユーザインタフェースを表示しながら、それぞれが複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域をディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第5の領域内の複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、アフォーダンスは、第1の個人に対応し、
表示有効化ユニットは、第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第3の視覚的メディアは、第3の複数のメディア項目を含み、第3の複数のメディア項目のそれぞれは、第1の個人を示すものとして識別され、第3の複数のメディア項目は、第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、第2のイベント、第3のイベント、及び第4のイベントは異なる、ことを有効化するように更に構成されている、項目150から159のいずれか一項に記載のデバイス。
161.
受信ユニットは、第5の領域をスクロールする要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、ディスプレイユニット上で第5の領域が静止している間に第5の領域に含まれる複数のアフォーダンスをスクロールさせるように更に構成されており、複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが第5の領域に表示され、以前に表示されていないアフォーダンスは、複数の個人に含まれていない第2の個人に対応する、項目160に記載のデバイス。
162.
表示有効化ユニットは、第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースをディスプレイユニット上に表示することであって、候補視覚的メディア項目は、第3の視覚的メディアに含まれない、ことを有効化するように更に構成されている、項目160又は161に記載のデバイス。
163.
処理ユニットは、判定ユニット及び関連付けユニットを更に含み、
受信ユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力を受信するように更に構成されており、
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することに応答して、
判定ユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力又は拒否入力を表すかどうかを判定するように構成されており、
関連付けユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が確認入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けるように構成されており、
関連付けユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が拒否入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることを見合わせるように更に構成されている、項目162に記載のデバイス。
164.
デバイスは、タッチ感知面ユニットを含み、タッチ感知面ユニットは、処理ユニット及びディスプレイユニットに結合され、複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面ユニット上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
判定ユニットが、ユーザ入力の第1の特性強度を判定するように更に構成されており、
表示有効化ユニットが、ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースをディスプレイユニット上に表示することであって、強度依存基準は、強度依存基準が満たされるためにタッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことを有効化するように更に構成されている、ことを更に含む、項目160から163のいずれか一項に記載のデバイス。
165.
コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、処理ユニットは更新ユニットを更に含み、
受信ユニットは、第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、名前編集ユーザインタフェースを表示しながら、第1の個人の更新された名前を受信するように更に構成されており、
更新ユニットは、第1の個人の更新された名前を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を更新された名前に更新するように更に構成されている、項目164に記載のデバイス。
166.
表示有効化ユニットは、提示された個人に対応するアフォーダンスをディスプレイユニット上に表示することであって、提示された個人は、デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことを有効化するように更に構成されており、
受信ユニットは、提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
更新ユニットは、提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を提案された個人の名前に更新するように更に構成されている、項目165に記載のデバイス。
167.
コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、
受信ユニットは、第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
関連付けユニットは、第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子を選択された個人の識別子のリストに関連付けるように更に構成されており、
表示有効化ユニットは、識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースをディスプレイユニット上に表示することであって、識別された個人の表現は、選択された個人のリストのうちの個人を含む、ことを有効化するように更に構成されており、
受信ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、ディスプレイユニット上で選択された個人の識別子のリストに関連付けられた識別子に対応しない個人の表現の表示を停止するように更に構成されている、項目164から166のいずれか一項に記載のデバイス。
168.
第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、処理ユニットは、追加ユニットを更に含み、
受信ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
追加ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の詳細ユーザインタフェースを、ユーザによって保存された1組の詳細ユーザインタフェースに追加するように構成されており、
表示有効化ユニットは、第2の詳細ユーザインタフェースの表示を停止するように更に構成されており、
受信ユニットは、第2の詳細ユーザインタフェースの表示を停止した後、第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2の詳細ユーザインタフェースをディスプレイユニット上の表示を有効化するように更に構成されている、項目150から167に記載のデバイス。
169.
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイユニット上に表示するように構成された表示有効化ユニットと、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信するように構成された受信ユニットと、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得するように構成された取得ユニットと、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加するように構成された追加ユニットと、を含み、
受信ユニットは、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイユニット上の表示を有効化するように更に構成されている、
デバイス。
170.
処理ユニットは、生成ユニットを更に含み、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することは、生成ユニットは、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成するように構成されていることを含む、項目169に記載のデバイス。
171.
処理ユニットは、判定ユニット及び選択ユニットを更に含み、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、
判定ユニットが、1組の共通の特性を共有するメディア項目のコレクションを判定するように構成されている、ことと、
選択ユニットが、1組の共通の特性を共有するメディア項目の1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成するように構成されている、ことを含む、項目170に記載のデバイス。
172.
受信ユニットは、第2のユーザ入力を受信する前に、第3のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のユーザ入力を受信することに応答して、視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをディスプレイユニット上でスクロールするように更に構成されている、ことを更に含む、項目169から171のいずれか一項に記載のデバイス。
173.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、第2のアフォーダンスは、表示された複数のアフォーダンスに以前含まれておらず、第1のアフォーダンスは、第1の日付に関連付けられ、第2のアフォーダンスは、第1とは異なる第2の日付に関連付けられる、ことを含む、項目172に記載のデバイス。
174.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、表示された複数のアフォーダンスをスクロールすることは、複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、方法は、
受信ユニットが、第2のビュー内に複数のアフォーダンスを表示しながら、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、第1の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことを有効化するように更に構成されており、
受信ユニットが、第1の詳細なユーザインタフェースを表示しながら、第2のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことを有効化するように更に構成されており、
受信ユニットが、第2の詳細ユーザインタフェースを表示しながら、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のビュー内の複数のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されている、ことを更に含む、項目173に記載のデバイス。
175.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスは、自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、項目169から174のいずれか一項に記載のデバイス。
176.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、現在の期間に対応する複数のアフォーダンスをディスプレイユニット上に表示することを有効化することを含む、項目169から175のいずれか一項に記載のデバイス。
177.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスをディスプレイユニット上に表示することであって、複数のアフォーダンスは、所定数のアフォーダンスである、ことを有効化することを含む、項目169から176のいずれか一項に記載のデバイス。
178.
視覚的メディアの自動生成されたコレクションは、デバイスの一般的なコンテキストに文脈的に関連すると判定された、項目169から177のいずれか一項に記載のデバイス。
179.
視覚的メディアの第1のコレクションは、デバイスの特定のコンテキストに文脈的に関連する、項目169から178のいずれか一項に記載のデバイス。
180.
コンテキストは、デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、デバイスの現在位置の近くに現在ある対象地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、項目178から179のいずれか一項に記載のデバイス。
181.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数のアフォーダンスのそれぞれと共にコンテキスト情報をディスプレイユニット上に表示することを有効化することを含む、項目169から180のいずれか一項に記載のデバイス。
182.
デバイスは、処理ユニットに結合されたタッチ感知面ユニットを含み、第2のユーザ入力は、タッチ感知面ユニット上で検出された第1の特性強度を有するタッチユーザ入力であり、
判定ユニットは、タッチユーザ入力の第1の特性強度を判定するように更に構成されており、
表示有効化ユニットは、タッチユーザ入力が選択基準を満たしているという判定にしたがって、ディスプレイユニット上で複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、選択基準は、選択基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ように更に構成されており、
表示有効化ユニットは、タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースをディスプレイユニット上に表示することであって、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値を超えることを要求し、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第2の強度閾値を超えることを要求しない、ことを有効化するように更に構成されており、
タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、第2の強度依存基準は、第2の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値及び第2の強度閾値を超えることを要求する、ように更に構成されている、項目169から181のいずれか一項に記載のデバイス。
次に、ポータブル多機能装置100、装置300又は装置500などの電子装置上で実装されるユーザインタフェース(「UI」)及び関連する処理の実施形態に注目する。
図6A〜6Rは、いくつかの実施形態にしたがって、共通の特性のセット及びそれに関連するコンテンツを共有するメディア項目のコレクションを見る例示的なユーザインタフェースを表す。これらの図のユーザインタフェースは、図7A〜7Eの処理を含む、以下に説明される処理を表す。
メモリ概観
図6Aにおいて、ユーザインタフェース602は、装置600の例示的なホームスクリーンを示す。いくつかの実施形態では、装置600は、上述した、装置100、装置300又は装置500の特徴のいくつか又は全部を含む。示された例では、装置600は、写真アプリケーションに対応する、ホームスクリーンのアプリケーションアイコン602Aのユーザ入力選択を受ける。応答して、装置600は、フォトアプリケーションの例示的なスクリーンを示すユーザインタフェース604を表示する。ユーザインタフェース604では、写真の例示的なコレクションは、実質的に等しいサイズのサムネイルとして配列される。ユーザインタフェース604に示された写真のコレクションは、日付7月22日〜25日(例えば、テキスト「7月22日〜25日」で示されたように)及び場所Nordurland vestra and Sudurland、Iceland(例えば、テキスト「NORDURLAND VESTRA & SUDURLAND ICELAND」によって示されたように)に対応する。
ユーザインタフェース604のディスプレイにおいて、装置600は、文脈的に関連のあるメディアを表示する要求を受ける。いくつかの例では、装置600は、ユーザインタフェース604において、メモリタブ604Aのユーザ入力選択を受ける。例えば、ユーザインタフェース604は、図6Bにおいて再生され、メモリタブ604A上のユーザ入力タッチ604Bを受けることを示す。いくつかの例では、要求は、ユーザインタフェース602におけるアプリケーションアイコン602Aのユーザ入力選択などの、写真アプリケーションを開く要求に対応する。
文脈的に関連のあるメディアを表示する要求に応答して、装置600は、メディア項目のコレクションの表現を表示する。いくつかの例では、ユーザインタフェース604のメモリタブ604Aの選択に応答して、装置600は、ユーザインタフェース606を表示する。
図6Bのユーザインタフェース606は、例示的なメモリタイムラインを示す。いくつかの例では、メモリタイムラインは、メディア項目の1つ以上のコレクションの1つ以上の表現を含み、ここで、メディア項目のコレクションのうちのメディア項目は共通の特性のセットを共有する。共通の特性のセットを共有するメディア項目のコレクションは、本明細書中全体を通して「メモリ(複数)」は総称的に「メモリ」と呼ばれることもある。
ユーザインタフェース606(以下、「メモリタイムライン606」)は、それぞれがメモリに対応する、表現606A〜606Cを含む。メモリタイムライン606において、いくつかの表現は、視覚的に1行(例えば、明示的に示されていない)を1つで(例えば、表現606A)占めるように配列され、一方、他の表現は、視覚的に同じ行(例えば、明示的には示されていない)を並んで(例えば、表現606Cと606B)占めて配列される。
いくつかの例では、ユーザインタフェース604のメモリタブ604Aの選択に応答して、装置600は、図6Cのユーザインタフェース608を表示する。例えば、ユーザインタフェース604は、図6Cにおいて再生され、メモリタブ604A上でユーザ入力タッチ604Bを受けることを示し、応答して、装置600は、ユーザインタフェース608を表示する。ユーザインタフェース608(以下、「メモリタイムライン608」)は、表現608Aと608Bを含む。メモリタイムライン608は、メモリタイムライン上に別の表現の配置(例えば、メモリタイムライン606とは異なる)を示す。表現608A及び表現608Bはそれぞれ、共通の特性(例えば、メモリ)のセットを共有するメディア項目のコレクションに対応する。メモリタイムライン608は、装置600のスクリーン上の縦配置の表現608Aと608Bを示す。いくつかの例では、メモリタイムライン608は、ユーザ入力に応答してスクロールされ、ディスプレイ上に追加の表現を表示することができる。いくつかの例では、表現は、メモリタイムライン上でいずれか適切な配置に配列される。
図6D及び図6Eは、図6Cのユーザインタフェース608を参照して上述したように、メモリタイムラインの2つのバージョンを示す。メモリタイムライン610は、2つの表現610Aと610Bを縦配置で示す。メモリタイムライン612は、2つの表現612Aと612Bも縦配置に示す。見られるように、タイムライン610とタイムライン612における表現のそれぞれは、異なる画像であり、それぞれ別個のメモリを表す。
いくつかの実施形態によれば、文脈的に関連するメディアを表示する要求に応答して、及び、装置600が第1のコンテキストにあるという判定にしたがって、装置600は、共通の特性のセットを共有し第1のコンテキストに関連するメディア項目の第1のコレクションの表現を表示する。例えば、メモリタイムライン610のメモリ表現610Aは、共通の特性のセットを共有し第1のコンテキストに関連するメディア項目の第1のコレクションの例示的な表現を示す。
いくつかの例では、コンテキストは、装置600のコンテキストの状態の識別である。装置600のコンテキストは、例えば、装置600が、1日のうちの特定の時間に、特定の曜日に、1年のうちの特定の日に、特定の場所に、及び/又は人の特定の組と一緒であるか/あったかを識別する。装置コンテキストの概念を表すために、図6Dと図6Eに記載された例に着目する。
図6Dのユーザインタフェース610に示された例では、装置600は例示的な第1のコンテキストにある。装置600の第1のコンテキストは、1日のうちの第1の時間(昼間)、1年のうちの第1の日(例えば、1年のうちのいずれかの特定の日にのように)(2020年7月4日)、場所(公園)、及び人の第1の組(ユーザと彼の4人のいとこ)のうちの1つ以上を含む。メモリタイムライン610に示されたように、表現610Aは、休暇(例えば、「7月4日」とも称される「独立記念日」)の間の家族ピクニックでの2人の子供の画像を示す。この例では、表現610Aによって表現されたメディア項目のコレクションは、日付(それらはそれぞれ2019年7月4日に取られた)と場所(それらはそれぞれ公園の場所で取られた)などの特性を共有する。この例では、表現610Aに対応するメモリは、1年のうちのその日(7月4日)に基づいて、装置600の第1のコンテキストに関連する。例えば、表現610Aによって表現される第1のコレクションのメディア項目のうちの1つ以上が2019年7月4日に取られた場合、これらは、1年のうちの特定の日(例えば、7月4日)によって、装置600の現在のコンテキスト、2020年7月4日(この例における現在の年の現在の日)に関連する。
さらなる例では、表現610Aの画像が公園で取られたものであり、かつユーザ(例えば、及びその装置)が現在同じ公園にある場合、第1のコンテキストは、公園の場所を含むことができる。このように、表現610Aによって表現されるメモリは場所に基づいて第1のコンテキストに関連することになり、したがって装置600は表現610Aを表示する。ここで明らかなように、関連性はこの例では場所に基づいていることになるから、装置600の現在のコンテキストが、1年のうちの現在の日が7月4日であるということを含んでいなかった場合であっても、表現610Aが依然表示され得ることになる(例えば、他の文言で、関連性は場所に基づいているので、現在の日が11月17日などの他のある日であるときであっても、同じメモリ表現が表示される)。このように、この例では、装置600は第1のコンテキストにある(例えば、公園に)という判定にしたがって、装置600は、関連する(例えば、コレクションは公園の場所に関連する(例えば、そこで又は近くで取られた)メディア項目を含む)メディア項目の第1のコレクションの表現610Aを表示する。
いくつかの実施形によれば、更に文脈的に関連するメディアを表示する要求に応答して、及び、装置600が第2のコンテキストにあるという判定にしたがって、装置600は、共通の特性のセットを共有し第2のコンテキストに関連するメディア項目の第2のコレクションの表現を表示する。ここで、メディア項目の第2のコレクションは、メディア項目の第1のコレクションと異なる。例えば、上記の第1のコンテキストの例にあることを代える場合、装置600は、第2のコンテキストにあり、メモリタイムライン上に表現されるメディア項目のコレクションは異なり得る。いくつかの例では、メディア項目全てが、特定の時間範囲内に特定の場所又は場所のセットで取り込まれたメディアに対応する場合、メディア項目のコレクションは、共通の特性のセットを共有する。
図6Eのユーザインタフェース612に示された例では、装置600は、例示的な第2のコンテキストにある。装置600の第2のコンテキストは、1日のうちの第2の時間(夜間)、1年のうちの第2の日(例えば、1年のうちのいずれか特定の日に、のように)(2020年9月22日)、場所(パリ、フランス)、及び人の第2の組(ユーザと2人の同僚)のうちの1つ以上を含む。この例では、ユーザは、フランスのパリへの出張中で、2人の同僚と一緒である。メモリタイムライン612に示されたように、表現620Aは、フランスのパリのエッフェル塔の画像を示す。この例では、表現612Aによって表現されたメディア項目のコレクションは、これらが取られた期間(これらはそれぞれ2020年5月4日から5月26日の間に取られた)と場所(これらはそれぞれフランスのパリで取られた)などの特性を共有する。この例では、表現612Aに対応するメモリは、場所(パリ、フランス)に基づいて、装置600の第1のコンテキストに関連する。例えば、表現612Aによって表現された第1のコレクション(例えば、エッフェル塔の画像)のメディア項目のうちの1つ以上はパリで取られたため、これらは、装置600の現在のコンテキスト、パリ、フランス(装置の現在の場所)に関連する。図6Eに見られるように、現在の日付は、9月22日であるが、612Aによって表現されたメモリは、5月4日〜26日の日付に対応する(上で略述されたように)。しかし、メモリは、場所に基づいて現在のコンテキストに関連するので、それは、装置600によって表示される。
いくつかの実施形態では、図6Dに見られるように、装置600は、装置のコンテキストに関連する複数のメモリを表示してもよい。いくつかの実施形態によれば、装置600が第1のコンテキストにあるという判定にしたがって、装置は、共通の特性のセットを共有し第1のコンテキストに関連するメディア項目の第3のコレクションの表現を表示する。いくつかの例では、メディア項目の第1のコレクションは、第1のコンテキスト属性に基づいて第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキスト属性に基づいて第1のコンテキストに関連する。いくつかの例では、第2のコンテキスト属性は、第1のコンテキスト属性と異なる。例えば、図6Dのユーザインタフェース610を遡って参照すると、表現610Bは、第1のコンテキストに関連するメディア項目の第3のコレクションを表す。この例では、メディア項目の第3のコレクションは、例えば、それらが同じ場所の付近でかつ特定の期間にわたって(例えば、2020年6月14日〜2020年6月20日)取られたこということにおいて、共通の特性のセットを共有する家族海岸休暇の画像及びビデオに対応する。図6Dに見られるように、表現610Bは、5人の大人(ユーザとその4人のいとこ)を示し、この例では、彼らのそれぞれは表現されたメモリに対応する家族海岸休暇に参加した。先の例における第1のコンテキストを用いて、装置600のコンテキストは、例示的なコンテキスト属性、すなわち、1日のうちの第1の時間(昼間)、1年のうちの第1の日(2020年7月4日)、場所(公園)、及び人の第1の組(ユーザの4人のいとこ)のうちの1つ以上を含む。このように、メディア項目の第3のコレクションは、人の第1の組に基づいて第1のコンテキストに関連する、すなわち、装置600は、ユーザに関連付けられ(例えば、それはユーザのスマートフォンである)、ユーザの4人のいとこに関連付けられた1つ以上の装置が近くにあることを判定する。例えば、現在の日は、休日(7月4日)であるので、ユーザは、現在かれらの4人のいとこも参加しているパーティにいる。
上で触れたように、いくつかの例では、第1のコレクションは第1のコンテキスト属性に基づいて第1のコンテキストに関連し、第3のコレクションは第2のコンテキスト属性に基づいて第1のコンテキストに関連し、第1と第2のコンテキスト属性は異なる。例えば、上記の例では、第1のコレクションは、1年のうちの特定の日(例えば、7月4日)の第1のコンテキスト属性に基づいて第1のコンテキストに関連し、第3のコレクションは、人の特定の組(例えば、ユーザの4人のいとこ)の第2のコンテキスト属性に基づいて第1のコンテキストに関連する。
いくつかの実施形態によれば、共通の特性のセットを共有するメディア項目の第1のコレクションの表現は、共通の特性のセットを共有するメディア項目の第1のコレクションの表現と同時に表示される。例えば、図6Dのユーザインタフェース610で、表現610Aと610Bは、メモリタイムライン610上に同時に表示されている。
いくつかの実施形態では、図6Eの表現612Bは、それらはユーザの英国のロンドンへの休暇からであるという特性を共有するメディア項目のメモリを表す。メモリタイムライン612について上述したように、装置600の第2のコンテキストは、1日のうちの第2の時間(夜間)、1年のうちの第2の日(例えば、1年のうちのいずれか特定の日にというように)(2020年9月22日)、場所(パリ、フランス)、及び人の第2の組(ユーザと2人の同僚)のうちの1つ以上を含む。表現610Bによって表現されるメモリは、1年のうちの日のコンテキスト属性に基づいて第2のコンテキストに関連付けられる。この例では、表現されたメモリは、現在の日付に基づいて関連付けられている。なぜなら、それはユーザによって取られた最近の旅行(現在の日付は2020年9月22日であり旅行は2020年8月8日〜8月13日である)であったからである。
いくつかの実施形態によれば、メディア項目の第1のコレクションの表現は、第1のアフォーダンスである。例えば、表現は、選択可能であり、選択に応答して装置600によって取られる動作に対応することができる。
いくつかの実施形態によれば、装置600は、第1のアフォーダンスの選択に対応するユーザ入力を受け、応答して、メディア項目の第1のコレクションのうちの少なくとも一部を含む詳細ユーザインタフェースを表示する。例えば、図6Dのユーザインタフェース611は、メディア項目の第1のコレクション(以下、「第1のメモリ」とも呼ばれる)に対する例示的な詳細ユーザインタフェース(以下、「メモリ詳細ビュー」とも呼ばれる)を示す。いくつかの例では、メモリ詳細ビューは、メモリのメディア項目のコレクションのうちの少なくとも一部を含む。例えば、ユーザインタフェース611(以下、「メモリ詳細ビュー611」とも呼ばれる)は、メディア項目の第1のコレクションのうちのメディア項目を示す、画像611Aを含む。
いくつかの例では、メモリ詳細ビューの表示は、そのメモリに含まれるメディア項目の全てを示さない。いくつかの実施形態では、メディア項目の第1のコレクションは、ディスプレイ上に一度に表示されることができるよりも多くのメディア項目を含み、詳細ユーザインタフェースを表示することは、メディア項目の第1のコレクションのうちの一部を表示することを含む。ここで、追加のメディア項目は、詳細なビューをスクロールすることによって詳細ユーザインタフェース内に表示されることができる。いくつかの例では、追加のメディア項目は、タッチ感知面上での、スワイプジェスチャ、又は他の何らかの方向性ジェスチャに応答して、詳細ユーザインタフェース内に表示される。
いくつかの実施形態によれば、メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む。例えば、図6Dのメモリタイムライン610に示されているように、表現610Aは、示された画像の縮小バージョン(例えば、より小さいサイズで表示される)である。メディア項目のこの縮小されたバージョンは、「キー写真」とも呼ばれ得る。いくつかの例では、キー写真は、表現によって表現されたメディア項目のコレクションに含まれるメディア項目から選択される。例えば、表現610Aとして示された画像は、表現されたメディア項目の対応するコレクション(例えば、メモリ)のうちのメディア項目である。このように、キー写真は、アフォーダンスとして表示される。いくつかの実施形態では、メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションからの複数のメディア項目の縮小バージョンを含む。いくつかの実施形態では、表現は、同時に配列された数個のメディア項目及び/又はシーケンス(例えば、アニメーション)で表示された数個のメディア項目を含む。同様に、本明細書に記載されたメディア項目のコレクションの他の表現は、任意選択的に、メディア項目の対応するコレクションから選択された1つ以上のメディア項目の縮小バージョンを含む。
いくつかの実施形態によれば、装置600は、メディア項目の第1のコレクションに関連付けられたテキスト識別子を生成する。例えば、図6Fは、例示的なテキスト識別子615Aを示す。
いくつかの実施形態によれば、装置600は、選択されたメディア項目内の顔を識別する。ここで、選択されたメディア項目は画像である。例えば、図6Fは、例示的な画像614を示す。示されているように、画像614は、2つの顔を含み、1つは、写真内のそれぞれの子供からの顔である。いくつかの例では、装置600は、画像内の複数の顔を識別する。この例では、装置600は、画像614内の両方の子供の顔を識別する。いくつかの実施形態では、装置600は、顔検出アルゴリズムを使用して画像を分析することによって、又は画像に関連付けられた情報(例えば、画像中の顔を識別する情報)又はその両方によって、画像中の顔を識別する。
いくつかの実施形態によれば、装置600は、メディア項目の第1のコレクションの表現に重ね合わせられた生成されたテキスト識別子を表示する。ここで、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔に重ならない。例えば、図6Fは、画像614から作成された、例示的な表現614Aを示す。示された例では、テキスト識別子615Aは、表現614A(メディア項目の第1のコレクションを表現する)に重ね合わせられている。見られるように、テキスト識別子615Aは、例示的な選択されたメディア項目、画像614のいずれかの子供の顔(例えば、識別された顔)に重ならない。これに対して、表現614Bは、選択されたメディア項目、画像614内の識別された顔に重なるように重畳されたテキスト識別子を示す。テキスト識別子615Bは、写真の右の子供の顔と重なっている。
写真内の顔に無関係に置かれ、及び、顔に重畳するか又はさもなければ顔を不明瞭化するテキスト識別子は、望ましくないし、ユーザに対しメディア項目のブラウジングをより煩わしくする。例えば、もしテキスト識別子がキー写真内の全ての顔を不明瞭化することになっていたら、ユーザは画像内に誰がいたかを判定することができなくなることもある。それに応じて、単に他のメモリを選択することを意図していたと判定するだけのために、ユーザは、メモリを選択してメモリ詳細ユーザインタフェースを見ることもある。そのようなやりとりは、ディスプレイの余計な入力処理やディスプレイの照明を要することによって、ユーザの時間を浪費し、装置600のバッテリ寿命を減少させる。
いくつかの実施形態では、表現内の生成されたテキスト識別子の場所は、選択されたメディア項目内の顔の場所に少なくとも部分的に基づいて判定される。例えば、生成されたテキスト識別子は、任意選択的に、上方若しくは下方に又は左方若しくは右方(又は方向のいくつかの組み合わせ)にシフトさせられて、識別された顔を覆うことを回避する。例えば、表現614Cは、表現614Bに示されているのと似た表現を示すが、テキスト識別子615Cは、いずれの子供の顔にも重ならないように、少し下方にシフトさせられている。このように、検出された顔の場所は、任意選択的に表現上のテキスト識別子の位置付けに影響を与える。
いくつかの実施形態では、選択されたメディア項目は、メディア項目のコレクションの表現内の表示に対してクロップされ、クロッピングは、テキストの下から顔が出るように調整される。例えば、テキストの識別子をシフトすることに代えて、表現614Bの画像は、識別された顔がテキスト識別子615Bによって重なり合わせられないように上方にシフトさせられてもよい(示されていない)。例えば、テキストが中央にある場合、メディア項目は、検出された顔がテキストによって不明瞭にされないようにクロッピングマスク内でシフトされる。
いくつかの実施形態によれば、メディア項目の第1のコレクションに関連付けられたテキスト識別子は、メディア項目の第1のコレクションの第1のコンテキストに対する関連性に基づいて選択され、メディア項目の第1のコレクションの第1のコンテキストに対する関連性を説明する1つ以上のワードを含む。例えば、例示的なテキスト識別子615A〜615Cそれぞれは、第1のコレクションの第1のコンテキストに対する関連性を説明する(例えば、現在の日は、2020年7月4日であり、関連性はメモリが1年のうちの同じ日、7月4日からであることである)、「2019年7月第4日/2019年7月4日」と読める。いくつかの例では、テキスト識別子は、単に、「2019年7月第4日」、「2019年独立記念日」(例えば、日付を含まない)又は「2019年7月4日」(例えば、日付を含む)と読める。1年のうちの日に基づくテキスト識別子の他の例は、「先週」、「前月」、「昨年」などを含む。いくつかの例では、コンテキストが最近の旅行である場合、テキスト識別子は、指示された旅行の日付がある「あなたの最近の旅行」又は「あなたの最近の旅行/日付」であることができる。いくつかの例では、コンテキスト関連性が場所に基づく場合、識別子は、場所の名前(例えば、「場所名」、「市」、「市、州」、「市、国」、「ヨセミテ国立公園」、「サンフランシスコ」など)であることができる。いくつかの例では、コンテキスト関連性が人の組に基づく場合、識別子は、ユーザを含む又は除く、人の組における1人以上の個人、又は人のグループ(例えば、「ユーザと母」、「ユーザと他3人」、「ソフィア、ルーカス及びオリビア」、「スミス家」など)を識別するいずれか他の適切な識別子であることができる。
いくつかの実施形態にしたがって、詳細ユーザインタフェースを表示することに先立って、装置600は、ディスプレイの第1の部分を視覚的に占めるメディア項目の第1のコレクションの表現を表示する。例えば、図6Gにおいて、ユーザインタフェース616Aは、例示的な表現616C、ディスプレイ上の第1の位置にあるアフォーダンスを示す。第1のアフォーダンスの選択に対応するユーザ入力を受けた後、及び詳細ユーザインタフェースを表示しながら、装置600は、ディスプレイの第1の部分とは異なる、ディスプレイの第2の部分を視覚的に占めるメディア項目の第1のコレクションのうちのキーメディア項目を、ディスプレイ上に表示する。例えば、図6Gのユーザインタフェース617は、ディスプレイの第2の部分に表示されたキーメディア項目617Aを示す(例えば、同一の画像を表現616Cとして示すこと)。この例における第2の部分は、ディスプレイの頂部付近にあり、第1の部分は底部付近にあり、したがってこれらは異なる部分である。この例では、キーメディア項目617Aは、メモリ内のメディア項目のスライドショーである(図6Hの説明ではより詳細に述べられる)。
いくつかの実施形態によれば、更に第1のアフォーダンスの選択に対応するユーザ入力を受けることに応答して、装置600は、キーメディア項目へ遷移するメディア項目の第1のコレクションの表現のアニメートされた遷移を表示する。例えば、ユーザインタフェース616Bは、例示的なアニメートされた遷移の間、中間のスクリーン(ユーザ入力の前の616Aの表示と詳細ユーザインタフェース617の表示との間の)を示す。いくつかの例では、キー写真は、メディア項目のテキスト的に関連するコレクションの表現のシーケンス内の(例えば、メモリタイムライン内の)第1の位置(例えば、ディスプレイの第1の部分)から、メディア項目の第1コレクションに対する詳細ユーザインタフェース内の第2の位置(例えば、ディスプレイの第2の部分)へ滑らかに遷移する。この例では、中間のスクリーン616Bにおいて、表現616Cは、アニメートされたように遷移して詳細ユーザインタフェース617内のキーメディア項目617Aによって占められた例示的な第2の部分を占めるために、上方へ及び左方へシフトし、拡張する。いくつかの例では、他の表現(又は任意の他の表示されたコンテンツ)もアニメートされたように遷移する。例えば、メモリタイムライン616B内の他の表現も、アニメートされた遷移中に、上方に及び左方にシフトされ、拡張される。述べられたようにインタフェースをアニメートされたように遷移させることは、メモリタイムラインの表示においてユーザがどのメモリを選択したかについて明瞭な視覚的手がかりをユーザに提供し、したがって写真のコレクションを管理するアプリケーションをナビゲートし対話するときの認識的負担を軽減することができる。
いくつかの実施形態によれば、詳細ユーザインタフェースを表示しながら、装置600は、メディア項目の第1のコレクションのうちの複数のメディア項目を含むスライドショーを表示する。例えば、図6Hで、メモリ詳細ビュー618は、スライドショー620を含む。スライドショーは、メモリ詳細ビューに任意選択的に含まれ、対応するメモリの複数のメディア項目を含むことができる。例えば、スライドショー620は、対応するメモリからのメディア項目(例えば、「2019年7月第4日」)を示し、メモリに含まれるメディア項目のコレクションのうちの他のメディア項目を表示するために表示をアニメートしたように遷移させることができる。
いくつかの実施形態によれば、装置600は、スライドショーの選択に対応するユーザ入力を受け、応答して、装置は、メディア項目の第1のコレクションのうちの複数のメディア項目を含むビデオを表示する。ここで、スライドショーとビデオは異なる。例えば、装置600は、スライドショー620上でユーザ入力タッチ(例えば、「タップ」)を受ける。タップに応答して、装置600は、対応するメモリのメディア項目から作成されたビデオを再生する。例えば、図6Hは、メモリ詳細ビュー618のスライドショー620上のタップに応答して表示される、ビデオ再生インタフェース624を示す。
いくつかの実施形態では、ビデオとスライドショーは異なる。例えば、ビデオとスライドショーは、共に、メディア項目の第1のコレクションからのメディア項目を含むが、それぞれに含まれた特定のメディア項目は異なる。すなわち、これらは、第1のコレクションからの異なる複数のメディア項目を使用する。いくつかの例では、ビデオとスライドショーは、同じ複数のメディア項目を任意選択的に含むが、メディア項目は異なるように表示され又は配列される。例えば、スライドショーがコレクションの10の画像とそのコレクション内のビデオの静止フレーム画像を含む場合、ビデオは、同じ10の画像を含むが、コレクション内のビデオからのビデオクリップ(単なる静止フレームに代えて)を含み、したがってスライドショーとビデオは異なることになる。
いくつかの例では、ビデオに含まれたメディア項目は、ビデオとしての提示を最適化するために選択され及び/又は提示される。例えば、ビデオに含まれたメディア項目は、相対的に高い割合の静止画像又はビデオからの静止フレームを含むことができる、スライドショーと比較してより高い割合のビデオメディア項目(及び/又はビデオメディア項目からのオーディオ)を含むことができる。
いくつかの実施形態では、スライドショーは、インジケータ、アフォーダンスなどを含み、それがビデオを再生するために選択可能であることを示す。例えば、スライドショー620は、再生インジケータ622を含み、ビデオが再生されることができることをユーザに通知する。
いくつかの実施形態では、スライドショーの選択に対応するユーザ入力を受けることに応答してメディア項目の第1のコレクションのうちの複数のメディア項目を含むビデオを再生することは、装置600にビデオのフルスクリーン提示を表示させる。例えば、図6Hは、フルスクリーンビュー内にビデオ628を含む、フルスクリーンインタフェース624を示す。いくつかの例では、フルスクリーンインタフェース624は、再生、ポーズ及び/又はシークアフォーダンスを含む。例えば、アフォーダンスメニュー626は、再生/ポーズアフォーダンスとシークバー(例えば、ビデオで異なる回数スクラブする)を含む。フルスクリーン624は、縦長の向きのビデオを示すが、いくつかの実施形態では、フルスクリーン提示は、横長の向きで表示されることができる。いくつかの実施形態では、ビデオの向きは、装置600の向き(例えば、装置が現在縦に又は水平に置かれているかどうか)に依存する。
いくつかの実施形態では、ビデオは、スライドショーの表示を置き換え、スライドショーが表示されていたディスプレイの部分で再生される。例えば、メモリ詳細ビュー618のスライドショー620は、残りの部分の表示を維持したまま、ビデオ(例えば、ビデオ628)の提示に任意選択的に置き換えられる。いくつかの実施形態では、ビデオは、詳細ユーザインタフェースの部分を依然として表示しながら、表示されるが、スライドショーによって占められたディスプレイの部分を置き換えない。
いくつかの実施形態によれば、ビデオを表示しながら、ユーザは、ビデオのコンテンツを編集するビデオ編集入力を与えることができる。例えば、装置600は、ビデオ628上でユーザ入力(第1の特性強度をもっている)を受け、ユーザ入力が強度依存基準を満たすことを判定する。ここで、ユーザ入力の特性強度が閾値強度(例えば、深い押圧強度閾値)を超えるとき、強度依存基準は満たされる。ユーザ入力(ビデオを編集する要求に対応する)を受けることに応答して、装置600は、ビデオ編集ユーザインタフェースを表示する。例えば、例示的なビデオ編集ユーザインタフェース630は、図6Iに示されている。いくつかの例では、ビデオ編集ユーザインタフェースにおいて、ユーザは、ムード、タイトル、テキストフォントなどを編集することができる。いくつかの例において、ビデオは自動生成され、ユーザは、ビデオのある態様を変えること(例えば、ビデオの長さ又はビデオのテーマを変更する要求)を希望することができる。いくつかの実施形態では、ビデオは、静止画、ビデオ、並びに、任意選択的に、オーディオとペアになった静止画及び/又は主画像(時に「ライブ写真」と呼ばれる)に時間において近接して取り込まれた画像の編集物である。
いくつかの実施形態によれば、装置600は、スライドショーを編集する要求に対応するユーザ入力を受ける。例えば、装置600は、メモリ詳細ユーザインタフェース620のスライドショー620上でユーザ入力(第1の特性強度をもっている)を受け、ユーザ入力が強度依存基準を満たすことを判定する。ここで、ユーザ入力の特性強度が閾値強度(例えば、深い押圧強度閾値)を超えるとき、強度依存基準は、満たされる。ユーザ入力(スライドショーを編集する要求に対応する)を受けることに応答して、装置600は、スライドショー編集ユーザインタフェースを表示する。例示的なスライドショー編集ユーザインタフェースは、示されていないが、図6Iに示され上述されたビデオ編集ユーザインタフェース630と類似しているか又は同じであることができる。いくつかの例では、スライドショー編集ユーザインタフェースにおいて、ユーザは、ムード、タイトル、テキストフォントなどを編集することができる。いくつかの例において、スライドショーは、自動生成され、ユーザは、スライドショーの若干の様相を微調整することを希望してもよい。
ビデオ編集ユーザインタフェース630は、アプリケーションのUIによりどのように複合提示に対しアプリケーションが自動的に選ぶコンテンツをユーザが変更することを可能にするかを表す。ビデオ編集ユーザインタフェース630は、ビューワ630A、ムードスライダ630B及び持続時間スライダ630Cを含む。ビデオ編集ユーザインタフェース630はまた、編集アフォーダンス630Dを含む。いくつかの例では、編集アフォーダンス630Dの選択に応答して、装置600は、(1)複合提示において1つ以上の装置選択遷移を修正する遷移制御、(2)複合提示用の歌を自動生成するために使用される歌(例えば、オーディオクリップ)を修正する音楽制御、(3)複合提示用の1つ以上の装置に特定の効果を修正する効果制御、(4)複合提示用の1つ以上の装置生成のタイトル(例えば、テキスト識別子)を修正するタイトル制御、並びに(5)メディア項目を追加する及び/又は複合提示用に自動的に選択されたメディア項目を除去するコンテンツ制御などの、いくつかの編集制御を表示する。これらの制御のうちのいずれかの選択は、選択された制御に関連する動作をもたらす1つ以上の追加の制御を提示するアプリケーションに指示することになる。ビデオ編集ユーザインタフェース630は、ビューワ630Aに再生する複合提示を示す。
ビデオ及びスライドショー編集のための技術の追加の説明は、2015年9月30日に出願された米国仮特許出願第62/235,550号、「Novel Media Compositing Application」及び2015年9月30日に出願された、米国仮特許出願第62/235,552号、「Novel Media Compositing Application」に見つけることができ、これらの文献の内容は、全体が参照により本明細書に組み込まれる。
図6Jは、例示的な詳細ユーザインタフェース632(そうでなければメモリ詳細ビュー632とも呼ばれる)を示す。メモリ詳細ビュー632は、それぞれがユーザフレンドリーにカテゴリによって編成された対応するメモリに関連するコンテンツを含む、複数の領域634〜644を含む。各領域のコンテンツ及び機能は、図6J〜6Rを参照して、以下に順に説明される。
いくつかの実施形態によれば、第1の詳細ユーザインタフェースは、キーメディア項目領域を含む。例えば、キーメディア項目領域634は、例示的なキーメディア項目領域を示す。キーメディア項目領域は、任意選択的にスライドショーを含む。いくつかの例では、キーメディア項目領域は、上で図6Hについて記載されたように、スライドショーとビデオコンテンツと機能を含む。
いくつかの実施形態によれば、第1の詳細ユーザインタフェースは、メディア項目の第1のコレクションのうちのメディア項目の一部を含む第1の領域を含む。例えば、図6Jにおいて、メモリ詳細ビュー634は、写真領域636、例示的な第1の領域を含む。写真領域636は、全てを見るアフォーダンス636A及びメディア項目636Bと636Cを含む。いくつかの実施形態では、メディア項目636Bと636Cは、メディア項目の対応するコレクションに含まれるメディア項目(例えば、写真、ビデオ)の表現である。いくつかの例では、写真領域に含まれるメディア項目は、メディア項目の対応するコレクションに含まれるメディア項目の縮小サイズの描写である。
いくつかの実施形態では、第1の領域(例えば、写真領域636)は、メディア項目の第1のコレクションのうちのメディア項目のサブセットを含むキュレートされたビューを含む。例えば、図6Jのメモリ詳細ビュー(例えば、636Bと636C)に表示されたメディア項目は、メディア項目の対応するコレクション内のメディア項目の全ては表現しない。この例では、6枚の写真のみが示されている(例えば、写真領域636内にブロックによって表現された)が、コレクションは20枚の写真を含む。いくつかの実施形態では、メディア項目のサブセットは、より品質の低い写真を除外するように選択される。例えば、サブセットに含まれるメディア項目は、次の品質、すなわち、ぼやけている、眼が閉じられている人を示している、フレーミングや構図がお粗末、度を超えたノイズなどのうちの1つ以上を有する写真を除外するように選択される。いくつかの例において、写真は、実質的に同一の被写体を描写する写真を除外するように選択される。例えば、ユーザは、少なくとも1つの良い写真が取られたことを確実にするために目標の3枚の写真を撮影していてもよい。キュレートされたビューの表示では、ただ1つのそのような写真が任意選択的に表示される。これにより、実質的に似ている3枚の写真(ユーザはそのうちの1つを見ることにしか興味がない)の冗長な表示よりも、興味のある他の写真を表示するためにディスプレイ上のスペースを節約することができる。
いくつかの実施形態によれば、第1の領域(例えば、写真領域636)は更に第2のアフォーダンスを含む。例えば、全てを見るアフォーダンス636Aは、例示的な第2のアフォーダンスを示す。装置600は、第2のアフォーダンスの選択に対応するユーザ入力を受け、応答して、第2のアフォーダンスの選択に対応する入力を受けるに前に表示されていなかったメディア項目の第1のコレクションのうちの追加のメディア項目の表現を含む拡張ビューを表示する。例えば、全てを見るアフォーダンス636Aの選択を受けたことに応答して、装置600は、対応するメモリ内の写真の全てを含む拡張ビューを表示する。この動作は、図6Kと図6Lに示されている。
図6Kは、例示的なメモリ詳細ユーザインタフェース646Aを示す。示された例では、装置600は、全てを見るアフォーダンス648の選択に対応するユーザ入力を受ける。応答して、装置600は、全てを見るアフォーダンス648の入力選択の前に表示されていなかったコレクションの例示的な追加のメディア項目を示す、拡張ビューを表示する。例えば、メモリ詳細ユーザインタフェース646Bに、メモリ詳細ユーザインタフェース646Aの全てを見るアフォーダンス648が選択された後、1から9の番号が付けられた写真が表示される。しかし、全てを見るアフォーダンス648の選択の前には、1、3、5、7及び8の番号が付けられた写真のみが表示されていた。この例では、2、4、6及び9の番号が付けられた写真は、メモリに含まれているが、キュレートされたビューの一部としては含まれていない、全て追加の写真である。
いくつかの実施形態によれば、メディア項目の第1のコレクションのうちのメディア項目は、拡張ビューにおいて均一な格子に配列される。例えば、メモリ詳細ビュー646B内の1から9の番号が付けられた写真は、均一な格子に配列された、メディア項目の均等なサイズにされた描写である。格子状のメディア項目の配置は、拡張ビューにおいて、メモリの追加の(例えば、又は全ての)メディア項目をユーザが現在見ているという、ユーザに対する有用な視覚的な手がかりである。
いくつかの実施形態によれば、全てを見るアフォーダンスの選択に対応するユーザ入力を受けることに応答して、装置600は、全てを隠すアフォーダンスを表示する。例えば、メモリ詳細ビュー646Bは、例示的な全てを隠すアフォーダンス650を含む。この例では、全てを隠すアフォーダンス650は、もはや表示されていない、全てを見るアフォーダンス648と同じ位置に表示される。いくつかの例では、全てを隠すアフォーダンスは、全てを見るアフォーダンスが表示されていた位置とは異なる位置に表示される。メモリ詳細ビュー646Bにおいて、装置600は、全てを隠すアフォーダンス650のユーザ選択を受け、応答して、図6Lのメモリ詳細ビュー646Cを表示する。
図6Lは、全てを隠すアフォーダンスの選択後例示的なメモリ詳細ビューを表す、メモリ詳細ビュー646Cを示す。メモリ詳細ビュー646Cに見られるように、2、4、6及び9の番号が付けられた追加の写真は、全てを隠すアフォーダンス650の選択に応答してもはや表示されていない。このように、メモリ詳細ビュー646Cは、以前のキュレートされたビューに戻り、したがってこの例におけるメモリ詳細ビュー646Aと同じである。
いくつかの実施形態によれば、キュレートされたビューにおけるメディア項目のサブセットは、メディア項目のサブセットのうちのメディア項目に関連付けられた時間に基づいて時間順に配列される。例えば、キュレートされたビューにおける項目は、最初の写真に関連付けられた時間が時間的に最も早く、シーケンス内の最後の写真に関連する時間が時間的に最も近時であるシーケンス内に配列されることができる。いくつかの例では、このシーケンスの順序は逆にされる。いくつかの実施形態では、メディア項目に関連付けられた時間は、画像が取られた(例えば、装置によって取り込まれた)日/時などのタイムスタンプに基づいて判定される。この情報は、例えば、メタデータ、Exifデータなどに基づいて、判定されることができる。
いくつかの実施形態によれば、キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配置に配列され、メディア項目のキュレートされた配置に含まれるメディア項目のサブセットは、メディア項目の端がキュレートされた配置の頂部及び底部で実質的に直線の境界を生成するように揃えられるように、配列される。例えば、メディア項目のサブセットは、キュレートされた配置を生成するために、選択され、サイズが調節され及び/又は位置を定められることができる。例示的なキュレートされた配置は、メモリ詳細ビュー646Cの写真領域内のキュレートされたビュー649内に示される。キュレートされたビュー649に含まれるメディア項目は、キュレートされたビュー649の底端が実質的に直線(又は、直線)の境界を持つように、選択され、サイズが調節され及び/又は(キュレートされた配列内へ)位置を定められていた。いくつかの例では、実質的に直線の境界は、キュレートされた配置内のメディア項目の全幅にわたって延びる。例えば、キュレートされたビュー649の底部の実質的に直線の境界は、メディア項目のサブセットの全幅を延ばす(この例では、ディスプレイの縦の端まで延ばされている)。キュレートされた配置の頂部と底部に直線的な境界を生成することによって、装置600は、より小さい装置で重要である、領域(例えば、及び直線の境界で互いに接する他の領域)内で使用される表示空間を最大化する。使われていない表示空間の量を減らすことによって、及びユーザにとって興味のある有用なコンテンツでスペースを満たすことによって、装置600は、追加のデータの表示を要求するディスプレイの使用及び度を超えたユーザ入力を減らし、したがって装置の資源を節約する。
いくつかの実施形態によれば、キュレートされた配置の底部における実質的に直線の境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される。例えば、メモリ詳細ユーザインタフェース646Cに示されたように、キュレートされたビュー649の境界の実質的に直線の端は、メディア項目を時間的順序に維持しながら、メモリのキュレートされたビュー内の写真/ビデオの端によって形成される。
いくつかの実施形態によれば、第1の複数のメディア項目は、第1のサイズと第1のアスペクト比をもつ第1のメディア項目及び第2のサイズと第2のアスペクト比をもつ第2のメディア項目を含む。いくつかの実施形態によれば、第1のサイズと第2のサイズは異なる。いくつかの実施形態によれば、第1のアスペクト比と第2のアスペクト比は異なる。いくつかの実施形態によれば、そこでは、キュレートされた配置の底部における実質的に直線の境界は、第1の複数のメディア項目のうちの隣接するメディア項目の端によって形成される。例えば、境界の直線の端は、任意選択的に異なるサイズ及び/又はアスペクト比をもつ(例えば、図6Lのメモリ詳細ビュー646Cにおける1、7及び8の番号が付けられた写真)複数の隣接するメディア項目(例えば、写真/ビデオ)によって形成される。例えば、写真の境界を写真からなる直線の境界で形成することによって、無駄な(例えば、空の)スペースの面積がより少なく、ディスプレイの面積がより効率的に利用される。例えば、写真セクションと隣接セクション(例えば、関連する人)の間に、これらのセクションが直線の境界によって分けられているとき、無駄な表示スペースはない。なぜなら、写真/ビデオがメモリの写真セクション内で境界まで全ての使用可能な面積を満たすからである。
いくつかの例では、キュレートされたビューに表現されたメディア項目は、メディア項目の元のサイズに基づいて選択される。いくつかの実施形態によれば、装置600は、メディア項目の寸法に部分的に基づいて、メディア項目の第1のコレクションのうちのメディア項目から、メディア項目のキュレートされたサブセットを選択する。例えば、メディア項目は、それらがキュレートされたビュー内の表示のために度を超えてクロップされないように選択されることができる。イメージの元の寸法(又は、それに近い)を維持することによって、ユーザの元の組成の完全性が維持される。更に、実質的に直線の境界を形成するために画像を選択することを伴った、画像の最小のサイズ変更は、大変であるが、ディスプレイのより効率的な使用及びビューワに対して審美的により満足させる結果を生むことができる。
いくつかの実施形態によれば、装置600は、キュレートされたビューに含まれたメディア項目のサブセットのうちの第3のメディア項目の選択に対応するユーザ入力を受ける。例えば、メモリのキュレートされたビューの表示において、装置600は、メディア項目の表現の選択(例えば、その上のタップ)を受ける。キュレートされたビューに含まれたメディア項目のサブセットのうちの第3のメディア項目の選択に対応するユーザ入力を受けることに応答して、装置600は、第3のメディア項目とスクラビングアフォーダンスを表示する。例えば、コレクション内に写真のキュレートされたビューを表示する詳細ユーザインタフェースにおいて1の番号が付けられた写真654Aの表現の選択(例えば、図6Lのメモリ詳細ビュー646Aにおける1の番号が付けられた写真の選択)を受けることに応答して、装置600は、図6Mの例示的なメディア項目ビュー654を表示する。応答して、装置600は、選択されたメディア項目の例示的なワンアップビュー654を表示する。例示的なワンアップビュー654は、例示的なスクラビングアフォーダンス654Bを含む。示されているように、スクラビングアフォーダンス654Bは、キュレートされたビューに含まれたサブセットに含まれたメディア項目の表現を含む。例えば、1、3、5、7及び8の番号が付けられた写真のみがスクラビングアフォーダンスに含まれる(例えば、コレクションの全ての写真よりも少ない)。
いくつかの実施形態によれば、装置600は、スクラビングアフォーダンスに対応するユーザ入力を受け、応答して、スクラビングアフォーダンスを表示し続けながら、第3のメディア項目の表示をメディア項目のキュレートされたサブセットのうちの第4のメディア項目の表示に置き換える。例えば、装置600は、現在表示されている写真の表示を、それと同時に表示されているスクラビングアフォーダンスをもつワンアップビュー内の新しい写真に置き換える。この例では、ワンアップビュー656は、スクラビングアフォーダンス656B上の8の番号が付けられた写真(ユーザの指の表現によって図では部分的に不明瞭になっている)のユーザ入力選択を示す(例えば、スクラビングアフォーダンス654Bに対応するが、ユーザ選択のために更新された外観を伴っている)。応答して、装置600は、今度は、メディア項目656Aのワンアップビュー656を表示し、表示されたスクラビングアフォーダンス656Bは、今度は、メディア項目656Aの縮小化されたサイズの表現を最大の表現として示す。いくつかの実施形態では、ユーザは、(タッチ感知面又はディスプレイを介して)スクラビングアフォーダンスに沿って指をドラッグし、メディア項目のワンアップビューを通してナビゲートする。ここで、スクラビングアフォーダンス内で接触されたメディア項目はワンアップビューに表示される。このように、スクラビングアフォーダンスを使用して、ユーザは、メモリ内のメディア項目のワンアップビューを通して(例えば、拡大された表示)迅速にナビゲートすることができる。このようにして、スクラビングアフォーダンスは、メディア項目のサブセットをナビゲートしブラウズする迅速なツールを提供することができる。
いくつかの例では、スクラビングアフォーダンスによって表現されたメディア項目は、キュレートされたビューに含まれたメディア項目のサブセットのうちのメディア項目のみを含む。このように、ユーザが(例えば、メモリ詳細ビューで、より小さい写真よりも)より大きな表現としての写真のキュレートされたサブセットをブラウズすることを望む場合、ユーザは、迅速にかつ直感的にそのようにできる。いくつかの実施形態では、スクラビングアフォーダンス内に表現されたメディア項目は、メディア項目のコレクション内の全ての写真である。いくつかの実施形態では、表現されたメディア項目がキュレートされたメディア項目であるか又は全てのメディア項目であるどうかは、メディア項目に対応するユーザ選択が受けられたときメモリ詳細ユーザインタフェースがキュレートされたビュー内にあったか又は拡張ビュー内にあったかどうかに依存する。例えば、キュレートされたビュー内であった場合には、スクラビングアフォーダンスは、キュレートされたセットからのメディア項目のみを含むことになる。
いくつかの実施形態によれば、第4のメディア項目は、スクラビングアフォーダンスに対応するユーザ入力の大きさに基づいて選択される。例えば、より速い又はより長いジェスチャ(例えば、タッチ感知面上のタッチ入力に対応する)は、より多くの数のメディア項目を通してナビゲーションを起こさせることになるから、第4のメディア項目は、より遅い又はより短いジェスチャに対してそれがあることになるよりも、メディア項目のセット内で第3のメディア項目から更に離れているメディア項目である。このようにして、ユーザは、ユーザのユーザ入力の大きさを調整することによってスクラビングアフォーダンス内の画像を通してユーザがナビゲートする速度を調節することができる。
いくつかの実施形態によれば、装置600は、スワイプジェスチャに対応するユーザ入力を受け、応答して、第4のメディア項目を表示する。例えば、1の番号が付けられた写真の表示において、装置600は、1つ以上のスワイプジェスチャ入力を受け、応答して8の番号が付けられた写真を表示する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、地理的地図を含む第2の領域を含む。例えば、図6Jの例示的な詳細ユーザインタフェース632は、地図領域640を含む。地図領域640は、例示的な位置インジケータ640Aを含む地理的地図を示す。図6Nのメモリ詳細ビュー658は、例示的な地図領域658Aも示す。
いくつかの実施形態では、メディア項目に関連付けられた場所がない(又はそのような情報が利用できない)場合、地図領域は表示されない。
いくつかの実施形態では、装置600は、第2の領域内の地理的地図の選択に対応するユーザ入力を受け、応答して、詳細ユーザインタフェースの表示を地理的地図ビューの表示に置き換える。例えば、メモリ詳細ユーザインタフェース658の地図領域658Aの地理的地図のユーザ入力選択(例えば、その上のタップ659)に応答して、装置600は、拡張された地理地図ビュー660を表示する。いくつかの実施形態では、地理的地図ビューは、第5のメディア項目に関連付けられた場所に対応する位置インジケータを含み、地理的地図ビューは第3のアフォーダンスを含む。例えば、例示的な地理的地図ビュー660はまた、地理的地図を示し、メディア項目の場所を表現する、位置インジケータ660Aと660B、及び近い写真を示すアフォーダンス660Cを含む。
いくつかの実施形態によれば、詳細ユーザインタフェースを更に表示するために、装置600は、メディア項目の第1コレクションのうちの第5のメディア項目に関連付けられた場所に対応する地理的地図上に位置インジケータを表示する。例えば、例示的な位置インジケータ658Bと658Cは、図6Nの地図領域658Aの地理的地図に示されている。いくつかの例では、インジケータは、それに関連付けられたメディア項目の縮小表現である。例えば、インジケータは、第5のメディア項目の縮小バージョンである。いくつかの例では、メディア項目に関連付けられた場所は、メタデータ、Exifデータなどの、メディア項目に関連付けられた場所データに基づいて判定されることができる。いくつかの例では、メディア項目に関連付けられた場所は、メディア項目(例えば、写真、ビデオ)が取られた場所を表現する。
いくつかの実施形態によれば、地理的地図は、メディア項目が取り込まれた場所に対応する地図内の異なる場所に第1のコレクション内の複数の異なるメディア項目の1つ以上のインジケータを表示する。いくつかの実施形態では、単一のインジケータは、1つ以上のメディア項目を表す。
いくつかの実施形態によれば、地図の縮尺は、第1のコレクション内のメディア項目に対応する全ての場所を含むように選択される。例えば、第1のコレクションのうちのメディア項目に対応する各インジケータが地理的地図上に同時に表示されるように、地理的地図のズームレベルが選択されることができる。いくつかの例では、ズームレベルは、このように、及び、メディア項目の場所の近くに依然としてズームされながら、メディア項目が地理的地図内のほぼ中央に置かれかつ地図の端と最も近いメディア項目の場所との間に大きな境界がないように、選択される。
いくつかの実施形態によれば、装置600は、地理的地図を表示しながら、第3のアフォーダンスを表示する。装置600は、第3のアフォーダンスの選択に対応するユーザ入力を受け、応答して、メディア項目の第1のコレクションに含まれていないメディア項目の場所に対応する地理的地図ビュー内に追加の位置インジケータを表示する。例えば、装置600は、図6Nの拡張された地理的地図ビュー660の近い写真を示すアフォーダンス660Cの選択を受ける。応答して、装置600は、例示的な追加の位置インジケータ662Aと662Bを含む、図6Oに示されたように、拡張された地理的地図ビュー662を表示する。追加された位置インジケータは、メモリの一部ではない、近い写真の場所に対応するインジケータである。メモリの地理的地図を見ながら、ユーザは、メモリに関連付けられた場所の近くからの他の写真を見ることを望むこともある。近い写真(例えば、ビデオ)を示すアフォーダンスは、ユーザがそうすることを可能にし、所望のメディア項目を見つける一連の余計なナビゲーションステップを実行しなければならないことからユーザを救う。
いくつかの実施形態によれば、地図の縮尺は、地理的地図ビューに入ったとき及び/又は追加の位置インジケータを表示するとき維持される。例えば、拡張された地理的地図ビュー660と662との間で、追加のインジケータが追加されたとき、地図のズームレベルは、変化しなかった。
いくつかの実施形態によれば、スケールファクタは僅かに変化させられるが、地図のセンタリングは維持されて、追加の位置インジケータは、メモリ内のメディア項目が取り込まれたところの付近の場所で取り込まれた他のメディア項目を示す。
いくつかの実施形態によれば、追加の位置インジケータを表示した後、装置600は、第4のアフォーダンスを表示する。例えば、装置600は、拡張された地理的地図ビュー662において近い写真を隠すアフォーダンス662Cを表示する。いくつかの例では、第4のアフォーダンスは第3のアフォーダンスと同じアフォーダンスである。例えば、近い写真を示すアフォーダンス660Cは、近い写真を隠すアフォーダンス662Cによって置き換えられる。いくつかの例では、アフォーダンスは別個である(例えば、別個の位置に)。装置600は、第4のアフォーダンスの選択に対応するユーザ入力を受け、応答して、地理的地図ビュー内に追加の位置インジケータを表示することを止める。例えば、近い写真を隠すアフォーダンス662Cの選択を受けることに応答して、装置600は、拡張された地理的地図ビュー660を再び表示し、インジケータ662Aと662Bを表示することを止めることができる。いくつかの例では、装置600は、地図ビューの縮尺及び/又はセンタリングを維持しながら、それを行う。
いくつかの実施形態によれば、装置600は、位置インジケータの選択に対応するユーザ入力を受け、応答して、地理的地図ビューの表示を第5のメディア項目の表示に置き換える。例えば、拡張された地理的地図ビューにおいて、装置600は、インジケータ660Bの選択を受け、応答してワンアップビュー664を表示する。ワンアップビュー664Aは、現在のメモリからのメディア項目、メディア項目664Aを示す。ワンアップビュー664Aはまた、現在のメモリからではないメディア項目、メディア項目664B(スクラビングアフォーダンス上の)を示す。例えば、装置600がビュー662内の全ての近い写真の表示からワンアップビュー664に入ったので、メディア項目664Bが表示される。このように、メディア項目664Bは、メモリには含まれていないがメモリに関連付けられた場所に地理的に近い場所に関連付けられた近いメディア項目(例えば、662Aと662Bによって表現された)に対応する。例えば、表示された例において、メディア項目664Bは、(7月4日から)現在のメモリに関連付けられていないが、(例えば、1年のうちの異なる時間、冬の間に)現在のメモリの写真の近くで取られた、雪だるまを示す。
いくつかの実施形態によれば、詳細ユーザインタフェースは、メディア項目の第1のコレクションのうちのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含む。例えば、図6Jの例示的な詳細ユーザインタフェース632は、人物領域638、例示的な第3の領域を含む。人物領域638は、メディア項目の対応するコレクション内の識別された顔(例えば、1人以上の人の)に対応する人インジケータ638Aと638Bを示す。図6Pのメモリ詳細ビュー666も、例示的な人物領域を示す。
いくつかの実施形態によれば、装置600は、識別された顔に対応するインジケータの選択に対応するユーザ入力を受け、応答して、メディア項目の第4のコレクションを表示する。例えば、装置600は、人インジケータ666A(例えば、「パット」という名前の人に対応する)の選択を受け、例示的な人詳細ビュー668を表示する。
いくつかの例では、人詳細ビューは、コンテンツ及び配置においてメモリ詳細ビュー(例えば、図6Jに表されたように)と類似しているか又は同じである(例えば、同じ順序で同じ領域を含む)。
いくつかの実施形態によれば、メディア項目の第4のコレクションのうちのメディア項目はそれぞれ、識別された顔を含む。例えば、人詳細ビュー668によって表現されたコレクション内のメディア項目のそれぞれは、対応する人を示す(例えば、この例ではパット)。換言すれば、人詳細ビューは、いくつかの例において、ある人に特定のメモリである(例えば、アフォーダンスの選択の後、第1の人を含んだ写真のみを示す)。
いくつかの実施形態によれば、第4のコレクションは、識別された顔を含まないメディア項目を含む。
いくつかの実施形態によれば、第4のコレクションは、識別された顔と類似する顔を有する及び画像内の顔を識別された顔として識別する前にアプリケーションがユーザから確認を要求する1つ以上の提案された画像を含む。
いくつかの実施形態によれば、第4のコレクションに対する詳細ユーザインタフェースは、第1のコレクションの詳細ユーザインタフェースについて本明細書に記載されたのと同じ1つ以上のセクションをもつが、第4のコレクションに基づいて選択された顔、関連するメモリ、場所、キーメディア項目を有する。
いくつかの実施形態では、メディア項目内に識別された顔(単数又は複数)又は人(単数又は複数)がない(又はその情報が利用できない)場合には、人領域は表示されない。
いくつかの実施形態によれば、詳細ユーザインタフェースは第4の領域を含む。例えば、図6Jの例示的な詳細ユーザインタフェース632は、関連するメモリ領域642、例示的な第4の領域を含む。関連するメモリ領域642は、現在の詳細ユーザインタフェースのコレクション(例えば、メモリ詳細ビュー)に関連するメディア項目のコレクションの表現を含む。表現642Aは、メディア項目の関連するコレクション(以下、「関連するメモリ」とも呼ばれる)に対応する。図6Qのメモリ詳細ビュー670も、例示的な関連するメモリ領域670Aを示す。
いくつかの実施形態によれば、第4の領域は、共通の特性のセットを共有するメディア項目の第5のコレクションの表現を含み、メディア項目の第5のコレクションのうちのメディア項目は、メディア項目の第1のコレクションのうちのメディア項目と第1の特性を共有する。特性は、任意の、メディア項目の識別可能な特徴、性質又はメディア項目に関連付けられた情報である。例えば、特性は、メディア項目に関連付けられた、タグ、キーワード、日付、保存場所、著作者などのうちの1つ以上を含むことができる。いくつかの例では、特性はコンテキスト属性である。例えば、特性は、特定の時間範囲(例えば、先週、5月4日〜5月26日)、1年のうちの特定の日(例えば、7月4日)、特定の場所又は場所のセット(例えば、パリ、フランス、自宅、ヨセミテ国立公園)、メディア項目に含まれた特定の人(単数又は複数)などのうちの1つ以上を含むことができる。この例では、第1のコレクションは、第5のコレクションと特性を共有する。例えば、現在のメモリ詳細ビュー670(例えば、第1のコレクション)のメモリは、2019年7月第4日からのメモリである。関連するメモリ表現670Bは、例示的な第5のコレクション(例えば、関連するメモリ)を表現し、雪のなかで遊び雪だるまを作る子供を示し、2019年12月26日〜2020年1月1日の週に対するメモリである。この例では、第1のコレクションのうちのメディア項目と第5のコレクションのうちのメディア項目との間の共有された特性は、ユーザの子供の顔の識別である。例えば、ユーザの子供の顔は、現在のメモリのメディア項目内で(例えば、図6Fのメディア項目614内に)及び2019年12月26日〜2020年1月1日のメディア項目内で(例えば、雪のなかで遊ぶ子供たちを示す、表現670Bに示されたメディア項目内に)も識別される。したがって、異なるコレクションからのこれらの2つのメディア項目の間で共有された特性は、1つ以上の識別された顔(例えば、既知の個人に対応する)の存在である。明らかなように、現在のメモリが識別された人のグループを示すメディア項目を含む場合、関連するメモリは、その人のグループを含む関連しないイベント(例えば、2014年の大晦日)であることができ、よって共有されている特性は、コレクションのうちの少なくとも1つのメディア項目に現れている識別された人のグループである。この特徴は、そうでなければ時間順に自動的に記憶されることになる、メディア項目を、より関連し直感的なインタフェースで、ユーザが直感的にアクセスし見ることを可能にするので、特に有用である。上述されたインタフェースは、ユーザがそれに容易にアクセスできる位置に非常に関連するコンテンツを提示することによって、ユーザが見たいメディア項目を探り出す不要で度を超えた入力を行うことからユーザを解放し、したがって時間と装置のリソースを節約する。
関連するメモリアフォーダンス670Cも、場所フランスのパリへの旅行の関連するメモリを表現する。例えば、パリ旅行のメモリは、共に休日に対応するという点において、2019年7月4日メモリと特性を共有している。例えば、装置600は、2019年7月4日メモリが休日(米国における7月4日)に関連付けられていること及びパリ旅行もまた休日(例えば、メモリが2020年5月4日〜5月26日の間に取り込まれたメディア項目を含むので、米国における2020年5月25日の戦没将兵記念日)に重なっていたことを認識する。したがって、これらのメモリのそれぞれは、これらが1年の日のうちの休日に関連付けられたメディア項目を含むという特性を共有していることになる。
現在のメモリと関連するメモリとの間の共有された特性は、対応するメモリそれぞれのうちの全てのメディア項目によって共有された共通の特性のセットのうちの特性の1つである必要はない。例えば、現在のメモリが2019年7月4日であり(例えば、日/イベントによってグループ化されたメモリ)かつ関連するメモリが「あなたの最近の旅行」である(例えば、異なる日/イベントによってグループ化された他のメモリ)場合、共有された特性は両方のメモリからの写真内の人の顔の識別であることができる。このように、これらのメモリは、それぞれの対応するメモリの項目(例えば、この例では、それぞれ、7月4日の日/イベントと5月3日〜5月5日の日/イベントである)に共通な特性ではない、人(例えば、顔)に基づいて互いに関連している。
いくつかの実施形態によれば、装置600は、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受け、応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースを表示する。例えば、メモリ表現670Bの選択に応答して、装置600は、表現670Bに対応するメディア項目のコレクションに対応するメモリ詳細ビュー672を表示する。
いくつかの実施形態によれば、メディア項目の第5のコレクションを含む詳細ユーザインタフェースは、キュレートされたビューに表示される。この例では、メモリ詳細ビュー672は、例示的な第5のコレクションに含まれるメディア項目の写真領域672B内に例示的なキュレートされたビューを示す。
いくつかの実施形態によれば、第5のコレクションに対する詳細ユーザインタフェースは、第1のコレクションの詳細ユーザインタフェースについて本明細書に記載されたのと同じセクションの1つ以上をもつが、第5のコレクションに基づいて選択された顔、関連するメモリ、場所、キーメディア項目を有する。いくつかの例では、この選択されたコンテンツのうちの1つ以上は、第1のコレクションに対して選択されたコンテンツとは異なる。
いくつかの実施形態によれば、第4の領域に表現されたメディア項目のコレクションは、詳細ユーザインタフェースが表示されるとき(又は実質的に時間的にそのときに近いとき)に動的に選択される。例えば、以下に記載されたように、ユーザは、一旦メモリを見て、関連するメモリ領域内の関連するメモリの第1のセットを見ることができる。2回目(例えば、1日、1週、又は1月後)にメモリを見るときに、装置600は、図6Rにおいて、同じメモリの関連するメモリ領域内の関連するメモリの第2のセットを表示する。具体的には、図6Rのメモリ詳細インタフェース676で、表現676Bによって表現されたメモリは、(図6Qの)表現670Cによって表現されたメモリを置き換えている。
いくつかの実施形態によれば、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、装置600は、共通の特性のセットを共有するメディア項目の第6のコレクションを表現するデータを受ける。例えば、関連するメモリ表現670B(例えば、2019年12月26日〜2020年1月1日の週に対する)と670C(例えば、フランスのパリへの旅行に対する)を含む詳細メモリビュー670を表示した後、装置600は、新たなメモリを表すデータ(例えば、共通の特性のセットを共有するメディア項目の第6のコレクション)を受ける。いくつかの実施形態では、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なる。例えば、第6のコレクションは、第1(例えば、ユーザの誕生日に対応する)と異なるメモリである。
図6Rは、お気に入りメモリアルバムユーザインタフェースを示す。いくつかの実施形態によれば、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、装置600は、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受ける。例えば、装置600は、メモリ詳細ビュー内の第1のコレクションを2回目に見る要求を受ける。この例では、お気に入りメモリアルバムインタフェース674において、装置600は、第1のコレクション(例えば、2019年7月第4日メモリ)に対応する、メモリ表現674Aの選択を受ける。見られるように、お気に入りメモリアルバムユーザインタフェース674は、ユーザが写真アプリケーションのアルバムセクションをブラウズしている間(例えば、選択されたアルバムタブ674Bによって表されたように)、表示される。
いくつかの実施形態によれば、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受けることに応答して、装置600は、詳細ユーザインタフェースとメディア項目の第6のコレクションの表現を第4の領域に表示する。例えば、表現674Aの選択を受けた後に、装置600は、第1のコレクションに対する詳細ユーザインタフェースである、メモリ詳細ユーザインタフェース676を表示する。この例では、詳細ユーザインタフェース676(例えば、メモリを2回目に見ること)は、関連するメモリ領域を除いて詳細ユーザインタフェース670(例えば、メモリを1回目に見ること)と同じである。この例では、表現676Aは、670Aに対応するが、表現676Bは、表現670Cを置き換えている。表現676Bは、子供がサッカー(以下、「フットボール」とも呼ばれる)を行っていることを示し、ユーザの子供たちによって行われていたフットボールトーナメントにおいて取り込まれたメディア項目のコレクションに対応する。例えば、装置600は、子供たちがフットボールメモリ内のメディア項目にわたってより目立つように扱われているため、フットボールメモリがフランスのパリメモリよりも第1のコレクションにより関連すると判定することができたことになる。いくつかの例では、装置600は、ユーザがかれらの子供たちのメディア項目をブラウズしていると判定したので、ユーザが見そうなものにしたがってフットボールメモリを推す。いくつかの例では、第6のコレクションの詳細なビューの表示は、装置600に写真アプリケーションをメモリセクションへナビゲートさせる(例えば、メモリタブ676Cがメモリ詳細ビュー676と同時に選択されていて、メモリからの戻りのナビゲーションは装置600にメモリタイムラインを表示させることになる)。いくつかの例では、装置600は、写真アプリケーションのアルバムセクションにとどまる(例えば、アルバムタブが選択されたままであり、メモリ詳細ビュー676からの戻りのナビゲーションは装置にお気に入りメモリアルバムインタフェース674を表示させることになる)。
いくつかの実施形態によれば、第6のコレクションに対する詳細ユーザインタフェースは、第1のコレクションの詳細ユーザインタフェースについて本明細書に記載されたのと同じセクションの1つ以上をもつが、第6のコレクションに基づいて選択された顔、関連するメモリ、場所、キーメディア項目を有する。
上で触れたように、ユーザは、後に見るためにメモリ詳細ビューを保存する能力が任意選択的に提供される。いくつかの実施形態によれば、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示しながら、装置600は、第5のアフォーダンスを表示する。例えば、図6Qの例示的なメモリ詳細ビュー670は、お気に入りメモリに追加するアフォーダンス670Dを含む。装置600は、第5のアフォーダンスの選択に対応するユーザ入力を受け、応答して、メディア項目の第1のコレクションの識別子をメモリに記憶されたメディア項目の選択されたコレクションのリストに関連付ける。例えば、お気に入りメモリに追加するアフォーダンス670Dの選択に応答して、装置600は、対応するメモリをメモリ内(例えば、装置メモリ又はさもなければ装置に関連付けられたメモリ内)のお気に入りにされたメモリのリストに関連付ける。
上記のように、メモリ詳細ビューがお気に入りにされた(メモリを保存することとも呼ばれる)後、装置は、他のお気に入りにされた詳細メモリビューと共に(例えば、「お気に入りのメモリ」アルバム内に)メモリに対するアフォーダンスを表示する。いくつかの実施形態によれば、装置は、メディア項目の選択されたコレクションのリストのうちのメディア項目のコレクションの表現を見る要求に対応するユーザ入力を受ける。例えば、装置は、(例えば、アルバムセクションへナビゲートすること(示されていない)、及び「お気に入りのメモリ」と表題が付されたアルバムを選択することによって)写真アプリケーションと共に「お気に入りのメモリ」アルバムを表示する要求を受ける。いくつかの実施形態によれば、メディア項目の選択されたコレクションのリストのうちのメディア項目のコレクションの表現を見る要求に対応するユーザ入力を受けることに応答して、装置600は、メディア項目の第1のコレクションの表現を表示する。例えば、図6Rのお気に入りのメモリアルバムインタフェース674は、メモリ詳細ビュー670に保存されたメモリ(例えば、2019年7月第4日メモリ)に対応する表現674Aを含む。特に、お気に入りのメモリインタフェース674におけるメディア項目の第1のコレクションの表現674Aは、メモリタイムライン610の表現610Aと合致する。このように、特定のユーザインタフェースがメモリ詳細ビューにアクセスするために使用されるにもかかわらず、表現は、任意選択的に、メモリに対してユニバーサルな識別子としての役割を果たす。
図7A〜7Eは、いくつかの実施形態に従う装置を用いて、共通の特性のセットを共有するメディア項目のコレクション、及びそれに関連するコンテンツを見る方法を示すフロー図である。方法700は、ディスプレイを備えた装置(例えば、100、300、500)において実行される。方法700のいくつかの動作は、任意選択的に組み合わせられ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明されるように、方法700は、共通の特性のセットとそれに関連するコンテンツを共有するメディア項目のコレクションを見る直感的な方法を提供する。方法は、関連するメディアコンテンツを閲覧するための度を超えた数のユーザ入力をナビゲートするためのユーザの認知負担を軽減し、よってより効率的なヒューマンマシンインタフェースをもたらす。電池動作型コンピューティング装置について、関連するメディアをユーザがより速く見ることを可能にすることは、電力をより効率的に節約し、バッテリ充電の間隔を延ばす。
装置は、文脈的に関連するメディアを表示する要求を受ける(702)。いくつかの実施形態では、装置は、写真アプリケーションを開き(例えば、図6Aのアフォーダンス602Aの選択に応答して)、又は、写真アプリケーションのメモリタブへナビゲートする(例えば、図6Bのメモリタブ604Aの選択に応答して)。
要求に応答して(704)、装置は、装置が第1のコンテキスト(例えば、1日のうちの第1の時間に、第1の曜日に、1年のうちの第1の日に、第1の場所に及び/又は人の第1の組と一緒に)にあるという判定にしたがって、共通の特性のセットを共有し(例えば、全てが特定の時間範囲内に特定の場所又は場所のセットにおいて取り込まれたメディアに対応する同じメモリに属する)かつ第1のコレクションに関連するメディア項目の第1のコレクションの表現(例えば、図6Dの表現610A)を、ディスプレイ上に表示する(706)。
要求に応答して(704)、装置は、装置が第2のコンテキスト(例えば、1日のうちの第2の時間に、第2の曜日に、1年のうちの第2の日に、第2の場所に及び/又は人の第2の組と一緒に)にあるという判定にしたがって、共通の特性のセットを共有し(例えば、全てが特定の時間範囲内に特定の場所又は場所のセットにおいて取り込まれたメディアに対応する同じメモリに属する)かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現(例えば、図6Eの表現612A)を、ディスプレイ上に表示する(704)。ここで、メディア項目の第2のコレクションはメディア項目の第1のコレクションと異なる。このようにして、装置(例えば、装置600)は、装置が第1のコンテキストにある場合には第1のコレクションの第1の表現を、又は、装置が第2のコンテキストにある場合には第2の表現を表示することによって、非常に多くの追加の入力の必要なしに、装置があるコンテキストに関連するメディア項目のコレクションへのアクセスをユーザに提供し、装置のリソースとユーザの時間を節約する。
装置は第1のコンテキストにある(例えば、1日のうちの第1の時間に、第1の曜日に、1年のうちの第1の日に、第1の場所に及び/又は人の第1の組と一緒に)にあるという判定にしたがって、装置は、共通の特性のセットを共有し(例えば、全てが特定の時間範囲内に特定の場所又は場所のセットにおいて取り込まれたメディアに対応する同じメモリに属する)かつ第1のコンテキストに関連するメディア項目の第3のコレクションの表現(例えば、図6Dの610A、メディア項目の第1のコレクションの表現と同時に表示されている)を表示する(710)。ここで、メディア項目の第1のコレクションは第1のコンテキスト属性に基づいて第1のコンテキストに関連し(例えば、現在の日に関連するもの)、メディア項目の第3のコレクションは第2のコンテキスト属性に基づいて第1のコンテキストに関連し(例えば、現在の日に関連するもの)、ここで、第2のコンテキスト属性は第1のコンテキスト属性と異なる。このように、装置(例えば、装置600)は、第2のコンテキスト属性に基づいて第1のコンテキストに関連するメディア項目の第3コレクションの表現を表示することによって、非常に多くの追加の入力を必要としないメディア項目の第3のコレクションへのアクセスをユーザに提供する。
いくつかの実施形態によれば、tメディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む(712)(例えば、図6Dの表現610A)。いくつかの例では、メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションからの複数のメディア項目の縮尺バージョンを含む。いくつかの例では、本明細書に記載されたメディア項目のコレクションの他の表現は、任意選択的に、メディア項目の対応するコレクションから選択された1つ以上のメディア項目の縮小バージョンを含む。
いくつかの実施形態によれば、装置は、メディア項目の第1のコレクション(例えば、図6Dの610Aによって表現されたメモリ)に関連付けられたテキスト識別子(例えば、図6Fのテキスト識別子615A)を生成し(714)、選択されたメディア項目内の顔を識別子(ここで、選択されたメディア項目は画像である)、メディア項目の第1のコレクションの表現に重ね合わせられたテキスト識別子を表示する(ここで、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔に重ならない(例えば、図6Fのテキスト識別子615Aと615C))。いくつかの例では、表現内のテキストの場所は、選択されたメディア項目内の顔を場所に少なくとも部分的に基づいて判定される(例えば、図6Fに示されたように)。いくつかの例では、選択されたメディア項目(例えば、図6Fのメディア項目614)は、メディア項目のコレクションの表現内の表示に対してクロップされ、クロッピングは、テキストの下から顔が出るように(例えば、図6Fの表現614Aと表現614Bに示されたように)動かして調整される。いくつかの実施形態によれば、メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上のワードを含む(例えば、図6Fのテキスト識別子615Aは、日付、7月4日のコンテキストに対する関連性を識別する)。このようにして、装置(例えば、装置600)は、第1のコレクションに対するコレクションの関連性を説明するテキスト識別子を選択し及び表示することによって、装置があるコンテキスト状態の自動生成された視覚的指示をユーザに提供し、装置の状態をユーザに伝達する。
いくつかの実施形態によれば、メディア項目の第1のコレクションの表現は、第1のアフォーダンス(例えば、図6Dの表現610A)である(716)。いくつかの実施形態によれば、装置は、第1のアフォーダンスの選択に対応するユーザ入力を受け、ユーザ入力を受けることに応答して、ディスプレイ上に、メディア項目の第1のコレクションの少なくとも部分(例えば図6Dの画像611A、又は図6Kのキュレートされたビュー649)を含む詳細ユーザインタフェース(例えば、図6Dの詳細ユーザインタフェース611、図6Jの詳細ユーザインタフェース632も)を表示する(716)。いくつかの例では、メディア項目の第1のコレクションは、ディスプレイ上に一度に表示されることができるよりも多くのメディア項目(例えば、図6Kの拡張ビュー652内の1から9の番号が付けられた写真)を含み、詳細ユーザインタフェースを表示することは、メディア項目の第1のコレクションのうちの部分を表示すること(例えば、1、3、7、5及び8の番号が付けられた写真のみの図6Kのキュレートされたビュー649を表示すること)を含み、ここで、追加のメディア項目は、詳細なビューをスクロールすることによって、詳細なビュー内に表示されることができる。このようにして、装置(例えば、装置600)は、コレクションの部分の表示を含む、特性のセットを共有するメディア項目のコレクションに対する詳細ユーザインタフェースを表示することによって、関連するメディア項目をユーザに手動で判定させるのではなく、ユーザが、関連するコンテンツを提示するために最適化されたフォームで、関連する及びテキスト的に関連するコンテンツを見て、関連するメディア項目を引き出すことを可能にし、装置のリソースとユーザの時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースを表示することに先立って、装置は、ディスプレイ上に、ディスプレイの第1の部分を視覚的に占めるメディア項目の第1のコレクションの表現(例えば、図6Gの表現616C)を表示する。第1のアフォーダンスの選択に対応するユーザ入力を受けることの後、及び、詳細ユーザインタフェースを表示しながら、装置は、ディスプレイ上に、ディスプレイの第2の部分(例えば、図6Gのキーメディア項目617Aによって占められた部分、ディスプレイの第1の部分とは異なる)を視覚的に占めるメディア項目の第1のコレクションのキーメディア項目(例えば、図6Gのキーメディア項目617A)を表示する。更に、第1のアフォーダンスの選択に対応するユーザ入力を受けることに応答して、装置は、ディスプレイ上に、キーメディア項目へ遷移するメディア項目の第1のコレクションの表現のアニメートされた遷移を表示する(例えば、図6Gのメモリタイムライン616Bは、メモリ詳細ビュー617内のキーメディア項目617Aの部分へ遷移する表現616Cを示す)。
いくつかの実施形態によれば、装置は、詳細ユーザインタフェースを表示しながら、ディスプレイ上に、メディア項目の第1のコレクションのうちの複数のメディア項目(例えば、図6Hのメディア項目620のシーケンシャル表示)を含むスライドショー(例えば、図6Hのスライドショー620)を表示し(718)、スライドショーの選択(例えば、再生アフォーダンス622の選択)に対応するユーザ入力を受け(718)、スライドショーの選択に対応するユーザ入力を受けることに応答して、ディスプレイ上に、メディア項目の第1のコレクションのうちの複数のメディア項目を含むビデオ(例えば、図6Hのビデオ628)を表示する(718)、ここで、スライドショーとビデオは異なる(例えば、図6Hに示されたように)。いくつかの例では、ビデオは、スライドショーの表示を置き換え、スライドショーが表示されていたディスプレイの部分(例えば、図6Hのスライドショー620が占有する部分)で再生される。いくつかの例では、ビデオ及びスライドショーは、異なり、第1のコレクションからの異なる複数のメディア項目を使用する。例えば、ビデオとスライドショーは共に、メディア項目の第1のコレクションからのメディア項目を含むが、それぞれに含まれた特定のメディア項目は、異なる。いくつかの例では、ビデオとスライドショーは、同じ複数のメディア項目を使用するが、それらの項目は、異なるように表示され又は配列される。例えば、スライドショーは、コレクションの全ての画像とコレクション内のビデオの静止フレーム画像を示し、一方、ビデオは、全ての画像を含み、コレクション内の同じ画像からのクリップ(単に静止フレームの代わりに)を含む。いくつかの例では、ビデオを表示しながら、ユーザは、ビデオのコンテンツを編集するビデオ編集入力を与えることができる(例えば、ビデオの長さ又はビデオのテーマを変更する要求)。いくつかの例では、ビデオは、静止画像、ビデオ及び、任意選択的に、主画像(時に「ライブ写真」と呼ばれる)に時間的に近接して取り込まれたオーディオ及び/又は画像と対になっている静止画像の編集物である。このように、装置(例えば、装置600)は、コレクションからのコンテンツを共に含む(しかし異なる)ビデオ又はスライドショーを表示することによって、見ている状況に対して最適化されたメディアの提示を可能とし、したがって、ユーザの注意をより引き付けそうな方法でディスプレイを使用することによって関連するメディアをブラウズするとき効率的にディスプレイを使用し、手動でメディア項目をブラウズするための追加の入力の数を減らし、装置のリソースとユーザの時間を節約する。
いくつかの実施形態によれば、装置は、スライドショーを編集する要求に対応するユーザ入力(例えば、図6Hのスライドショー620上の深い押圧)を受け、スライドショーを編集する要求に対応するユーザ入力を受けることに応答して、ディスプレイ上に、スライドショー編集ユーザインタフェース(例えば、図6Iの編集インタフェース630と類似する又は同じ)を表示する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第1の領域(例えば、図6J及び図6Kの写真領域636)を含み、ここで、第1の領域は、メディア項目の第1のコレクションのうちのメディア項目のサブセットを含むキュレートされたビュー(例えば、図6Kのキュレートされたビュー649)を含み、メディア項目のサブセットはより低い品質の写真を除外するように選択される(720)。いくつかの例では、表示は、第1のコレクションの写真及び/又はビデオのサブセット(例えば、全てよりも少ない)を含むキュレートされたビューである。いくつかの実施形態によれば、キュレートされたビュー内のメディア項目のサブセットは、メディア項目のサブセットのうちのメディア項目に関連付けられた時間に基づいて時間順に配列される。このように、この装置(例えば、装置600)は、より低い品質の写真を除外するメディア項目のサブセットを含むキュレートされたビューを表示することによって、ユーザがメディア項目のセットをブラウズするときに必要とされる追加の入力の数を減らし、提示された場合ユーザは直ちに退けてしまいそうなより低い品質の写真を表示しないことによって、さもなければより低い品質の写真を表示しない追加のユーザ入力を表示し受けることによって費やされてしまうことになるユーザの時間及び装置のリソースを節約する。
いくつかの実施形態によれば、第1の領域は、更に第2のアフォーダンスを含む(例えば、図6Kの全てを見るアフォーダンス648)。いくつかの実施形態によれば、装置は、第2のアフォーダンスの選択に対応するユーザ入力を受け(722)、第2のアフォーダンスの選択に対応するユーザ入力を受けることに応答して、ディスプレイ上に、第2のアフォーダンスの選択に対応する入力を受けるに先立って表示されていなかったメディア項目の第1のコレクションのうちの追加のメディア項目の表現(例えば、図6Kの拡張ビュー652内の2、4、6及び9の番号が付けられた写真)を含む拡張ビュー(例えば、図6Kの拡張ビュー652)を表示する(722)。このようにして、装置(例えば、装置600)は、キュレートされたビューと追加のメディア項目の拡張ビューに容易にアクセスする選択肢をユーザに提供することによって、写真アプリケーションをナビゲートしてキュレートされたビューから除外された追加の写真を探り出すための非常に多くの追加の入力の必要なしに、メディア項目のコレクション内のより多くの項目へのアクセスをユーザに提供し、装置のリソース及びユーザの時間を節約する。
いくつかの実施形態によれば、キュレートされたビューに含まれるメディア項目のサブセット(例えば、図6Kのキュレートされたビュー649の1、3、5、7及び8の番号が付けられた写真)は、キュレートされた配置に配列され、メディア項目のキュレートされた配置に含まれるメディア項目のサブセットは、メディア項目の端がキュレートされた配置の頂部及び底部において実質的に直線の境界を生成するように揃えられるように、配列される(724)(例えば、図6Kの頂部境界646Bと底部境界646C)。いくつかの実施形態によれば、キュレートされた配置の底部における実質的に直線の境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセット(例えば、図6Kのキュレートされたビュー649の1、7及び8の番号が付けられた写真)によって形成される。
いくつかの実施形態によれば、詳細ユーザインタフェースは、地理的地図(例えば、地図領域658Aに示された地図)を含む第2の領域(例えば、図6Nの地図領域658A)を含む。いくつかの実施形態によれば、詳細ユーザインタフェース(例えば、図6Nの詳細ユーザインタフェース658)を表示することは、メディア項目の第1のコレクションのうちの第5のメディア項目に関連付けられた場所に対応する地理的地図上の位置インジケータ(例えば、図6Nの位置インジケータ959)をディスプレイ上に表示することを更に含む(726)。いくつかの例では、地理的地図は、メディア項目が取り込まれた場所に対応する地図内の異なる場所における第1のコレクション内の複数の異なるメディア項目のインジケータを表示する(例えば、地図領域658Aは、それぞれ22のメディア項目を表す、複数のインジケータ658Bと658Cを含む)。いくつかの例では、地図の縮尺(例えば、ズームレベル)は、第1のコレクション内のメディア項目に対応する全ての場所を含むように(例えば、地図領域658Aはメモリのコレクション内の全てのメディア項目に対するインジケータを含む)選択される。いくつかの例では、地図の縮尺は、メディア項目が地理的地図内でおおよそ中央に置かれ、かつ、地図の端と最も近いメディア項目の場所との間に大きな境界が存在しないように選択される。このように、装置(例えば、装置600)は、コレクション対する詳細ユーザインタフェースの一部として第1のコレクションのメディア項目に対応する位置インジケータを表示することによって、非常に多くの数の追加の入力を必要とせずに、メディア項目のコレクションに対する関連する場所情報への迅速なアクセスをユーザに提供し、装置のリソースとユーザの時間を節約する。
いくつかの実施形態によれば、装置は、地理的地図を表示しながら(例えば、図6Nの地図660において)、ディスプレイ上に、第3のアフォーダンス(例えば、図6Nの近い写真を示すアフォーダンス660C)を表示し(728)、第3のアフォーダンスの選択に対応するユーザ入力を受け(728)、第3のアフォーダンスの選択に対応するユーザ入力を受けることに応答して、ディスプレイ上に、メディア項目の第1のコレクションに含まれていないメディア項目(図6Oのメディア項目664B)の場所に対応する地理的地図ビュー(例えば、図6Oの地図ビュー662)内に追加の位置インジケータ(例えば、図6Oの地図ビュー662内のインジケータ662Aと662B)を表示する(728)。いくつかの例では、地図の縮尺は、地理的地図ビューに入るとき及び/又は追加の位置インジケータを表示するとき、維持される。いくつかの例では、縮率は僅かに変更されるが、地図のセンタリングは維持されて、追加の位置インジケータが、メモリ内のメディア項目が取り込まれたところの近くの場所で取り込まれた他のメディア項目を示す。いくつかの例では、装置は、第2の領域(例えば、図6Nの地図領域658A)内の地理的地図の選択に対応するユーザ入力を受ける。いくつかの例では、第2の領域内の地理的地図の選択に対応するユーザ入力を受けることに応答して、装置は、詳細ユーザインタフェースの表示を地理的地図ビューの表示に置き換え(例えば、詳細ユーザインタフェース658の表示を地図ビュー660に置き換える)、ここで、地理的地図ビューは、第5のメディア項目に関連付けられた場所に対応する位置インジケータ(例えば、位置インジケータ660A)を含み、ここで、地理的地図ビューは、第3のアフォーダンス(例えば、図6Nの近い写真を示すアフォーダンス660C)を含む。このように、装置(例えば、装置600)は、第1のコレクションに含まれないメディア項目に対応する追加の位置インジケータへのアクセスを提供することによって、場所に基づくことを除いて第1のコレクションに関係しないことになり得る関連するメディア項目への容易なアクセスをユーザに提供し、よって、そうでなければ非常に多くの数の引き出すための追加の入力を要求することになる関連するメディア項目にアクセスする有用な方法をユーザに提供して、装置のリソースとユーザの時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェース(例えば、図6Pの図6Pの詳細ユーザインタフェース666)は、メディア項目の第1のコレクションのメディア項目内で識別された顔に対応するインジケータ(例えば、顔インジケータ666A、顔インジケータ666B)を備える第3の領域(例えば、人物領域666C)を含む。いくつかの実施形態によれば、デバイスは、識別された顔に対応するインジケータ(例えば、図6Pの顔インジケータ666A)の選択に対応するユーザ入力を受け取り(730)、識別された顔に対応するインジケータの選択に対応するユーザ入力を受け取ることに応答して、ディスプレイ上に、メディア項目の第4のコレクション(例えば、図6Pの写真領域668Cのメディア項目)を表示し(730)、メディア項目の第4のコレクションのメディア項目はおのおの、識別された顔を含む。いくつかの例では、第4のコレクションは、識別された顔に類似した顔を有する1つ以上の提案された画像(例えば、図12Gにおいて1ないし9と付番された写真)を含み、アプリケーションは、画像内の顔を、識別された顔として識別する前に、ユーザからの確認を要求する。いくつかの例では、第4のコレクションの詳細ユーザインタフェース(例えば、図6Pの詳細ユーザインタフェース668)は、第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第4のコレクションに基づいて選択された顔、関連する思い出、位置、キーメディア項目を伴う(例えば、図6Lの詳細ユーザインタフェース646C)。これにより、デバイス(例えば、デバイス600)は、コレクションのための詳細ユーザインタフェースの一部として第1のコレクションのメディア項目において識別された顔に対応するインジケータを表示することによって、例えば、人の出席を判定するために画像の全てをレビューするために、多くの追加入力を必要とすることなく、メディア項目のコレクションに描写された個人を識別する関連情報への迅速なアクセスをユーザに提供し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、共通の特性のセットを共有するメディア項目の第5のコレクションの表現(例えば、図6Qの表現670B)を備えた第4の領域(例えば、図6Qにおける関連思い出領域670A)を含み、メディア項目の第5のコレクションのメディア項目は、メディア項目の第1のコレクションのメディア項目と、第1の特性を共有する(732)。いくつかの実施形態によれば、デバイスは、(例えば、図6Qの表現670Bの)メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受け取り(732)、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受け取ることに応答して、ディスプレイ上に、メディア項目の第5のコレクションを含む詳細ユーザインタフェース(例えば、図6Qの詳細ユーザインタフェース672)を表示する(732)。いくつかの例では、特性は、特定の時間範囲、特定の日付、特定の位置又は位置のセット、及び/又は、メディア項目に含まれる特定の人物を含む。いくつかの例では、第1のコレクションは、第5のコレクションと特性を共有する。いくつかの例では、現在の思い出と、関連する思い出との間で共有される特性は、それぞれの各思い出の全てのメディア項目によって共有される共通の特性のセットの特性のうちの1つである必要はない。いくつかの例では、第5のコレクションの詳細ユーザインタフェースは、第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第5のコレクションに基づいて選択された顔、関連する思い出、位置、及び/又は、キーメディア項目を伴う。これにより、デバイス(例えば、デバイス600)は、現在見られているコレクションと特性を共有するメディア項目のコレクションの表現を、現在のコレクションの詳細ユーザインタフェースの一部として表示することによって、ユーザに、ユーザの現在のブラウジングアクティビティに関連する他のメディアのコレクション、そうでなければユーザによるアクセスのための多くの追加入力を必要とすることになるコレクションへの迅速なアクセスを提供し、これにより、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、メディア項目の第1のコレクションを含む詳細ユーザインタフェース(例えば、図6Lの思い出詳細ユーザインタフェース646C)を表示することに続いて、デバイスは、共通の特性のセットを共有する(例えば、図6Rの表現676Bによって表現される)メディア項目の第6のコレクションを表現するデータを受け取り(734)、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なり、メディア項目の第1のコレクション(例えば、図6Rの表現674Aの選択)を含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受け取る(734)。メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受け取ることに応答して、デバイスは、ディスプレイ上に、詳細ユーザインタフェース(例えば、図6Rの詳細ユーザインタフェース676)と、第4の領域(例えば、関連思い出領域676C)内のメディア項目の第6のコレクションの表現(例えば、図6Rの表現674A)を表示する(734)。いくつかの例では、第6のコレクションの詳細ユーザインタフェースは、第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第6のコレクションに基づいて選択された顔、関連する思い出、位置、及び/又は、キーメディア項目を伴う。これにより、デバイス(例えば、デバイス600)は、メディア項目の既存のコレクションの後に作成されたメディア項目のコレクションの表現を、その既存のコレクションの詳細ビューで表示することによって、コレクションの作成後であっても、例えば、新たな関連付けを作成するためにコレクションを再生成するための多くの追加入力を必要とせずに、動的に決定される関連メディアへのアクセスをユーザへ提供し、これにより、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、デバイスは、メディア項目の第1のコレクションを含む詳細ユーザインタフェース(例えば、図6Qの詳細ユーザインタフェース670)を表示している間、ディスプレイ上に、第5のアフォーダンス(例えば、図6Qの、お気に入りの思い出への追加アフォーダンス670D)を表示し、第5のアフォーダンスの選択に対応するユーザ入力を受け取り、第5のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの識別子を、メモリに記憶されたメディア項目の、選択されたコレクション(例えば、図6Rのインタフェース674において表現されるお気に入りの思い出アルバム)のリストに関連付ける。これにより、デバイス(例えば、デバイス600)は、ユーザが、コレクションを、選択されたコレクションのリストに関連付けることを可能にするアフォーダンスを表示することによって、ユーザに、多くの追加入力の必要なく、メディア項目のコレクションの表示に戻るための迅速なアクセスを提供し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目(例えば、図6Kのキュレートされたビュー649において1と付番された写真)と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目(例えば、図6Kのキュレートされたビュー649において7と付番された写真)とを含み、第1のサイズと第2のサイズとは異なり、第1のアスペクト比と第2のアスペクト比とは異なり、キュレートされた配列の底部に、実質的に直線の境界(例えば、図6Kの境界646C)が、第1の複数のメディア項目の隣接するメディア項目の縁によって形成される。いくつかの実施形態によれば、デバイスは、メディア項目(例えば、図6Kの1、3、5、7及び8と付番されたメディア項目)の寸法に部分的に基づいて、メディア項目の第1のコレクションのメディア項目から、キュレートされたメディア項目のサブセットを選択する。これにより、デバイス(例えば、デバイス600)は、その寸法に基づいて、キュレートされたセットのメディア項目を選択することによって、画像の元の寸法の整合性を維持しながら、画像を表示するために使用される空間を最大化するビューを作成することによって、与えられたスクリーン空間を効率的に利用することができ、これにより、デバイスリソースを節約する。
いくつかの実施形態によれば、デバイスは、キュレートされたビュー(例えば、図6Lにおけるキュレートされたビュー649)に含まれるメディア項目のサブセットの第3のメディア項目(例えば、図6Lにおいて1と付番されたメディア項目)の選択に対応するユーザ入力を受け取る。キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受け取ることに応答して、デバイスは、ディスプレイ上に、(例えば、メディア項目がポジション654Aに表示される図6Mのワンアップビュー654において)第3のメディア項目と、スクラビングアフォーダンス(例えば、図6Mのスクラビングアフォーダンス654B)とを表示し、スクラビングアフォーダンスに対応するユーザ入力(例えば、図6Mにおけるメディア項目656Bに関連付けられた入力)を受け取る。スクラビングアフォーダンスに対応するユーザ入力を受け取ることに応答して、デバイスは、スクラビングアフォーダンスを表示し続けながら、第3のメディア項目(例えば、図6Mにおいて1と付番されたメディア項目)の表示を、メディア項目のキュレートされたサブセットの第4のメディア項目(例えば、図6Mにおいて8と付番されたメディア項目)の表示と置き換える。いくつかの例では、第4のメディア項目が、スクラビングアフォーダンスに対応するユーザ入力の量に基づいて選択される。これにより、デバイス(例えば、デバイス600)は、メディア項目を表示し、キュレートされたサブセットのメディア項目間の容易なナビゲーションを可能にするスクラビングアフォーダンスを提供することにより、デバイスは、より低品質又は冗長なメディア項目をナビゲートする必要なく、コレクションにおけるより高品質な画像を見るための迅速な手法をユーザに提供し、これによって、多くの追加入力及びディスプレイの追加使用の必要性を低減し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、追加の位置インジケータを表示することに続いて、デバイスは、ディスプレイ上に、第4のアフォーダンスを表示し(例えば、図6Oの、近くの写真アフォーダンス662Cを隠し)、第4のアフォーダンスの選択に対応するユーザ入力を受け取り、第4のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、地理的地図ビューにおける追加の位置インジケータの表示を停止する(例えば、図6Oの位置インジケータ662Bの表示を停止し、図6Nの地理的地図ビュー660の表示へ戻る)。これにより、デバイス(例えば、デバイス600)は、ユーザに、キュレートされたセットの位置インジケータのみをブラウズすることに戻るための簡単な手法を提供するアフォーダンスを表示することによって、ユーザは、項目の低減されたサブセットをより効率的にブラウズし、これにより、メディアのより大きなコレクションをナビゲートすることに関連付けられた多くの追加入力を回避し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、デバイスは、位置インジケータ(例えば、図6Oにおける位置インジケータ660B)の選択に対応するユーザ入力を受け取り、位置インジケータの選択に対応するユーザ入力を受け取ることに応答して、地理的地図ビューの表示を、第5のメディア項目の表示と置き換える(例えば、図6Oに図示されるように、メディア項目664Aを表示する)。これにより、デバイス(例えば、デバイス600)は、別の地図アプリケーションへアクセスすることに関連付けられた多くの追加入力を必要とせずに、ユーザがメディア項目及び位置を容易にブラウズできるように、地理的地図ビューから、メディア項目のワンアップ表示へ容易にアクセスする手法をユーザへ提供し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、デバイスは、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を見る要求に対応するユーザ入力(例えば、図6Rのお気に入りの思い出アルバムインタフェース674へのナビゲーション)を受け取り、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を見る要求に対応するユーザ入力を受け取ることに応答して、ディスプレイ上に、メディア項目の第1のコレクション(例えば、図6Rの表現674A)を表示する。
方法700(例えば、図7)に関して上述したプロセスの詳細は、後述する方法に類似の方式でも適用可能であることに留意されたい。例えば、方法1000、方法1300、及び方法1600は、任意選択的に、方法700を参照して上述した様々な方法の特性のうちの1つ以上の特性を含む。例えば、例えば、メディア項目の詳細ユーザインタフェースは、方法1000、方法1300、及び方法1600にしたがってアクセスされたメディア項目の任意のコレクションの表示においてアクセスされ得る。簡潔のために、これら詳細は以下で繰り返されない。
いくつかの実施形態によれば、図8は、説明された様々な実施形態の原理にしたがって構成された電子デバイス800の例示的な機能ブロック図を図示する。いくつかの実施形態によれば、電子デバイス800の機能ブロックは、上述した技術を実行するように構成されている。デバイス800の機能ブロックは、任意選択的に、説明された様々な例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの組み合わせによって実施される。当業者であれば、図8で説明された機能ブロックは、任意選択的に、説明された様々な例の原理を実施するために、組み合わされるか、又はサブブロックへ分離されることが理解される。したがって、本明細書の説明は、任意選択的に、本明細書に記載された機能ブロックの任意の可能な組み合わせ又は分離又は更なる定義をサポートする。
図8に図示されるように、電子デバイス800は、グラフィックユーザインタフェースを表示するように構成されたディスプレイユニット802と、ディスプレイユニット802へ結合された処理ユニット808とを含む。いくつかの実施形態では、処理ユニット808は、受取ユニット810及び表示有効化ユニット812を含む。いくつかの実施形態では、処理ユニット808は、任意選択的に、生成ユニット814、識別ユニット816、選択ユニット818、及び関連付けユニット820のうちの1つ以上を含む。
処理ユニットは、コンテキスト関連メディアを表示する要求を(例えば、受取ユニット810で)受け取り、この要求に応答して、デバイスが第1のコンテキストにあるとの判定にしたがって、共通の特性のセットを共有し、第1のコンテキストに関連するメディア項目の第1のコレクションの表現の、ディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化し、デバイスが第2のコンテキストにあるとの判定にしたがって、共通の特性のセットを共有し、第2のコンテキストに関連するメディア項目の第2のコレクションの表現の、ディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されており、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる。
いくつかの実施形態では、処理ユニットは更に、デバイスが第1のコンテキストにあるとの判定にしたがって、共通の特性のセットを共有し、第1のコンテキストに関連するメディア項目の第3のコレクションの表現の、ディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されており、メディア項目の第1のコレクションは、第1のコンテキスト属性に基づいて、第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキスト属性に基づいて、第1のコンテキストに関連し、第2のコンテキスト属性は、第1のコンテキスト属性とは異なる。
いくつかの実施形態では、メディア項目の第1のコレクションの表現は、第1のアフォーダンスであり、処理ユニットは更に、第1のアフォーダンスの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、ユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースの、ディスプレイユニット802上における表示を、(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む。
いくつかの実施形態では、処理ユニットは更に、メディア項目の第1のコレクションに関連付けられたテキスト識別子を(例えば、生成ユニット814を用いて)生成し、画像である選択されたメディア項目内の顔を(例えば、識別ユニット816を用いて)識別し、メディア項目の第1のコレクションの表現にオーバーレイされたテキスト識別子の、ディスプレイユニット802上での表示を、(例えば、ディスプレイ有効化ユニット812を用いて)有効化するように構成されており、オーバーレイされたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された、選択されたメディアにおいて識別された顔とオーバラップしない。
いくつかの実施形態では、メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上の単語を含む。
いくつかの実施形態では、処理ユニットは更に詳細ユーザインタフェースを表示する前に、ディスプレイの第1の部分を視覚的に占有するメディア項目の第1のコレクションの表現の、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、第1のアフォーダンスの選択に対応するユーザ入力を受け取ることに続いて、詳細ユーザインタフェースを表示している間、ディスプレイの第1の部分とは別の、ディスプレイの第2の部分を視覚的に占有するメディア項目の第1のコレクションのキーメディア項目の、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、更に、第1のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、キーメディア項目へ遷移するメディア項目の第1のコレクションの表現のアニメートされた遷移の、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化する
ように構成されている。
いくつかの実施形態では、処理ユニットは更に、詳細ユーザインタフェースを表示している間、メディア項目の第1のコレクションの複数のメディア項目を含むスライドショーの、ディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化し、スライドショーの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、スライドショーの選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの複数のメディア項目を含むビデオの、ディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されており、スライドショーとビデオとは異なる。
いくつかの実施形態では、処理ユニットは更に、スライドショーを編集する要求に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、スライドショーを編集する要求に対応するユーザ入力を受け取ることに応答して、スライドショー編集ユーザインタフェースのディスプレイユニット802における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、第1の領域を含み、第1の領域は、メディア項目の第1のコレクションのメディア項目のサブセットを含むキュレートされたビューを含み、メディア項目のサブセットは、より低品質の写真を除外するように選択される。
いくつかの実施形態では、第1の領域は更に、第2のアフォーダンスを備え、処理ユニットは更に、第2のアフォーダンスの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、第2のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、第2のアフォーダンスの選択に対応する入力を受け取る前に表示されなかったメディア項目の第1のコレクションの追加のメディア項目の表現を含む拡張ビューの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、キュレートされたビュー内のメディア項目のサブセットが、メディア項目のサブセットのメディア項目に関連付けられた時間に基づいて、時系列的に配列される。
いくつかの実施形態では、キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配列で配列され、メディア項目のキュレートされた配列に含まれるメディア項目のサブセットは、キュレートされた配列の頭部及び底部において、実質的に直線の境界を作成するように、メディア項目の縁が整列される。
いくつかの実施形態では、キュレートされた配列の底部における実質的に直線の境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される。
いくつかの実施形態では、第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、第1のサイズと第2のサイズとは異なり、第1のアスペクト比と第2のアスペクト比とは異なり、キュレートされた配列の底部における実質的に直線の境界は、第1の複数のメディア項目の隣接するメディア項目の縁によって形成される。
いくつかの実施形態では、処理ユニットは更に、メディア項目の第1のコレクションのメディア項目から、メディア項目のキュレートされたサブセットを、メディア項目の寸法に部分的に基づいて(例えば、選択ユニット818を用いて)選択するように構成されている。
いくつかの実施形態では、処理ユニットは更に、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受け取ることに応答して、第3のメディア項目及びスクラビングアフォーダンスの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、スクラビングアフォーダンスに対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、スクラビングアフォーダンスに対応するユーザ入力を受け取ることに応答して、スクラビングアフォーダンスを表示し続けている間、第3のメディア項目のディスプレイユニット802上における表示を、メディア項目のキュレートされたサブセットの第4のメディア項目の表示と(例えば、表示有効化ユニット812を用いて)置き換えるように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、地理的地図を備えた第2の領域を含み、詳細ユーザインタフェースを表示することは更に、メディア項目の第1のコレクションの第5のメディア項目に関連付けられた位置に対応する地理的地図上における位置インジケータの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化することを備える。
いくつかの実施形態では、処理ユニットは更に、地理的地図を表示している間、第3のアフォーダンスの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、第3のアフォーダンスの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、第3のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションに含まれていないメディア項目の位置に対応する地理的地図ビュー内の追加の位置インジケータの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、処理ユニットは更に、追加の位置インジケータを表示することに続いて、第4のアフォーダンスの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、第4のアフォーダンスの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、第4のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、地理的地図ビュー内の追加の位置インジケータを、ディスプレイユニット802上に(例えば、表示有効化ユニット812を用いて)表示することを停止するように構成されている。
いくつかの実施形態では、処理ユニットは更に、位置インジケータの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、位置インジケータの選択に対応するユーザ入力を受け取ることに応答して、地理的地図ビューの、ディスプレイユニット802上における表示を、(例えば、表示有効化ユニット812を用いて)第5のメディア項目の表示と置き換えるように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、メディア項目の第1のコレクションのメディア項目において識別された顔に対応するインジケータを備えた第3の領域を含み、処理ユニットは更に、識別された顔に対応するインジケータの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、識別された顔に対応するインジケータの選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第4のコレクションの、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されており、メディア項目の第4のコレクションのメディア項目はおのおの、識別された顔を含む。
いくつかの実施形態では、詳細ユーザインタフェースは、共通の特性のセットを共有するメディア項目の第5のコレクションの表現を備えた第4の領域を含み、メディア項目の第5のコレクションのメディア項目は、第1の特性を、メディア項目の第1のコレクションのメディア項目と共有し、処理ユニットは更に、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースのディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、処理ユニットは更に、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示することに続いて、共通の特性のセットを共有するメディア項目の第6のコレクションを表すデータを(例えば、受取ユニット810を用いて)受け取り、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なり、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受け取ることに応答して、詳細ユーザインタフェースと、第4の領域におけるメディア項目の第6のコレクションの表現との、ディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
いくつかの実施形態では、処理ユニットは更に、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示している間、第5のアフォーダンスのディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化し、第5のアフォーダンスの選択に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、第5のアフォーダンスの選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの識別子を、メモリに記憶されたメディア項目の選択されたコレクションのリストに(例えば、関連付けユニット820を用いて)関連付けるように構成されている。
いくつかの実施形態では、処理ユニットは更に、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を見る要求に対応するユーザ入力を(例えば、受取ユニット810を用いて)受け取り、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を見る要求に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの表現のディスプレイユニット802上における表示を(例えば、表示有効化ユニット812を用いて)有効化するように構成されている。
図7A〜図7Eを参照して上述した動作は、任意選択的に、図1A〜図1B又は図8に描写された構成要素によって実施される。例えば、受取動作702及び表示動作706は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170におけるイベントモニタ171は、タッチ感知式ディスプレイ112上のコンタクトを検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1へ配信する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置における第1のコンタクトが、ユーザインタフェース上のアフォーダンスの活性化のような、あらかじめ定義されたイベント又はサブイベントに対応するか否かを判定する。あらかじめ定義されたそれぞれのイベント又はサブイベントが検出された場合、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190を活性化する。イベントハンドラ190は、任意選択的に、アプリケーション内部状態192を更新するために、データ更新部176又はオブジェクト更新部177を利用又は呼び出す。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって表示されるものを更新するために、それぞれのGUI更新部178にアクセスする。同様に、図1A〜図1Bに描写された構成要素に基づいて、他のプロセスがどのように実施され得るかが当業者に明らかになるであろう。
常に利用可能な関連コンテンツビュー
上述された例示的な思い出詳細ビューのコンテンツ及び体系化は、いくつかの実施形態において、個々のメディア項目に関連するコンテンツを提示するために使用され得、これにより、メディア項目のコレクションに関連して利用されることに限定されない。
図9A〜図9Lは、いくつかの実施形態にしたがって、メディア項目に関連するコンテンツを見るための例示的なユーザインタフェースを例示する。これら図面におけるユーザインタフェースは、図10A〜図10Dのプロセスを含む、後述するプロセスを例示するために使用される。
図9Aは、デバイス900のメディアブラウジングインタフェース902におけるメディア項目の例示的なコレクションを例示する。いくつかの実施形態では、デバイス900は、デバイス100、デバイス300、デバイス500、又はデバイス600のうちの1つ以上の特徴を含む。メディアブラウジングインタフェース902は、複数のメディア項目を描写する。この例では、メディアブラウジングインタフェース902は、メディア項目のコレクションを、思い出詳細ビューで描写しない。むしろ、メディアブラウジングインタフェース902は、メディア項目をブラウズするためのより伝統的なインタフェースを描写する。例えば、ユーザは、ユーザのデバイスに関連付けられた全てのメディア項目(例えば、写真、ビデオ)をブラウズしている(例えば、アルバムタブ902Bが選択される)。いくつかの例では、メディア項目は、表示されると、位置及び日付(例えば、メディアブラウジングインタフェース902におけるアイスランドのNordurland vestraとSedurland及び7月22日〜25日)を表示するバナーが同伴される。一般的には、このようにブラウズすることにより、ユーザは、メディア項目を時系列的にスクロールし、それらを見ることができる。しかしながら、インタフェース902は、メディア項目インタフェースのユーザビリティを高めることができる関連コンテンツを提供しないので、ユーザは、ブラウズされたメディア項目に関連するコンテンツを過度にナビゲートすることを強いられる。これは、時間がかかり、デバイスリソースを浪費し得る。
いくつかの実施形態によれば、デバイス900は、視覚的メディア項目のシーケンスの第1の視覚的メディア項目の選択を受け取る。例えば、メディアブラウジングインタフェース902において、デバイス900は、メディア項目902Aの選択を受け取る。メディア項目902Aは、視覚的メディア項目のシーケンスの例示的な第1の視覚的メディア項目であり、シーケンスは、メディアブラウジングユーザインタフェースで描写された写真で構成されており、シーケンスは上端左隅において始まり、各メディア項目を右へシーケンシャルに含める(そして、おのおのの行について繰り返すことで、メディア項目のための単一のシーケンスを形成する)。いくつかの例では、このシーケンスは、特定の位置及び/又は特定の日範囲との関連付けを共有するメディア項目のみを含む。例えば、この例におけるメディア項目のシーケンスは、任意選択的に、アイスランドで7月22日から25日までの間にキャプチャされたメディア項目のみを含む。
いくつかの実施形態によれば、デバイス900は、視覚的メディア項目のシーケンスの第1の視覚的メディア項目を表示する。例えば、図9Aにおいて、デバイス900は、メディア項目904Aのワンアップビュー904を表示する。いくつかの例では、デバイス900は、メディアブラウジングインタフェースにおいてメディア項目の選択に応答して、ワンアップビューを表示する。いくつかの例では、表示される項目は、写真又はビデオである。ワンアップビュー904は、スクラビングアフォーダンス904Bも含む。ワンアップビュー904及びスクラビングアフォーダンス904Bは、図6Mのワンアップビュー654、656、及び、スクラビングアフォーダンス654B、656Bに類似して動作することができ、これにより、これに関連する特徴の説明がここに組み込まれる。
いくつかの実施形態によれば、第1の視覚的メディア項目を表示している間、デバイス900は、それぞれの方向における動きを含むユーザ入力を受け取る。例えば、図9Aのワンアップビュー904において、デバイス900は、上方向のスワイプジェスチャに対応するユーザ入力を受け取る。いくつかの実施形態によれば、ユーザ入力を受け取ることに応答して、デバイス900は、ユーザ入力が、第1の方向のスワイプジェスチャに対応するか否かを判定する。この例では、第1の方向は上方向である(例えば、表示されたコンテンツが、見るために意図されたように正しく向けられている場合、ディスプレイの上端に向かっている)。いくつかの例では、第1の方向は上方向であるが、デバイス900は、作られた横に向けられているので、上方向は、ディスプレイの側縁(例えば長辺)に向かっている。いくつかの例では、ジェスチャ方向は、任意の適切な方向である。
いくつかの実施形態によれば、ユーザ入力が第1の方向のスワイプジェスチャに対応するとの判定にしたがって、デバイス900は、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目の関連コンテンツを備える詳細ユーザインタフェースを表示する。例えば、上方向へのスワイプに応答して、デバイス900は、第1の視覚的メディアに関連するコンテンツを備えるメディア項目詳細インタフェースを表示する。図9Bに描写される例では、デバイス900は、受け取られた上方向へのスワイプに応答して、(ワンアップビュー904において)例示的なメディア項目詳細インタフェース906を表示する。
メディア項目詳細インタフェース906は、第1の視覚的メディア項目(例えば、図9Aのメディア項目904A)に関連するコンテンツを含む。関連コンテンツは、メディア項目、メディア項目のコレクション(例えば、思い出)、位置、及び識別された顔のうちの1つ以上を含む。
いくつかの実施形態によれば、第1の視覚的メディア項目の関連コンテンツは、第1のカテゴリによって体系化された関連コンテンツの1つ以上の表現と、第2のカテゴリによって体系化された関連コンテンツの1つ以上の表現とを含む。例えば、図9Bのメディア項目詳細インタフェース906は、コンテンツの位置(例えば、見出し「場所」の下の地図領域)と、メディア項目のコレクションであるコンテンツ(例えば、見出し「関連する思い出」の下の関連思い出領域)とによって体系化された(例えば、視覚的にともにグループ化された)コンテンツを含む。関連コンテンツのカテゴリの他の例は、コンテンツの時間によって(例えば、日によって)体系化され、コンテンツ内で識別された人物によって(例えば、「人物」という見出しの下にある人物によって)体系化されることを含む。
いくつかの実施形態によれば、第1のカテゴリは第2のカテゴリとは異なる。上述され図9Bに図示されるように、例えば、例示的な第1のカテゴリは、コンテンツの位置であり、例示的な第2のカテゴリは、メディア項目のコレクションとして体系化されたコンテンツである。
図9Cは、例示的なメディア項目詳細インタフェース906を例示する。いくつかの例では、メディア項目詳細インタフェースは、対応するメディア項目の一部の表示を含む。例えば、これは、関連コンテンツが見られている現在のメディア項目を識別するために、有用なビジュアルリファレンスを、ユーザへ提供することができる。いくつかの例では、表示された部分を使用して、メディア項目を迅速に再表示することができる(例えば、その部分をスワイプ又はタップすることによって、ワンアップビューで表示する)。例示的なメディア項目詳細インタフェース906は、対応するメディア項目904Aの一部を含む。いくつかの例では、メディア項目詳細インタフェースは、人物領域(例えば、人物領域908)、場所領域(例えば、位置インジケータ910Aを含む場所領域910)、及び関連思い出領域(例えば、関連する思い出912Aを含む関連思い出領域912)のうちの1つ以上を含む。図6A〜図6Rを参照したこれらの特徴の説明がここに組み込まれる。
これにより、いくつかの実施形態によれば、第1の視覚的メディア項目のメディア項目詳細インタフェースは、図6A〜図6Rにおけるユーザインタフェースと図7の方法700とを参照して説明された第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第1の視覚的メディア項目に基づいて選択された顔、関連する思い出、位置、キーメディア項目を伴う。
いくつかの実施形態によれば、ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置において検出される。例えば、図9A〜図9Bに描写されるように、デバイス900は、視覚的メディア項目904Aに対応する位置におけるタッチ感知面(例えば、タッチ感知式ディスプレイ)上においてユーザ入力(例えば、表示された写真上で受け取られた入力)を受け取る。
図9D〜図9Eは、別のメディア項目を表示し、そのメディア項目の思い出詳細ビューにアクセスするナビゲーションを描写する。いくつかの実施形態によれば、それぞれの方向における動きを含むユーザ入力が、第1のユーザ入力である。第1の視覚的メディア項目を表示している間、デバイス900は、それぞれの方向における動きを含む第2のユーザ入力を受け取る。デバイス900は、第2のユーザ入力が、第1の方向とは異なる第2の方向のスワイプジェスチャに対応するか否かを判定し、ユーザ入力が第2の方向のスワイプジェスチャに対応するとの判定にしたがって、デバイス900は、第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示と置き換える。例えば、図9Dの例示的なワンアップビュー914Aにおける例示的な第1のメディア項目916の表示において、デバイス900は、水平方向での(例えば、左から右への)スワイプに対応する入力を受け取る。この例では、第1のユーザ入力が、垂直スワイプ(例えば、上方向へのスワイプ)であったため、おのおのの方向は異なる。見て分かるように、ワンアップビュー914Bは、中間ディスプレイを描写し、ジェスチャが、第2の方向において(例えば、左から右へ)移動すると、デバイス900が、メディア項目918の一部を表示する。ワンアップビュー914Bでは、メディア項目918が右へ、そしてディスプレイ上へ移動されている間、メディア916が右へシフトされ、ディスプレイから離される。ワンアップビュー914Cは、第2のユーザ入力ジェスチャが終了後、メディア項目918の例示的なワンアップビューを例示する。図9Aのメディアブラウジングインタフェース902を再び参照すると、メディア項目918は、メディアブラウジングインタフェース902のメディア項目のシーケンスにおいて隣接しているメディア項目に対応する。例えば、メディア項目918の縮小バージョンは、図9Dのメディア項目916の縮小スケールバージョンのすぐ左に隣接して見える。これにより、ユーザは、メディア項目916において右から左にスワイプした場合、メディア項目のシーケンスにおいて隣接したメディア項目、すなわちメディア項目918を得る。これにより、第2の方向におけるジェスチャで、ユーザは、ワンアップビューから、ビューのシーケンスにおける次の写真へ迅速にアクセスすることができる。
いくつかの実施形態によれば、第1の視覚的メディア項目は、メディア項目のシーケンスをナビゲートするためのスクラビングアフォーダンスとともに表示される。例えば、スクラビングアフォーダンス920が、図9Eに描写される。スクラビングアフォーダンスの選択に応答して、ユーザは、メディア項目のシーケンスをナビゲートすることができる。スクラビングアフォーダンス920の動作は、図6Mのスクラビングアフォーダンス654B、656Bに類似しており、その説明がここに組み込まれる。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、第2の視覚的メディア項目を表示している間、デバイス900は、それぞれの方向における動きを含む第2のユーザ入力を受け取る。デバイス900は、第2のユーザ入力が、第1の方向におけるスワイプジェスチャに対応するか否かを判定し、ユーザ入力が、第1の方向におけるスワイプジェスチャに対応するとの判定にしたがって、デバイス900は、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目の関連コンテンツを備えた第2の詳細ユーザインタフェースを表示する。例えば、図9Eのワンアップビュー914Cにおいて、デバイス900は、垂直スワイプ(例えば、上方向へのスワイプ)を受け取り、ワンアップビュー914Dにメディア項目詳細インタフェース922を表示する。メディア項目詳細インタフェース922の特徴は、図9Bのメディア項目詳細ユーザインタフェース906に関して上述したものと同じである。
いくつかの実施形態によれば、第2の視覚的メディア項目の関連コンテンツは、第1のメディア項目の関連コンテンツとは異なる。例えば、拡大された例示的なメディア項目詳細インタフェース914Dが、図9Fに図示されている。メディア項目詳細インタフェース914Dは、(「人物インジケータ」とも称される顔インジケータ924Aを含む)人物領域924、(位置インジケータ926Aを含む)場所領域926、及び(関連思い出表現928Aを含む)関連思い出領域928を含む。この例では、第2の視覚的メディア項目の関連コンテンツは、第1のものとは異なる。例えば、人物領域924は、顔インジケータ924Aを含み、写真の女性を「アン」という名前の人物として識別する。この例における第1の視覚的メディア(図9Aの904A)は、馬を描写しており、これにより、そのそれぞれの人物領域(例えば、図9Bのメディア項目詳細インタフェース906)にインジケータを有していないことを想起されたい。いくつかの実施形態では、メディア項目に、識別された顔又は人物が存在しない(又は、そのような情報が利用できない)場合、人物領域は表示されない。
いくつかの実施形態では、第2の視覚的メディア項目の関連コンテンツは、第3のカテゴリによって体系化された関連コンテンツの1つ以上の表現と、第4のカテゴリによって体系化された関連コンテンツの1つ以上の表現とを含む。例えば、第3及び第4のカテゴリは、第1及び第2のカテゴリに関して上述したものと類似している。例えば、第3のカテゴリは、コンテンツの時間によって体系化され、第4のカテゴリは、コンテンツにおいて識別された人物によって体系化され得る。いくつかの例では、第3のカテゴリは第4のカテゴリとは異なる。いくつかの例では、第2の視覚的メディアの関連コンテンツは、第1のメディア項目の関連コンテンツとは異なり、例えば、第2の写真は、第1の写真とは異なる関連する思い出、異なる顔を有する。
いくつかの実施形態によれば、第2の視覚的メディア項目の詳細ユーザインタフェースは、図6A〜図6Rにおけるユーザインタフェースと図7の方法700とを参照して説明された第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第2の視覚的メディア項目に基づいて選択された顔、関連する思い出、位置、キーメディア項目を伴う。
人物領域に関して上記で触れたように、メディアシーケンス内の2つの隣接するメディア項目(例えば、写真、ビデオ)は、異なる関連コンテンツを有することができる。これは、例えば、各メディア項目において識別された異なる顔、各メディア項目に関連付けられた異なる位置、各メディア項目に対応する異なる日付、各メディア項目に描写される異なるシーン(例えば、1つのメディア項目は海岸を描写する一方、別のメディア項目は森を描写する等)に依り得、これにより、各メディア項目が異なる関連コンテンツを有するようにする。いくつかの例では、メディア項目のシーケンスは、様々なコンテキストからのメディア項目を含み、これにより、隣接するメディア項目が特性のセットを共有しない可能性がある。例えば、ユーザがデバイス上の写真の全てをブラウズしているのであれば、シーケンス内の2つの隣接するメディア項目(例えば、全ての写真)は、異なるイベントに対応する最初の写真と最後の写真に隣接しているため、(文脈的に)完全に無関係である可能性がある。
図9G及び図9Hは、メディア項目のシーケンスの表示に戻るワンアップビューからのナビゲーションを例示する。いくつかの実施形態によれば、第1の視覚的メディア項目を表示している間、デバイス900は、それぞれの方向における動きを含む第3のユーザ入力を受け取る。デバイス900は、第3のユーザ入力が、第1及び第2の方向とは異なる第3の方向におけるスワイプジェスチャに対応するか否かを判定し、第3のユーザ入力が第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンを表示する。例えば、図9Gのワンアップビュー930において、デバイス900は、メディア項目930Aにおいて垂直スワイプ(例えば、下方向へのスワイプ)を受け取る。それに応答して、デバイス900は、メディアブラウジングインタフェース932を表示する。図9Gに例示されるように、デバイス900は、メディアブラウジングインタフェース932の対応するポジション(例えば、サムネイル932A)へアニメーション的に遷移する、ワンアップビュー930に表示されたメディア項目930Aを表示する。この例では、例示的な第3のユーザ入力は、例示的な第1の(例えば、上方向への)入力及び第2の(例えば、左から右への)入力とは異なる方向(例えば、下方向)であった。
本明細書で説明された技術を使用して、いくつかの実施形態によれば、ユーザは、上方向へのスワイプを使用して、(例えば、関連コンテンツを含む)詳細ユーザインタフェースにアクセスするか、又は、下方向へのスワイプを使用して、メディア項目のシーケンスの複数のメディア項目を(例えば、時系列的なリストで)表示するためのインタフェースへ戻る。
いくつかの実施形態によれば、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンが、時系列的に配列される。例えば、上述したように、図9Aのメディアブラウジングインタフェース902に描写されたメディア項目のシーケンスは、時系列的に配列されたメディア項目を描写する。
いくつかの実施形態によれば、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの各視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される。例えば、上述したように、メディアブラウジングインタフェース902内の視覚的メディア項目のシーケンスのメディア項目は、地理的位置に基づいて部分的にグループ化される。いくつかの例では、視覚的メディア項目のシーケンスのメディア項目は、時間及び/又は日付に基づいて視覚的にグループ化される。例えば、項目は、地理的位置及び期間コンテキスト属性を共有するメディア項目を有するモーメントとしてグループ化され得る。
いくつかの実施形態によれば、第2の視覚的メディア項目を表示している間、デバイス900は、それぞれの方向における動きを含む第4のユーザ入力を受け取る。デバイス900は、第4のユーザ入力が、第3の方向におけるスワイプジェスチャに対応するか否かを判定し、このユーザ入力が、第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンを表示する。例えば、図9Hは、図9Gに関して上述したものと同じ動作を描写するが、隣接するメディア項目である、メディア項目934Aのワンアップビュー934において、下方向へのスワイプが受け取られるという相違点がある。下方向へのスワイプに応答して、デバイス900は、メディア項目930A上のスワイプジェスチャに応答して表示されたものと同じメディアブラウジングインタフェース932を表示する。同様に、メディア項目934Aは、任意選択的に、アニメーション的に、メディアブラウジングインタフェース932の(例えば、サムネイル932Bにおいて)対応するポジションへ移行する。これにより、いくつかの実施形態によれば、ユーザは、(各項目について異なったものとなり得る)各メディア項目の関連コンテンツに容易にアクセスすることができるか、又は、(各項目について同じものとなり得る)縮小バージョンとして、いくつかのメディア項目の表示にアクセスすることができる。
いくつかの実施形態によれば、第1の視覚的メディア項目の関連コンテンツの表現は、非時系列的に配列される。例えば、例示的なメディア項目詳細インタフェース906は、非時系列的に配列された関連コンテンツの表現を含む。例えば、場所に対応する関連コンテンツは、関連する思い出に対応する関連コンテンツ上に配置され、これにより、時系列的ではなく、カテゴリによって配列される。更に、この例では、思い出領域912に含まれ、表現された関連する思い出(例えば、表現912A)は、時系列的に順序付けられておらず、むしろ、関連する思い出は、第1のメディア項目に対する関連性に基づいて(例えば、最も関連性のあるものを最初に)配列され得る。
図9I及び図9Jは、メディア項目がワンアップビューでズームされたときに、メディア項目詳細インタフェースにアクセスすることを例示する。いくつかの実施形態では、デバイス900が、メディア項目詳細インタフェースを見るユーザ入力要求を受け取ると、デバイス900は、上述したものとはわずかに異なる方式で応答する。
いくつかの実施形態によれば、第1の視覚的メディア項目を表示している間、デバイス900は、第1の方向における動きを含む第5のユーザ入力を受け取る。それに応答して、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大されたとの判定にしたがって、デバイス900は、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがって、ディスプレイ上において、第1の視覚的メディア項目を移動させる。例えば、第5のユーザ入力に応答して、第1の視覚的メディア項目が、ディスプレイのサイズよりも少なくとも1つの寸法において大きいとの判定にしたがって、デバイス900は、ジェスチャが第1の方向(例えば、上方向へのスワイプ)であったとしても、メディア項目詳細インタフェースを表示することなく、第1の視覚的メディア項目を移動させる。図9Iに描写された例では、例示的なメディア項目936Aが、インタフェース936において、(例えば、その寸法の1つ以上が、ディスプレイのサイズを超える)ズームされたビューで図示され、例示的な第5のユーザ入力(例えば、上方向へのスワイプ)が受け取られる。上方向へのスワイプに応答して、メディア項目936Aは、ディスプレイ上を移動したが、メディア項目詳細インタフェースはそれに応答して表示されない。これにより、例えば、写真がズームされた場合、デバイス900は、写真を移動(例えば、シフト、パン、並進)させるが、メディア項目詳細インタフェースを表示しない。
いくつかの実施形態によれば、更に、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大されたとの判定にしたがって、デバイス900は、メディアの表示サイズを、あらかじめ決定されたしきい値を超えて拡大しないように調節する。例えば、写真がズームされている場合、デバイス900は、表示された写真をズーム解除(例えば、写真の縮尺を縮小することによって、表示された写真からズームアウト)するが、第1の方向において、第5のユーザ入力に応答してメディア項目詳細インタフェースを表示しない。例えば、図9Iに図示されるユーザ入力に応答して、デバイス900は、(例えば、図9Jのメディア項目938Aとしてラベル付けされた)ズーム解除された図9Iのメディア項目936Aを図示する、図9Jのワンアップビュー938を表示する。
更に、第1の方向における動きを含む第5のユーザ入力に応答して、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大されていないとの判定にしたがって、デバイス900は、第5のユーザ入力にしたがって、ディスプレイ上において第1の視覚的メディア項目を移動させ、詳細ユーザインタフェースを表示する。例えば、メディア項目が、ディスプレイのサイズよりも少なくとも1つの寸法において大きくなければ、デバイス900は、ジェスチャが第1の方向(例えば、上方向へのスワイプ)にあった場合、第1の視覚的メディア項目を移動させ、メディア詳細インタフェースを表示する。これにより、この例では、メディア項目がズームされていない場合、メディア項目詳細インタフェースが表示される。例えば、この動作は、メディア項目詳細インタフェース941を含むワンアップビュー940に例示される。この例では、デバイス900は、上方向のスワイプジェスチャが受け取られ、それに応答して、インタフェース941を表示した場合に、ワンアップビュー938内に、ズーム解除されたメディア項目938Aを表示している。
いくつかの実施形態によれば、第1の方向における動きを含む後続する入力が検出された場合、デバイス900は、後続するユーザ入力にしたがってディスプレイ上で第1の視覚的メディア項目を移動させ、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大される場合であっても、詳細ユーザインタフェースを表示する。例えば、デバイス900は、メディア項目を移動させ、メディア項目詳細インタフェースを表示する。例えば、図9Iに例示される上方向へのスワイプジェスチャを受け取ることに応答して、デバイス900は、図9Jに図示されるように、メディア項目936Aのメディア詳細ユーザインタフェース941を表示する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第1のカテゴリによって体系化された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目において識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含む。例えば、デバイス900は、図9Fのメディア項目詳細インタフェース922に例示されるように、識別された顔インジケータ924Aを含む人物領域924を表示する。
いくつかの実施形態によれば、デバイス900は、識別された顔の選択に対応するユーザ入力を受け取り、それに応答して、メディア項目の第1のコレクションを表示し、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される。例えば、デバイス900は、図6Pを参照して上述したように、識別された顔の人物詳細ユーザインタフェースを表示する。
いくつかの実施形態によれば、第1の領域は人物領域である。人物領域の特徴は、少なくとも図6J及び図6Pを参照して上述されており、また、メディア項目詳細インタフェース内の人物領域にも適用可能である。したがって、上述した特徴のうちの1つ以上は、メディア項目詳細インタフェースの1つ以上の実施形態に含められ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第2のカテゴリによって体系化された関連コンテンツを含む第2の領域を含み、第2のカテゴリは位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む。例えば、メディア項目詳細インタフェースは、地理的地図を含む図6Nを参照して上述したような地図領域を含む。この例では、例示的な詳細ユーザインタフェース地図領域942Aが、図9Kのメディア項目詳細インタフェース942に図示される。図9Fのメディア項目詳細インタフェース922はまた、この例における第1の視覚的メディア項目の位置に対応する例示的なインジケータ926Aを含む例示的な地図領域926を描写する。
いくつかの実施形態によれば、第2の領域は地図領域である。地図領域の特徴は、少なくとも図6J、図6N、及び図6Oを参照して上述され、メディア項目詳細インタフェース内の地図領域にも適用可能である。したがって、上述された特徴のうちの1つ以上は、メディア項目詳細インタフェースの1つ以上の実施形態に含められ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、デバイス900は、第2の領域の選択に対応するユーザ入力を受け取り、それに応答して、第1の視覚的メディアに関連付けられた位置の視覚的表現を含む地図ユーザインタフェースを表示する。例えば、図9Kのメディア詳細ユーザインタフェース942において、デバイス900は、地図領域942Aのユーザ入力選択を受け取り、それに応答して、第1の視覚的メディアに関連付けられた位置の表現を含む例示的な地図ユーザインタフェース944を表示する。地図ユーザインタフェース944は、地理的地図946及び住所948を含む。いくつかの例では、地図ユーザインタフェースは、メディア項目に関連付けられた住所(例えば、住所948等)を含む。ユーザは、単一のメディア項目の詳細を見ているので、デバイス900は、特定のメディア項目の正確な住所を表示する。これにより、多くの住所を含むことができるコレクションの地理的地図とは対照的に、メディア項目のための地図ユーザインタフェースは、高い詳細レベルの(例えば、住所を中心とした)地図を含むことができる。例えば、地理的地図946は、住所948の地図位置にズームインされて表示される。
いくつかの実施形態によれば、デバイス900は、住所の選択に対応するユーザ入力を受け取り、それに応答して、地図アプリケーションのユーザインタフェースを表示する。例えば、地図ユーザインタフェース944の住所948又は地図946の選択に応答して、デバイス900は地図アプリケーションのユーザインタフェースを表示する。これにより、ユーザは、住所への方向を取得すること等によって、メディア項目の住所とインタラクトし続けることができる。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第3のカテゴリによって体系化された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、共通の特性のセットを共有する視覚的メディア項目のコレクションである。いくつかの実施形態によれば、第3の領域は、共通の特性のセットを共有する視覚的メディア項目の第2のコレクションの表現を含む。例えば、デバイス900は、図9Fのメディア項目詳細インタフェース922に例示されるような関連思い出領域928を表示する。これは、関連思い出の表現928A、共通の特性のセットを共有する視覚的メディア項目の第2のコレクションの例示的表現を含む。メディア項目詳細ユーザインタフェース942はまた、関連思い出領域942Bを描写する。
いくつかの実施形態によれば、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、デバイス900は、視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を受け取り、それに応答して、デバイス900は、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現を表示する。例えば、図9Kのメディア項目詳細ビュー942において、デバイス900は、表現942Dの選択を受け取り、それに応答して、その表現に対応する思い出の思い出詳細ビューを表示する。いくつかの例では、デバイス900は、上述したように、視覚的メディア項目の第2のコレクションのサブセットを含むキュレートされたビューで思い出を表示する。
いくつかの実施形態によれば、第3の領域は、関連思い出領域である。関連思い出領域の特徴は、少なくとも図6J、図6Q、及び図6Rを参照して上述され、メディア項目詳細インタフェース内の関連思い出領域にも適用可能である。したがって、上述した特徴のうちの1つ以上は、メディア項目詳細インタフェースの1つ以上の実施形態に含められ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する。例えば、メディア項目詳細インタフェースに表示される関連する思い出は、必ずしもメディア項目を含む必要はない。これにより、いくつかの実施形態によれば、デバイス900は、メディア項目がその一部であるユーザコレクションを示すだけでなく、いくつかのコンテキスト属性に基づいて、メディア項目に関連する少なくとも1つのコレクションを図示する。このように、関連思い出特徴は、単にメディア項目を含むコレクションを表示することを超え、メディア項目を見る場合に、より豊かなブラウジング体験をユーザに提供する。
図9A、図9B、及び図9Kは、例示的なメディア項目詳細ユーザインタフェースを現すために、ディスプレイをスクロールすることを例示する。いくつかの実施形態によれば、第1の視覚的メディア項目の関連コンテンツを備える詳細ユーザインタフェースを表示するために、デバイス900は、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を第1の方向にスクロールする。例えば、図9A及び図9Bを再び参照すると、デバイス900は、第1のメディア項目(例えば、904A)を、ジェスチャの方向(例えば、上方向)にスクロールする。
いくつかの実施形態によれば、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を、第1の方向にスクロールし、デバイス900は、表示され続けている第1の視覚的メディア項目の部分が、第1の視覚的メディア項目のあらかじめ決定された部分であるまで、表示された第1の視覚的メディア項目を、第1の方向においてスクロールする。例えば、デバイス900は、図9Bにおける詳細ユーザインタフェース906の描写まで、図9Kのメディア項目詳細ビュー942に描写されたポジションが表示されるまで、スクロールし続ける。メディア項目詳細ビュー942は、表示された第1のメディア項目の例示的なあらかじめ決定された部分942Cを描写する。あらかじめ決定された部分が、表示された部分であるまでスクロールした後、デバイス900は、第1の視覚的メディア項目のスクロールを停止し、第1のメディア項目のあらかじめ決定された部分が静止している間、詳細ユーザインタフェースを現すために、スクロールし続ける。例えば、デバイス900が第1の方向(例えば、上方向)にスクロールし続けるのであれば、思い出詳細ユーザインタフェース942Bの領域(例えば942B及び942C)が、上方向へスクロールし続けている(例えば、部分942Cの下に現れ、スライドし、部分942Cの下で消滅する)間、あらかじめ決定された部分942Cは静止したままである。いくつかの例では、あらかじめ決定された部分は、第1のメディア項目の特定の量
(例えば、固定された線形的な寸法、メディア項目の線形的な寸法の割合、メディア項目のエリアの割合等)である。
いくつかの実施形態によれば、第1の視覚的メディア項目は、画像又はビデオである。
いくつかの実施形態によれば、詳細ユーザインタフェースは、デバイス900にインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示される任意の視覚的メディア項目の表示においてアクセス可能である。例えば、上記で触れたように、メディア項目詳細インタフェースは、任意選択的に、写真アプリケーションの任意のインタフェース内の任意のメディア項目のワンアップ(例えば、フルスクリーン)表示においてアクセスされる。
図10は、いくつかの実施形態にしたがって、デバイスを使用してメディア項目に関連するコンテンツを見る方法を例示するフロー図である。方法1000は、ディスプレイ及びタッチ感知面を有するデバイス(例えば、100、300、500)において実行される。方法1000におけるいくつかの動作は、任意選択的に、組み合わされ、いくつかの動作の順序は、任意選択的に、変更され、いくつかの動作は、任意選択的に、省略される。
後述するように、方法1000は、メディア項目に関連するコンテンツを見るための直感的な手法を提供する。この方法は、メディア項目に関連するビュー関連コンテンツを発見するためのユーザの認識負担を低減し、それによって、より効率的なヒューマンマシンインタフェースを作成する。バッテリ駆動のコンピューティングデバイスに関し、メディア項目及び関連コンテンツを、ユーザが、より迅速かつ効率的にブラウズできるようにすることは、電力を節約し、バッテリ充電間の時間を増加させる。
デバイスは、視覚的メディア項目のシーケンス(例えば、図9Aのメディアブラウジングインタフェース902において表現される視覚的メディア項目のシーケンス)の第1の視覚的メディア項目(例えば、図9Aの視覚的メディア項目904A)をディスプレイ上に表示する(1002)。いくつかの実施形態によれば、第1の視覚的メディア項目の関連コンテンツの表現は、非時系列的に配列される。いくつかの実施形態によれば、デバイスは、第1の視覚的メディア項目を表示している間、第1の方向における動きを含む第5のユーザ入力(例えば、図9Aに描写するように、904Aにおける垂直スワイプ又は上方向へのスワイプ)を受け取る。第5のユーザ入力を受け取ったことに応答して、デバイスは、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大された(例えば、図9Iにおいてズームされたメディア項目936A)との判定にしたがって、(例えば、図9Iに図示するように)詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがって、(例えば、図9Iに図示されるように)ディスプレイ上で第1の視覚的メディア項目を移動させ(例えば、スワイプが上方向である場合には上方向へ移動させ)、第1の視覚的メディア項目(例えば、図9Jのズーム解除されたメディア項目938A)が、あらかじめ決定されたしきい値を超えて拡大されていないとの判定にしたがって、第5のユーザ入力にしたがって、(例えば、図9Jに図示されるように)ディスプレイ上で第1の視覚的メディア項目を移動させ、詳細ユーザインタフェース(例えば、図9Jにおける詳細ユーザインタフェース941)をディスプレイ上に表示する。いくつかの例では、第1の方向における動きを含む後続の入力が検出された場合、デバイスは、後続するユーザ入力にしたがって、ディスプレイ上で、第1の視覚的メディア項目を移動させ、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大された場合でさえも、詳細ユーザインタフェースを表示する。いくつかの実施形態によれば、第1の視覚的メディア項目は、画像又はビデオである。これにより、デバイス(例えば、デバイス900)は、メディア項目が、あらかじめ決定されたしきい値を超えて拡大されていない場合、メディア項目のための詳細ユーザインタフェースを表示するが、あらかじめ決定されたしきい値を超えて拡大されている場合、詳細ユーザインタフェースを表示しないことによって、ズームされた写真のパニングに対応するユーザ動作が、元へ戻すための追加のユーザ入力を要求する詳細ユーザインタフェースを誤って表示させることを回避し、デバイスリソース及びユーザ時間を節約する。
第1の視覚的メディア項目(例えば、図9Dのメディア項目916)を表示している間、デバイスは、それぞれの方向における動きを含むユーザ入力を受け取る(1004)。いくつかの実施形態によれば、それぞれの方向における動きを含むユーザ入力は、第1のユーザ入力であり、デバイスは、第1の視覚的メディア項目を表示している間、それぞれの方向における動きを含む第2のユーザ入力を受け取り(1012)、第2のユーザ入力が、第1の方向(例えば、上方向へのスワイプ)とは異なる第2の方向におけるスワイプジェスチャ(例えば、図9D及び図9Eに描写された左から右へのスワイプ)に対応するか否かを判定し(1012)、ユーザ入力が第2の方向におけるスワイプジェスチャ(例えば、水平スワイプ)に対応するとの判定にしたがって、第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目(例えば、図9Eのメディア項目918)の表示と置き換える(1012)。いくつかの例では、第1の視覚的メディア項目は、メディア項目のシーケンスをナビゲートするためのスクラバ(例えば、図9Eのスクラビングアフォーダンス920)とともに表示される。これにより、デバイス(例えば、デバイス900)は、メディア項目の表示におけるスワイプジェスチャでアクセスされるメディア項目のための詳細ユーザインタフェースを表示することによって、ユーザが、関連するメディア項目をマニュアルで決定し検索する必要なく、ユーザが、関連するコンテキスト関連コンテンツを、関連するコンテンツを提示するために最適化された形式で、迅速に見ることを可能にし、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第1の詳細ユーザインタフェース(例えば、図9Cの詳細ユーザインタフェース906)である。いくつかの実施形態によれば、デバイスは、第2の視覚的メディア項目(例えば、図9Eのワンアップビュー914Cにおけるメディア項目918)を表示している間、それぞれの方向における動きを含む第2のユーザ入力(例えば、図9Eにおいて描写される上方向へのスワイプ)を受け取り(1014)、第2のユーザ入力が、第1の方向におけるスワイプジェスチャ(例えば、垂直スワイプ)に対応するか否かを判定し、このユーザ入力が、第1の方向におけるスワイプジェスチャに対応するとの判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目の関連コンテンツ(例えば、領域928における関連する思い出、図9Fの領域924において識別された人物)を備えた第2の詳細ユーザインタフェース(例えば、図9Fの詳細ユーザインタフェース922)をディスプレイ上に表示し(1014)、第2の視覚的メディア項目の関連コンテンツは、第1のメディア項目の関連コンテンツとは異なる。いくつかの例では、第2の視覚的メディア項目の関連コンテンツは、第3のカテゴリによって体系化された(例えば、コンテンツの時間によって体系化された)関連コンテンツの1つ以上の表現と、第4のカテゴリによって体系化された(例えば、コンテンツ内で識別された人物によって体系化された、コンテンツの位置によって体系化された)関連コンテンツの1つ以上の表現とを含む。いくつかの例では、第3のカテゴリは、第4のカテゴリとは異なる(例えば、図9Fでは、カテゴリは、人物、場所、関連する思い出である)。いくつかの例では、第2の視覚的メディアの関連コンテンツは、第1のメディア項目の関連コンテンツとは異なる。いくつかの例では、第2の視覚的メディア項目の詳細ユーザインタフェース(例えば、図9Fのメディア項目詳細インタフェース922)は、方法700を参照して説明された第1のコレクションの詳細ユーザインタフェース(例えば、詳細ユーザインタフェース906)に関して本明細書で説明されたものと同じセクションのうちの1つ以上を有するが、第2の視覚的メディア項目に基づいて選択された顔、関連する思い出、位置、及び/又は、キーメディア項目を伴う。これにより、デバイス(例えば、デバイス900)は、スワイプジェスチャに応答して第1のメディア項目の表示から、第2のメディア項目を表示することによって、ユーザが、他のメディア項目に迅速にアクセスし、これらメディア項目の異なる関連及びコンテキスト関連コンテンツを見ることを可能にし、さもなければ複数のメディア項目のおのおのの異なるコンテキスト関連コンテンツにアクセスする必要のある過度なユーザ入力の数を低減し、これにより、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、デバイスは、第1の視覚的メディア項目(例えば、図9Gのメディア項目930A)を表示している間、それぞれの方向(例えば、下方向)における動きを含む第3のユーザ入力(例えば、図9Gに例示されるような下方向へのスワイプ)を受け取り、第3のユーザ入力が、第1の方向(例えば、上方向)及び第2の方向(例えば、右から左)とは異なる第3の方向におけるスワイプジェスチャに対応するか否かを判定し、第3のユーザ入力が第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイ上に表示する(例えば、シーケンスにおけるメディア項目の縮小バージョンを含む図9Gに図示されるような、メディアブラウジングインタフェース632を表示する)。これにより、デバイス(例えば、デバイス900)は、スワイプに応答してメディア項目のシーケンスのメディア項目の縮小バージョンを表示することによって、メディア項目のワンアップ表示と、縮小スケール表示との間の迅速なナビゲーションを可能にし、ユーザによる促進されたナビゲーションを可能にし、これにより、ディスプレイが使用される時間を短縮し、デバイスリソースを節約する。
いくつかの実施形態によれば、視覚的メディア項目のシーケンスの(例えば、図9Aのメディアブラウジングインタフェース902で表現された)メディア項目の縮小バージョンが、時系列的に配列される。いくつかの実施形態によれば、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの各視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される(例えば、図9Hのインタフェース932に描写されるように、モーメントとしてグループ化される)。いくつかの実施形態によれば、デバイスは、第2の視覚的メディア項目(例えば、メディア項目904)を表示している間、それぞれの方向における動きを含む第4のユーザ入力を受け取り、第4のユーザ入力が第3の方向におけるスワイプジェスチャ(例えば、図9G及び図9Hに描写されるようなスワイプダウン)に対応するか否かを判定し、このユーザ入力が第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、ディスプレイ上に、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンを表示する(例えば、図9G及び図9Hに描写されるようなメディアブラウジングインタフェース932を表示する)。
ユーザ入力を受け取ること(1006)に応答して、デバイスは、ユーザ入力が第1の方向におけるスワイプジェスチャ(例えば、図9A及び図9Bに例示されるような、ワンアップビュー904における上方向へのスワイプ)に対応するか否かを判定する(1008)。
ユーザ入力が第1の方向におけるスワイプジェスチャに対応するとの判定にしたがって、デバイスは、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目(例えば、図9Cのメディア項目904)の関連コンテンツ(例えば、人物、場所、思い出)を備えた詳細ユーザインタフェース(例えば、詳細ユーザインタフェース906)を、ディスプレイ上に表示し(1010)、第1の視覚的メディア項目の関連コンテンツは、第1のカテゴリ(例えば、人物、場所、関連する思い出)によって体系化された関連コンテンツの1つ以上の表現と、第2のカテゴリ(例えば、人物、場所、関連する思い出)によって体系化された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは、第2のカテゴリとは異なる。いくつかの例では、第1の視覚的メディア項目に関する詳細ユーザインタフェースは、方法700を参照して説明された第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明したものと同じセクションのうちの1つ以上を有するが、第1の視覚的メディア項目に基づいて選択された顔、関連する思い出、位置、及び/又は、キーメディア項目を伴う。いくつかの実施形態によれば、ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置において検出される。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第1のカテゴリ(例えば、人物の顔)によって体系化された関連コンテンツを含む第1の領域(例えば、図9Fにおける詳細ユーザインタフェース922の人物領域924)を含み、第1のカテゴリは、第1の視覚的メディア項目において識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含む。いくつかの実施形態によれば、デバイスは、識別された顔(図9Fの顔インジケータ924A)の選択に対応するユーザ入力を受け取り(1016)、識別された顔の選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションをディスプレイ上に表示し(1016)、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される。これにより、デバイス(例えば、デバイス900)は、メディア項目において、識別された顔に対応するインジケータを表示することによって、例えば、個々の画像を単に見るために写真のいくつかのコレクションをナビゲートするための多くの追加入力の必要なく、識別された顔を含むメディア項目のコレクションへの迅速なアクセスをユーザに提供し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第2のカテゴリによって体系化された関連コンテンツを含む第2の領域(例えば、図9Fの地図領域926)を含み、第2のカテゴリは位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む(1018)。
いくつかの実施形態によれば、デバイスは、第2の領域(例えば、図9Fの地図領域626)の選択に対応するユーザ入力を受け取り(1020)、第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置のビジュアル表現を含む地図ユーザインタフェース(例えば、図6Nの地図ユーザインタフェース660等)をディスプレイ上に表示する(1020)。いくつかの実施形態によれば、デバイスは、住所の選択(例えば、図9Lの住所948又は946)に対応するユーザ入力を受け取り、住所の選択に対応するユーザ入力に応答して、ディスプレイ上に、地図アプリケーションのユーザインタフェースを表示する。これにより、デバイス(例えば、デバイス900)は、メディア項目に対応する特定の住所を表示し、選択時に地図アプリケーションを表示することによって、多くの追加入力の必要なく、メディア項目に関する関連性の高い位置情報への迅速なアクセスをユーザに提供し、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、第3のカテゴリによって体系化された関連コンテンツを含む第3の領域(例えば、図9Fの関連思い出領域928)を含み、第3のカテゴリは、共通の特性のセットを共有する視覚的メディア項目のコレクションであり、第3の領域は、共通の特性のセットを共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有する。いくつかの実施形態によれば、デバイスは、視覚的メディア項目の第2のコレクションの表現の選択(例えば、図9Fにおける表現928Aの選択)に対応するユーザ入力を受け取り(1022)、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受け取ることに応答して、ディスプレイ上に、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現(例えば、図6Jに図示されるような思い出詳細ビューにおけるメディア項目のキュレートされたビュー)を表示する(1022)。いくつかの実施形態によれば、視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する(1024)。これにより、デバイス(例えば、デバイス900)は、メディア項目の詳細ユーザインタフェースの一部として、現在見られているメディア項目と特性を共有するメディア項目のコレクションの表現を表示することによって、ユーザの現在のブラウジングアクティビティに関連するメディアのコレクション、それ以外の場合には、ユーザによるアクセスのための多くの追加入力を必要とするコレクションへの迅速なアクセスをユーザへ提供し、これにより、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、第1の視覚的メディア項目の関連コンテンツを備えた詳細ユーザインタフェースを表示することは、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を、第1の方向にスクロールすること(1026)を備える(例えば、図9J〜図9Kは、上方向へスクロールする例示的な第1の視覚的メディア項目を描写する)。
いくつかの実施形態によれば、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を、第1の方向にスクロールすることは、表示されたままである第1の視覚的メディア項目の部分が、第1の視覚的メディア項目のあらかじめ決定された部分(例えば、図9Kにおける942C表示の部分)であるまで、表示された第1の視覚的メディア項目(例えば、図9J〜図9Kは、上方向へスクロールしている例示的な第1の視覚的メディア項目)を第1の方向にスクロールすること(1028)と、あらかじめ決定された部分が、表示された部分であるまでスクロールした後、第1の視覚的メディア項目のスクロールを停止し、第1のメディア項目のあらかじめ決定された部分が静止している間、詳細ユーザインタフェースを現すために、スクロールし続けること(1028)とを備える(例えば、詳細ユーザインタフェース942Aは、第1のスクロールポジションにおいて図示され、詳細ユーザインタフェース942Bは、第2のスクロールポジション942Bにおいて図示されているが、図9Kに図示されるように、942Aから942Bまでスクロールした後、942Cの部分は、静止したままである)。これにより、デバイス(例えば、デバイス900)は、詳細ユーザインタフェースを表示する場合、ディスプレイ上にメディア項目の部分を維持することによって、デバイスの現在の状態(例えば、現在、単一のメディア項目の関連情報をブラウズしていること)を示すインジケーションをユーザに提供し、現在どのメディア項目のための関連情報を見ているのかをも、ユーザへシグナルし、これにより、デバイスの現在の状態を判定するために、余分なユーザ入力を低減することによって、デバイスリソース及びユーザ時間を節約する。
いくつかの実施形態によれば、詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示される任意の視覚的メディア項目の表示において(例えば、図9A〜図9Lを参照して説明したような任意のワンアップビューの表示において)アクセス可能である。
方法1000(例えば、図10)に関して上述したプロセスの詳細はまた、後述及び上述された方法に類似した方式でも適用可能であることに留意されたい。例えば、方法700、方法1300、及び方法1600は、任意選択的に、方法1000を参照して上述した様々な方法の特性のうちの1つ以上を含む。例えば、例えば、メディア項目の詳細ユーザインタフェースは、方法700、方法1300、及び方法1600にしたがってアクセスされた任意のメディア項目の表示においてアクセスされ得る。簡潔のために、これら詳細は、以下で繰り返さない。
いくつかの実施形態によれば、図11は、様々な説明された実施形態の原理にしたがって構成された電子デバイス1100の例示的な機能ブロック図を図示する。いくつかの実施形態によれば、電子デバイス1100の機能ブロックは、上述した技術を実行するように構成されている。デバイス1100の機能ブロックは、任意選択的に、説明された様々な例の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって実施される。当業者であれば、図11において説明された機能ブロックは、任意選択的に、説明された様々な例の原理を実施するために、組み合わされるか、又はサブブロックへ分離されることが理解される。したがって、本明細書の説明は、任意選択的に、本明細書で説明された機能ブロックの任意の可能な組み合わせ又は分離又は更なる定義をサポートする。
図11に図示されるように、電子デバイス1100は、グラフィックユーザインタフェースを表示するように構成されたディスプレイユニット1102と、コンタクトを受け取るように構成されたタッチ感知面ユニット1104と、ディスプレイユニット1102及びタッチ感知面ユニット1104へ結合された処理ユニット1108とを含む。いくつかの実施形態では、処理ユニット1108は、表示有効化ユニット1110と、受取ユニット1112と、判定ユニット1114とを含む。
処理ユニット1108は、視覚的メディア項目のシーケンスの第1の視覚的メディア項目の、ディスプレイユニット1102上での表示を(例えば、表示有効化ユニット1110を用いて)有効化し、第1の視覚的メディア項目を表示している間、それぞれの方向における動きを含むユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、ユーザ入力を受け取ることに応答して、ユーザ入力が第1の方向におけるスワイプジェスチャに対応するか否かを(例えば、判定ユニット1114を用いて)判定し、ユーザ入力が第1の方向におけるスワイプジェスチャに対応するとの判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目の関連コンテンツを備えた詳細ユーザインタフェースの、ディスプレイユニット1102における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されており、第1の視覚的メディア項目の関連コンテンツは、第1のカテゴリによって体系化された関連コンテンツの1つ以上の表現と、第2のカテゴリによって体系化された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは、第2のカテゴリとは異なる。
いくつかの実施形態では、ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面ユニット1104上の位置において検出される。
いくつかの実施形態では、それぞれの方向における動きを含むユーザ入力は、第1のユーザ入力であり、処理ユニット1108は更に、第1の視覚的メディア項目を表示している間、それぞれの方向における動きを含む第2のユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第2のユーザ入力が、第1の方向とは異なる第2の方向におけるスワイプジェスチャに対応するか否かを(例えば、判定ユニット1114を用いて)判定し、ユーザ入力が第2の方向におけるスワイプジェスチャに対応するとの判定にしたがって、第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示と(例えば、表示有効化ユニット1110を用いて)置き換えるように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、処理ユニット1108は更に、第2の視覚的メディア項目を表示している間、それぞれの方向における動きを含む第2のユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第2のユーザ入力が、第1の方向におけるスワイプジェスチャに対応するか否かを(例えば、判定ユニット1114を用いて)判定し、ユーザ入力が、第1の方向におけるスワイプジェスチャに対応するとの判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目の関連コンテンツを備えた第2の詳細ユーザインタフェースの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されており、第2の視覚的メディア項目の関連コンテンツは、第1のメディア項目の関連コンテンツとは異なる。
いくつかの実施形態では、処理ユニット1108は更に、第1の視覚的メディア項目を表示している間、それぞれの方向における動きを含む第3のユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第3のユーザ入力が、第1及び第2の方向とは異なる第3の方向におけるスワイプジェスチャに対応するか否かを(例えば、判定ユニット1114を用いて)判定し、第3のユーザ入力が第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンが、時系列的に配列される。
いくつかの実施形態では、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンが、それぞれの各視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される。
いくつかの実施形態では、処理ユニット1108は更に、第2の視覚的メディア項目を表示している間、それぞれの方向における動きを含む第4のユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第4のユーザ入力が、第3の方向におけるスワイプジェスチャに対応するか否かを(例えば、判定ユニット1114を用いて)判定し、このユーザ入力が、第3の方向におけるスワイプジェスチャに対応するとの判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、第1の視覚的メディア項目の関連コンテンツの表現は、非時系列的に配列される。
いくつかの実施形態では、処理ユニット1108は更に、第1の視覚的メディア項目を表示している間、第1の方向における動きを含む第5のユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第5のユーザ入力を受け取ることに応答して、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大されたとの判定にしたがって、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがって、第1の視覚的メディア項目を、ディスプレイユニット1102上で移動させ、第1の視覚的メディア項目が、あらかじめ決定されたしきい値を超えて拡大されていないとの判定にしたがって、第5のユーザ入力にしたがって、第1の視覚的メディア項目を、ディスプレイユニット1102上で移動させ、詳細ユーザインタフェースのディスプレイユニット1102上での表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、第1のカテゴリによって体系化された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目において識別される顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含み、処理ユニット1108は更に、識別された顔の選択に対応するユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、識別された顔の選択に対応するユーザ入力を受け取ることに応答して、メディア項目の第1のコレクションの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されており、メディア項目の第1のコレクションにおける各項目は、識別された顔を含むように選択される。
いくつかの実施形態では、詳細ユーザインタフェースは、第2のカテゴリによって体系化された関連コンテンツを含む第2の領域を含み、第2のカテゴリは位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む。
いくつかの実施形態では、処理ユニット1108は更に、第2の領域の選択に対応するユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置のビジュアル表現を含む地図ユーザインタフェースの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、処理ユニット1108は更に、住所の選択に対応するユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、住所の選択に対応するユーザ入力に応答して、地図アプリケーションのユーザインタフェースの、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、詳細ユーザインタフェースは、第3のカテゴリによって体系化された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、共通の特性のセットを共有する視覚的メディア項目のコレクションであり、第3の領域は、共通の特性のセットを共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、処理ユニット1108は更に、視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を(例えば、受取ユニット1112を用いて)受け取り、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受け取ることに応答して、視覚的メディア項目の第2のコレクションのメディア項目の表現の、ディスプレイユニット1102上における表示を(例えば、表示有効化ユニット1110を用いて)有効化するように構成されている。
いくつかの実施形態では、視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する。
いくつかの実施形態では、第1の視覚的メディア項目の関連コンテンツを備えた詳細ユーザインタフェースを表示することは、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を、第1の方向において(例えば、表示有効化ユニット1110を用いて)スクロールすることを備える。
いくつかの実施形態では、詳細ユーザインタフェースを現すために、表示された第1の視覚的メディア項目を、第1の方向にスクロールすることは、表示されたままである第1の視覚的メディア項目の部分が、第1の視覚的メディア項目のあらかじめ決定された部分であるまで、表示された第1の視覚的メディア項目を第1の方向に(例えば、表示有効化ユニット1110を用いて)スクロールすることと、あらかじめ決定された部分が、表示された部分であるまで、スクロールした後、第1の視覚的メディア項目のスクロールを(例えば、表示有効化ユニット1110を用いて)停止し、第1のメディア項目のあらかじめ決定された部分が静止している間、詳細ユーザインタフェースを現すために、(例えば、表示有効化ユニット1110を用いて)スクロールし続けることを備える。
いくつかの実施形態では、第1の視覚的メディア項目は、画像又はビデオである。
いくつかの実施形態では、詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示された任意の視覚的メディア項目の表示においてアクセス可能である。
図10を参照して上述した動作は、任意選択的に、図1A〜図1B又は図11に描写される構成要素によって実施される。例えば、表示動作1002、受取動作1004、及び判定動作1008は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170におけるイベントモニタ171は、タッチ感知式ディスプレイ112上のコンタクトを検出し、イベントディスパッチャモジュール174は、アプリケーション136−1へイベント情報を配信する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較しタッチ感知面上の第1の位置における第1のコンタクトが、ユーザインタフェース上のアフォーダンスの活性化のような、あらかじめ定義されたイベント又はサブイベントに対応するか否かを判定する。あらかじめ定義されたそれぞれのイベント又はサブイベントが検出された場合、イベント認識部180は、イベント又はサブイベントの検出に関連付けられたイベントハンドラ190を活性化する。イベントハンドラ190は、任意選択的に、アプリケーション内部状態192を更新するためにデータ更新部176又はオブジェクト更新部177を利用又は呼び出す。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって表示されるものを更新するために、それぞれのGUI更新部178にアクセスする。同様に、当業者に対して、他のプロセスが図1A〜図1Bに描写された構成要素に基づいてどのように実施され得るかが明らかになるであろう。
ソーシャルグループ
図12A〜図12Kは、いくつかの実施形態にしたがって、メディア項目内のソーシャルグループを見るための例示的なユーザインタフェースを例示する。これら図面におけるユーザインタフェースは、図13A〜図13Dにおけるプロセスを含む、後述されるプロセスを例示するために使用される。
図12Aは、デバイス1200上に表示されたソーシャルグループを示すインジケーションを含む例示的な思い出詳細ビュー1202を例示する。いくつかの実施形態では、デバイス1200は、デバイス100、デバイス300、デバイス500、又はデバイス600の特徴のうちのいくつか又は全てを含む。この例では、ユーザは、ソーシャルグループ(例えば、人物のグループ、識別された顔のグループ)の思い出詳細ビューにアクセスすることができる。
いくつかの実施形態によれば、デバイス1200は、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを表示する。例えば、例示的な第1の詳細ユーザインタフェースである思い出詳細ビュー1202は、キュレートされたビュー(第1の視覚的メディアの例示的表現)におけるメディア項目の対応するコレクションからの写真を描写する写真領域1202Aを含む。思い出詳細ビュー1202は、図6A〜図6Rを参照して上述した2019年7月4日に対応する思い出を描写する。この例では、思い出詳細ユーザインタフェースは、例示的な第1のイベント、すなわち2019年7月4日の公園での家族パーティに対応する視覚的メディアの表現を含む。
いくつかの実施形態によれば、デバイス1200は、1つ以上の視覚的メディア項目に関連付けられたコンテキスト情報に基づいてイベントを判定する。いくつかの実施形態では、イベントを判定するために使用されるコンテキスト情報は、視覚的メディア項目がイメージングデバイスによってキャプチャされた位置と、視覚的メディア項目がイメージングデバイスによってキャプチャされた時間とのうちの1つ以上を含む。いくつかの実施形態では、イベントを判定するために使用されるコンテキスト情報は、1つ以上の視覚的メディア項目(例えば、キーワード、タグ)、Exifデータ等に関連付けられたメタデータに基づいて判定される。いくつかの実施形態では、デバイス1200は、仮想カレンダデータに基づいてイベントを判定する。いくつかの実施形態では、仮想カレンダデータは、ユーザが指定した仮想カレンダエントリ(例えば、スケジュールされた誕生日、休暇、会議等)、自動生成された仮想カレンダエントリ(例えば、ユーザが、仮想招待状又は会議出席依頼を受諾し、仮想カレンダにエントリが自動的に作成された)、及び休日(例えば、スケジュールされた国又は州の休日)のうちの1つ以上を含む。いくつかの実施形態では、デバイス1200は、複数の個人が、複数の関連写真に現れることを検出することに基づいてイベントを判定する。
いくつかの実施形態によれば、第1の詳細ユーザインタフェースを表示している間、デバイス1200は、第1のイベントに出席したとして識別された複数の個人に対応するアフォーダンスを表示する。例えば、図12Aの例示的な思い出詳細ユーザインタフェース1202において、デバイス1200は、ソーシャルグループインジケータ1203Aを表示する。ソーシャルグループインジケータ1203Aは、第1のイベントに出席した(この例では、インタフェースにおいて、「パット及び他の3人」として識別された)複数の個人に対応する。例えば、この例では、思い出は、2019年7月4日におけるイベントに対応するメディア項目を含む。したがって、ソーシャルグループインジケータ1203Aに対応する複数の個人(例えば、パット及び他の3人)は、2019年7月4日におけるイベントに出席したものとして識別される。例えば、複数の個人であるパット及び他の3人は、以前に述べたように、ユーザの4人のいとこに対応し得る。
図12Bは、例示的なソーシャルグループ詳細ユーザインタフェースを例示する。いくつかの実施形態によれば、第1の詳細ユーザインタフェースを表示している間、デバイス1200は、アフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第2の視覚的メディア(例えば、第2のイベントに対応する写真及びビデオのコレクション)の表現(例えば、詳細ユーザインタフェース)を含む第2の詳細ユーザインタフェースを表示する。例えば、ソーシャルグループインジケータ1203Aの選択を受け取ることに応答して、デバイス1200は、図12Bに図示されるように例示的なソーシャルグループ詳細インタフェース1204を表示する。ソーシャルグループ詳細インタフェース1204は、第2の視覚的メディアの表現(例えば、ボックスとして描写された写真領域内の縮小スケール表現)及びインジケータ1204A〜1204Bを含む。
図12Cは、図12Bのソーシャルグループ詳細インタフェース1204の拡大バージョンを描写する。ソーシャルグループ詳細ユーザインタフェース1206は、(例えば、メディア項目1208A〜1208Cを含む)写真領域1208、(顔インジケータ1210A〜1210Dを含む)人物領域1210、(例えば、関連思い出表現1212Aを含む)関連思い出領域1212、及び思い出への追加アフォーダンス1214を含む。
いくつかの実施形態によれば、第2の視覚的メディアは、複数の個人によって出席されているとして識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人によって出席されているとして識別された第3のイベントに対応する第2の複数のメディア項目とを含む。いくつかの実施形態では、第2のイベントと第3のイベントとは異なる。例えば、例示的なソーシャルグループ詳細インタフェース1206は、対応する思い出に含まれるメディア項目の表現1208A〜1208Cを含む。この例では、1208Aによって表現されるメディア項目は、ソーシャルグループの4人全て(例えば、パット、ビル、ジョージ、及びサム)を描写し、イベント1に対応し、1208Bによって表現されるメディア項目は、ソーシャルグループの個人のうちの3人(例えば、パット、ビル、及びジョージであって、サムではない)を描写し、イベント2に対応し、1208Cによって表現されるメディア項目は、ソーシャルグループの個人のうちの2人(例えば、パット及びビルであって、ジョージ及びサムではない)を描写し、イベント3に対応し、イベント1、2、及び3は異なる。例えば、イベント1は、2019年7月4日における家族パーティであり、イベント2は、2014年9月6日におけるユーザの結婚式の日であり、イベント3は、2019年5月4日における誕生パーティである。これにより、イベントはそれぞれ異なる。
いくつかの実施形態によれば、ソーシャルグループインジケータの表示は、関係データに基づいて決定される。例えば、デバイス1200は、既知の家族メンバのソーシャルグループインジケータを提示することを優先付けることができる(例えば、表示するソーシャルグループインジケータを決定する場合に、より高い重みを与える)。すなわち、ユーザは、ユーザとその家族(例えば、配偶者、子供、母親、父親等)からなるソーシャルグループを見ることを望む可能性がより高い。そのような関係は、任意選択的に、デバイス1200へ提供される(例えば、ユーザは、家族メンバとして、識別された顔を選択する)。
いくつかの実施形態によれば、関係データは、デバイス1200に関連付けられたメディアから推論される。例えば、3人が、写真の大部分において一緒に現れるのであれば、デバイス1200は、任意選択的に、3人に対応するソーシャルグループインジケータの提示を優先付ける。すなわち、3人はユーザと密接な関係を有する可能性が高く、これにより、ユーザはこれら個人のメディアを見たいと思う可能性が高い。
いくつかの実施形態によれば、ソーシャルグループインジケータの表示は、1つ以上の選択された属性に基づいて決定される。例えば、ユーザは、(識別された顔に対応する)人物を、お気に入りの人物として指定することができる。これにより、その人物を含むソーシャルグループのインジケータが、任意選択的に、優先付けられる。
ソーシャルグループのためのインジケータの表示を優先付けするための他の技術が考慮され、本開示の範囲内にあることが意図される。
いくつかの実施形態によれば、複数の個人の詳細ユーザインタフェースは、図6A〜図6Rにおけるユーザインタフェース、及び、図7の方法700を参照して説明された第1のコレクションの詳細ユーザインタフェースに関して本明細書で説明されたものと同じセクションの1つ以上を有するが、(例えば、ソーシャルグループにおける)複数の個人に基づいて選択された顔、関連する思い出、位置、及び/又は、キーメディア項目を伴う。
これにより、上述した例では、ユーザは、特定のグループの人物が参加したイベントに対応するメディア項目を見ることができる。例えば、上記の例を使用して、ユーザは、ユーザの4人全てのいとこが出席したイベントの写真を見ることを希望し得る。通常、そのような写真は、ユーザのライブラリ全体に分散され、離散的なイベントアルバムをナビゲートするために、過度な数のユーザ入力を必要とし、全ての写真を時系列的に見て、(例えば、4人のいとこによって出席されていないイベントの)望ましくない写真をスクロールする。一方、ユーザは、後の参照のために、自分たちのソーシャルサークル(例えば、家族、友人、同僚等)における個人の任意の及び全ての組み合わせについて、別々のアルバムを作成することができる。しかしながら、これは依然として、関連するメディア項目を発見し、それらを選択し、それらをアルバムに保存するために、ユーザが、自分の写真、アルバム等の全てをマニュアルでナビゲートすることを必要とする。更に、そのような方法は、ユーザがアルバムを継続的に維持しなければならない(例えば、新たな写真がユーザのフォトライブラリに追加されると、追加する)であろうから、煩雑である。
いくつかの実施形態によれば、複数の個人による特定のイベントの出席は、特定のイベントに対応する少なくとも1つのメディア項目内の複数の個人のうちの個人の顔を識別することに基づいて識別される。例えば、イベントにおける個人の出席は、任意選択的に、顔認識を使用して判定される。例えば、個人の顔がそのイベントに対応する写真のコレクションの写真において識別される場合、その人物は、そのイベントに出席したと識別される。
いくつかの実施形態によれば、複数の個人による特定のイベントの出席は、複数の個人に関連付けられた位置データに基づいて識別され、位置データは、複数の個人のうちの個人に対応するデバイスが、特定のイベントの時間において、特定のイベントの位置にあったとして識別するデータを含む。例えば、イベントにおける個人による出席は、その個人に関連付けられていることが知られているデバイス(例えば、スマートフォン)が、そのユーザが、イベントと同じ時間及び場所に存在したことを識別していることとを判定することによって判定され得る。例えば、ソーシャルグループ詳細インタフェース1206に関して上述した例では、ビルという名前の個人は、彼のスマートフォンがそのイベントにおいて存在したことを示す位置データに基づいて、イベント2に参加したと判定された。
いくつかの実施形態によれば、個人又は複数の個人に関連付けられた位置データは、(例えば、ユーザが、特定の時間において、その位置をポストする)ソーシャルメディア、(例えば、個人のデバイスが、Bluetooth、AirDrop、Wi−Fi、又は比較的近接していることを必要とする他の適切な接続の範囲内にあることを検出する)デバイス1200による近接検出等
のうちの1つ以上に基づいて決定される。
個人に関連付けられた位置データを決定するための他の技術も考慮され、本開示の範囲内にあることが意図される。
いくつかの実施形態によれば、第2の視覚的メディアは、複数の個人のうちの個人の全てよりも少数を描写する第1のメディア項目を含む。例えば、上述したように、ソーシャルグループ詳細インタフェースに含まれる各視覚的メディア項目は、複数の個人における全ての個人を描写する必要はない。この例では、いくつかの写真は、ユーザのいとこのうちの3人のみ(例えば、メディア項目1208B)、又は、ユーザのいとこのうちの2人のみ(例えば、メディア項目1208C)を含むことができる。いくつかの例では、第2の視覚的メディアは、複数の個人のうちのどの個人も描写しないメディア項目を含む。例えば、ソーシャルグループ詳細インタフェースのメディア項目のコレクションに含まれるメディア項目が、パリへの休暇であったイベントに対応する場合、このコレクションは、メディア項目のコレクションへコンテキストを提供するために、エッフェル塔の写真を含むことができる。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショーを備えた第1の領域を含む。いくつかの実施形態では、スライドショーとビデオとは異なる。例示的なスライドショーの特徴は、少なくとも図6Hを参照して上述され、その説明がここに組み込まれる。いくつかの実施形態によれば、デバイス1200は、スライドショーの選択に対応するユーザ入力を受け取り、それに応答して、第2の視覚的メディアのメディア項目を含むビデオを表示する。例えば、図12Bのソーシャルグループ詳細インタフェース1204において、キーメディア項目1204Cは、対応するコレクションからのメディア項目のスライドショーを表示し、選択されると、ビデオを再生する。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、第2の領域を含み、第2の領域は、第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む。例えば、第2の領域は、写真領域である。写真領域の特徴は、少なくとも図6J〜図6Lを参照して上述され、ソーシャルグループ詳細インタフェース内の写真領域にも適用可能である。したがって、上述した特徴のうちの1つ以上は、ソーシャルグループ詳細インタフェースの1つ以上の実施形態に含まれ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、第2の領域は更に、第1のアフォーダンスを備える。例えば、「全てを見る」アフォーダンス。デバイス1200は、第1のアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第2の視覚的メディアのメディア項目の拡張ビューを表示する。例えば、対応するコレクションの全ての写真が、ソーシャルグループ詳細インタフェースに表示される。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、地理的地図を備える第3の領域を含む。例えば、第3の領域は地図領域である。地図領域の特徴は、少なくとも図6J、図6N、及び図6Oを参照して上述され、ソーシャルグループ詳細インタフェースにおける地図領域にも適用可能である。したがって、上述した特徴のうちの1つ以上は、ソーシャルグループ詳細インタフェースの1つ以上の実施形態に含まれ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、デバイス1200は、第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する地理的地図上に位置インジケータを表示する。例えば、デバイス1200は、地理的地図上におけるインジケータを使用して、写真の位置を表示する。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、共通の特性のセットを共有する視覚的メディア項目の第1のコレクションの表現を備えた第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有する。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、共通の特性のセットを共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有する。例えば、第4の領域は、関連思い出領域である。関連思い出領域の特徴は、少なくとも図6J、図6Q、及び図6Rを参照して上述され、ソーシャルグループ詳細インタフェースにおける写真領域にも適用可能である。したがって、上述された特徴のうちの1つ以上は、ソーシャルグループ詳細インタフェースの1つ以上の実施形態に含められ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、デバイス1200は、視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受け取り、それに応答して、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現を表示する。例えば、デバイス1200は、関連する思い出における写真のキュレートされたビューを含む、関連する思い出のための思い出詳細インタフェースを表示する。
いくつかの実施形態によれば、視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する。例えば、関連する思い出は、任意選択的に、(例えば、現在のソーシャルグループに対応する)現在の思い出の写真のいずれも含まない。例えば、関連する思い出は、(例えば、現在、思い出として表示されている)ソーシャルグループとメディア項目を共有しないが、いくつかのコンテキスト属性及び/又は特性に基づいて関連する。
いくつかの実施形態によれば、第2の詳細ユーザインタフェースを表示している間、デバイス1200は、複数のアフォーダンスを含む第5の領域を表示する。例えば、第5の領域は、人物領域である。人物領域の特徴は、少なくとも図6J及び図6Pを参照して上述されており、ソーシャルグループ詳細インタフェースにおける人物領域にも適用可能である。したがって、上述した特徴のうちの1つ以上は、ソーシャルグループ詳細インタフェースの1つ以上の実施形態に含まれ得、したがって、上記の説明がここに組み込まれる。
いくつかの実施形態によれば、複数のアフォーダンスのうちの各アフォーダンスは、複数の個人のうちの、1人の異なる個人に対応する。
いくつかの実施形態によれば、デバイス1200は、第5の領域における複数のアフォーダンスのうち、第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースを表示する。例えば、図12Dのソーシャルグループ詳細ユーザインタフェース1216は、複数のアフォーダンスを含む人物領域を含む。特に、インタフェース1216は、複数の個人(例えば、パット、ビル、ジョージ、及びサム)における各個人のためのアフォーダンスを含む。図12Dに描写される例では、デバイス1200は、顔インジケータ1216Aの選択を受け取り、それに応答して(例えば、図6Pの人物詳細インタフェース668に類似した特徴を有する)人物詳細ユーザインタフェース1218を表示する。拡大された例示的な人物詳細インタフェース1220、及び(例えば、現在の思い出ビューに関連付けられた個人を識別する)個人識別子1220A、キーメディア項目1220B、写真領域1222、人物領域1224、地図領域1226、お気に入りのアフォーダンス1228、追加写真確認アフォーダンス1230、関連思い出領域1232、思い出への追加アフォーダンス1234が図12Fに図示される。
いくつかの実施形態によれば、第3の視覚的メディアは、第3の複数のメディア項目を含み、第3の複数のメディア項目のおのおのは、第1の個人を描写しているとして識別される。例えば、メディア項目1218B〜1218Dのおのおのは、個人を描写する。前述したように、人物詳細インタフェースは、対応する個人を描写するメディア項目のみを含むことができる。
いくつかの実施形態によれば、第3の複数のメディア項目は、第1の個人によって出席されたとして識別された第4のイベントに対応するメディア項目を備え、第2のイベント、第3のイベント、及び第4のイベントは異なる。例えば、第1の個人の写真は、図12Bのソーシャルグループ詳細インタフェース1206に対応する思い出に含まれていないイベントからのものである。例えば、人物詳細ユーザインタフェース1218に関連付けられた個人は、複数の個人のうちの他の3人の個人(ビル、ジョージ、及びサム)によって参加されなかったイベント(例えば、例示的な第4のイベント)からの写真に描写される。これにより、この第4のイベントの写真は、ソーシャルグループの思い出ビューには含まれていなかったが、個人の思い出詳細ビューに含まれている。
いくつかの実施形態によれば、デバイス1200は、第5の領域をスクロールする要求に対応するユーザ入力を受け取り、第5の領域をスクロールする要求に対応するユーザ入力を受け取ることに応答して、第5の領域が変化しない間、第5の領域に含まれる複数のアフォーダンスをスクロールする。例えば、図12Eにおいて、デバイス1200は、人物領域上で右から左への方向のスワイプジェスチャを受け取る。それに応答して、人物領域は、右から左にスクロールした。
いくつかの実施形態によれば、複数のアフォーダンスをスクロールすると、以前に表示されていないアフォーダンスが第5の領域に表示され、以前に表示されていないアフォーダンスは、複数の個人に含まれていない第2の個人に対応する。例えば、図6Eの顔インジケータ1216Bは、(例えば、「ティム」という名前の)ユーザ入力が受け取られる前に表示されず、複数の個人の一部ではない個人に対応する。例えば、図12Dにおけるソーシャルグループ詳細ビュー1216の表示において、人物領域がスクロールされる前に、ティムのアフォーダンスはない。
いくつかの実施形態によれば、第3の詳細ユーザインタフェースを表示している間、デバイス1200は、第2のアフォーダンスを表示する。例えば、図12Gに図示される人物詳細インタフェース1236では、デバイス1200は、追加写真確認アフォーダンス1236Aの選択を受け取る。それに応答して、デバイス1200は、図12Gに図示されるように、顔確認インタフェース1238を表示する。デバイス1200は、第2のアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第1の個人を潜在的に描写するものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースを表示し、候補視覚的メディア項目は、第3の視覚的メディアに含まれない(例えば、写真は、人物の思い出に表示された写真のうちの1つではない)。例えば、追加写真確認アフォーダンス1236Aの選択に応答して、デバイス1200は、例示的な個人確認ユーザインタフェース1238(顔確認インタフェース1238とも称される)を表示する。個人確認ユーザインタフェース1238は、領域1238Cに、複数(例えば、9つ)のメディア項目の表示を含む。複数のメディア項目1238Cのおのおのは、メディア項目から識別された顔を描写し、識別された顔は、思い出詳細ビューが以前に表示された個人に潜在的に一致する。この例では、デバイス1200は、複数のメディア項目がパットという個人を描写しているか否かを確認するようにユーザに促している。個人確認ユーザインタフェース1238はまた、取消アフォーダンス1238A及び完了済アフォーダンス1238Bを描写する。
いくつかの実施形態によれば、デバイス1200は、個人確認ユーザインタフェースにおいて第1の個人を潜在的に描写するものとして識別された単一の候補視覚的メディア項目を表示する。
いくつかの実施形態によれば、デバイス1200は、個人確認ユーザインタフェースに関連付けられたユーザ入力を受け取り、それに応答して、個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力又は拒否入力を表現するかを判定する。例えば、デバイス1200は、ユーザ入力が、パットを描写するとして表示された複数のメディア項目の確認又は拒否のアフォーダンス1238Eの選択に対応するかを判定する。
いくつかの実施形態によれば、個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力を表現するとの判定にしたがって、デバイス1200は、候補メディア項目を、第1の個人に関連付ける。例えば、デバイス1200は、人物の思い出に含まれるメディア項目のコレクションにメディア項目を含めるか、又は、そうではない場合、候補メディア項目を、個人と(例えば、それらのプロフィールと)関連付ける。
いくつかの実施形態によれば、デバイス1200は、候補メディア項目において検出された顔の顔パターンと一致する顔が、第1の個人にも関連付けられていることを確認する。例えば、デバイス1200は、確認された候補メディア項目を使用して、他のメディア項目をチェックする。
いくつかの実施形態によれば、個人確認ユーザインタフェースに関連付けられたユーザ入力が拒否入力を表現するとの判定にしたがって、デバイス1200は、候補メディア項目を、第1の個人に関連付けることを見合わせる。例えば、デバイス1200は、確認された写真を、デバイスメモリ内の人物のプロフィールに関連付けない。
図12Hは、識別された顔のコンテキストメニューを描写する。いくつかの実施形態によれば、複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面上で検出された第1の特性強度を有する接触ユーザ入力である。例えば、図12Hに描写されるアフォーダンス1240Aにおける接触は、タッチ感知面(例えば、ディスプレイ)によって検出される特性強度を有する。
いくつかの実施形態によれば、デバイス1200は、ユーザ入力の第1の特性強度を判定し、ユーザ入力が、強度依存基準を満たすとの判定にしたがって、コンテキストメニューユーザインタフェースを表示する。いくつかの実施形態では、強度依存基準は、強度依存基準が満たされるために、接触ユーザ入力の第1の特性強度が、強度しきい値を超えることを要求する。例えば、アフォーダンス1240A上の接触入力が強度依存基準を満たす強度しきい値を超える場合、デバイスは、コンテキストメニューインタフェース1242を表示する。
いくつかの実施形態によれば、コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを備える。リネームアフォーダンス1242Aは、例示的な第1のアフォーダンスである。デバイス1200は、第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースを表示する。例えば、デバイス1200は、図12Iに図示される命名インタフェース1246を表示する。
いくつかの実施形態によれば、名前編集ユーザインタフェースを表示している間、デバイス1200は、第1の個人の更新された名前を受け取り、それに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を、更新された名前に更新する。例えば、デバイス1200は、インタフェース1246の例示的なフィールド1246Aにおいて、新たな名前の入力を受け取り、(例えば、デバイスメモリ内の)パットという個人のプロフィールを、新たに受け取られた名前に更新することができる。
いくつかの実施形態によれば、デバイス1200は、提案された個人に対応するアフォーダンスを表示し、提案された個人は、デバイス1200にアクセス可能なコンタクトリスト内のコンタクトに対応する。例えば、デバイス1200は、名前を変更している場合、デバイス1200にアクセス可能なコンタクトとして保存された(例えば、デバイス1200上の電話アプリケーションに関連付けられた)個人に基づいて、ユーザへ提案1246Bを与えることができる。入力フィールドにおける文字「B」のユーザの入力に基づいて、ビルに対応している1つのそのような提案1246Cが、図12Iに図示されている。
いくつかの実施形態によれば、デバイス1200は、提案された個人に対応するアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を、提案された個人の名前に更新する。
いくつかの実施形態によれば、コンテキストメニューユーザインタフェースは、第3のコンテキストアフォーダンスを備える。失念アフォーダンス1242Bは、例示的な第3のアフォーダンスである。デバイス1200は、第3のコンテキストアフォーダンスの選択に対応するユーザ入力を受け取る。いくつかの実施形態では、デバイス1200は、識別された顔に関連付けられた名前を削除するか、又は、そうではない場合、顔を、個人のプロフィールと分離する。
いくつかの実施形態によれば、コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを備える。お気に入りへの追加アフォーダンス1242Cは、例示的な第2のアフォーダンスである。デバイス1200は、第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第1の個人の識別子を、選択された個人の識別子のリストに関連付ける。例えば、デバイス1200は、個人を、お気に入り人物リストに関連付ける(例えば、記憶する)。
いくつかの実施形態によれば、デバイス1200は、第3のアフォーダンス及び識別された個人の表現を含むユーザインタフェースを表示する。例えば、デバイス1200は、図12Iの人物アルバムインタフェース1244に例示されている、人物のアルバムを表示する。お気に入りのみ表示アフォーダンス1244Cは、例示的な第3のアフォーダンスである。いくつかの実施形態では、識別された個人の表現は、選択された個人のリストのうちの個人を含む。例えば、人物アルバムインタフェース1244は、他のユーザ(例えば、エリア1244Dにおけるお気に入りではないユーザ)と同様に、お気に入りユーザの表現(例えば、エリア1244Aにおける表現1244B)を含む。
いくつかの実施形態によれば、デバイス1200は、第3のアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、選択された個人の識別子のリストに関連付けられた識別子に対応しない個人の表現の表示を停止する。例えば、お気に入りのみ表示アフォーダンス1244Cの選択に応答して、デバイス1200は、お気に入りではない個人を表現する、エリア1244D内の表現の表示(描写せず)を停止する。
これまでの説明に基づいて明らかなように、思い出詳細ビュー(及び、他の詳細ビュー)は、1つ以上のメディア項目に関連する情報を体系化する非常に有用な手法である。いくつかの実施形態では、思い出の作成(又は、詳細ビューフォーマットでのメディア項目のコレクションの保存、又は、お気に入りへの追加、又は、ビュー)は、詳細ビューに対応するコレクションに含まれるメディア項目の新たなインスタンスを作成しない。むしろ、いくつかの例では、思い出は、メディア項目の記憶に依存せず、思い出のメディア項目のコレクションに含まれるメディア項目への1つ以上の参照を用いて作成/記憶される。いくつかの例では、メディア項目に関連付けられた情報は、メディア項目が思い出のメンバであることを示すために更新又は作成され得る。
いくつかの例では、ユーザは、他の手法で以前に保存されていない詳細ビューを、思い出として保存することができる。例えば、ユーザは、思い出/アルバム/写真/その他にナビゲートする必要なく、4人のいとこを含むソーシャルグループ詳細ビューを呼び出したいと思うことがあり得、それは、そのソーシャルグループに対応するインジケータを、人物領域に表示させる。
図12J及び図12Kは、詳細ビュー(詳細ユーザインタフェースとも称される)を、思い出として保存し、見る例示的な方法を例示する。いくつかの実施形態によれば、第2の詳細ユーザインタフェースは、第4のアフォーダンスを備える。例えば、ソーシャルグループ詳細インタフェース1248は、例示的な第4のアフォーダンスである、思い出への追加アフォーダンス1248Aを含む。デバイス1200は、第4のアフォーダンスの選択に対応するユーザ入力を受け取り、それに応答して、第2の詳細ユーザインタフェースを、ユーザによって保存された詳細ユーザインタフェースのセットに追加する。例えば、デバイス1200は、第2の視覚的メディアに関連付けられた識別子を(例えば、デバイスメモリ内に)格納する。
いくつかの実施形態によれば、デバイス1200は、第2の詳細ユーザインタフェースの表示を停止する。第2の詳細ユーザインタフェースの表示を停止することに続いて、デバイス1200は、第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受け取り、第2の詳細ユーザインタフェースを表示する。いくつかの例では、デバイス1200は、第2の視覚的メディアに関連付けられた記憶された識別子に部分的に基づいて、第2の詳細ユーザインタフェースを表示する。例えば、ソーシャルグループ詳細インタフェース1248を表示することに続いて、ユーザは、デバイス1200を、写真アプリケーションの思い出タブへナビゲートする。この例では、デバイス1200は、「パットと他の3人」のための思い出の表現1250Aを含み、これにより、複数の個人のメディア項目のコレクションに対応する思い出タイムライン1250を表示する。
図12Kは、複数の個人に対応するソーシャルグループ詳細インタフェース1252を描写する。これは、図12Jの表現1250Aの選択に応答して表示され、インジケータ1252Aを含む。
図13は、いくつかの実施形態による電子デバイスを用いて複数の個人に関連するメディアコンテンツを見るための方法を例示するフローチャートである。方法1300は、ディスプレイ及び、任意選択的に、タッチ感知面を有するデバイス(例えば、100、300、500)で実行される。方法1300のいくつかの動作は任意選択的に結合され、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。
後述するように、方法1300は複数の個人に関連するメディアコンテンツを見るための直観的な方法を提供する。方法は複数の個人に関連するメディアコンテンツを位置検出して、見るためのユーザの認識上の負担を減らし、それによって、より効率的なヒューマンマシンインタフェースを作り出す。バッテリー作動式のコンピューティングデバイスにとっては、ユーザがより迅速に、そして、より効率的に複数の個人に関連するメディアコンテンツを閲覧することができれば、電力を節減して、バッテリー充電の間の時間を増加させることになる。
デバイスは、ディスプレイに、第1のイベントに対応する第1の視覚的メディア(例えば、図12Aのキュレートされたビュー1202Aのメディア項目)の表現を含む第1の詳細ユーザインタフェース(例えば、図12Aの詳細ユーザインタフェース1202)を表示する(1302)。いくつかの例において、デバイスは、1つ以上の視覚的メディア項目と関連したコンテキスト情報に基づいて(例えば、図6D及び6Eにおいて列挙される例示的なコンテキストに基づいて)、イベントを判定する。いくつかの例において、イベントを判定するために用いるコンテキスト情報は、視覚的メディア項目が撮像デバイスによって捕えられる位置及び視覚的メディア項目が撮像デバイスによって捕えられる時間のうち1つ以上を含む。いくつかの例において、イベントを判定するために用いるコンテキスト情報は、1つ以上の視覚的メディア項目(例えば、キーワード、タグ)と関連したメタデータを含む。いくつかの例において、デバイスは、仮想カレンダデータに基づいてイベントを判定する。いくつかの例において、仮想カレンダデータは、ユーザ指定された仮想カレンダ入力(例えば、予定の誕生日、休暇、会議)、自動生成される仮想カレンダ入力及び休日のうち1つ以上を含む。いくつかの例において、デバイスは、複数の個人が複数の関連した写真に現れるのを検出することに基づいて、イベントを判定する。
第1の詳細ユーザインタフェース(1304)を表示すると共に、デバイスは、ディスプレイに、第1のイベントに参加したとして識別される複数の個人に対応するアフォーダンス(例えば、図12Aのインジケータ1203A)を表示して(1306)、アフォーダンスの選択に対応するユーザ入力を受信する(1308)。
いくつかの実施形態にしたがって、複数の個人による特定のイベントへの参加は、特定のイベントに対応する少なくとも1つのメディア項目の複数の個人の1人の個人の顔に基づいて(例えば、メディア項目614の2人の子供の顔の検出と同様に)、識別される(1312)。いくつかの実施形態にしたがって、複数の個人による特定のイベントへの参加は複数の個人と関連した位置データに基づいて識別されて(1314)、その場合位置データは、特定のイベントの時間に(例えば、図6Dのメモリ表現610Bに関して表されるように、ユーザが現在近くにいる人々の現行グループに基づいたコンテキストの判定と同様に)特定のイベントの位置にいた複数の個人の1人の個人に対応するデバイスを識別するデータを含む。
ユーザ入力を受信することに応答して、デバイスはディスプレイに、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェース(例えば、図12Bの詳細ユーザインタフェース1204)を(例えば、メモリ詳細インタフェース1204の写真領域において)表示し(1310)、ここで、第2の視覚的メディアは、複数の個人が参加したとして識別される第2のイベントに対応する第1の複数のメディア項目及び複数の個人が参加したとして識別される第3のイベントに対応する第2の複数のメディア項目を含み、そして、第2のイベント及び第3のイベントは異なるものである。いくつかの例において、複数の個人のための詳細ユーザインタフェースは、方法700に関して記載されている第1のコレクションの詳細ユーザインタフェースに関して本明細書において記載するのと同じセクションのうち1つ以上を有するが、複数の個人に基づいて選択される顔、関連したメモリ、位置及び/又は鍵となるメディア項目を伴う。したがって、デバイス(例えば、デバイス1200)は、複数の識別された個人が参加する複数のイベントに対応するメディア項目のコレクションのための詳細ユーザインタフェースを示すことによって、ユーザが選択的に、個人の選択グループが参加したイベントに対応するメディアを見ることを可能にし、そうでなければ参加を判定し及び/又は画像にアクセスするためにイベントのメディアコレクションを通して別に手動でナビゲートしているユーザによって必要とされるユーザ入力の数を減らし、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、第2の視覚的メディアは、複数の個人(1316)の全てよりは少ない個人を表す第1のメディア項目を含む。いくつかの実施形態にしたがって、第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショー(例えば、図12Bのスライドショー1204C)を含む、第1の領域を含む。いくつかの実施形態にしたがって、デバイスはスライドショーの選択に対応するユーザ入力を受信し、スライドショーの選択に対応するユーザ入力に応答して、第2の視覚的メディアのメディア項目を含むビデオ(例えば、図6Hのビデオ628に示されるようなもの)をディスプレイに表示し、ここでスライドショー及びビデオは異なるものである。いくつかの実施形態にしたがって、第2の詳細ユーザインタフェースは第2の領域(例えば、図12Cの写真領域1208)を含んで、ここで、第2の領域は第2の視覚的メディアのメディア項目のサブセット(例えば、図12Cのメディア項目1208A〜1208C)を含むキュレートされたビューを含む。いくつかの例において、写真セクションは、メモリの写真のディスプレイを含む。いくつかの例において、ディスプレイは、第2の視覚的メディアの写真及び/又はビデオのサブセットを含むキュレートされたビューである。いくつかの実施形態にしたがって、第2の領域は、第1のアフォーダンス(例えば、図12Cのshow allアフォーダンス1208D)を更に含む。いくつかの実施形態にしたがって、デバイスは、第1のアフォーダンスの選択に対応するユーザ入力を受信して、第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の視覚的メディアのメディア項目の拡張ビュー(例えば、図6Kの652に示されるようなもの)をディスプレイに表示する。したがって、デバイス(例えば、デバイス1200)は、メディア項目のサブセットを含むキュレートされたビューを表示することによって、ユーザがメディア項目の減じたセットを閲覧している際に、必要な追加の入力の数を減らし、それにより、そうでなければメディア項目のより大きいセットを見ることと関連した追加のユーザ入力を表示して受信することによって消費されるユーザ時間及びデバイスリソースを節減する。
デバイス(例えば、デバイス1200)は、両方ともコレクション(しかし、異なる)からのコンテンツを含むビデオ又はスライドショーを表示することによって、見る条件が最適化されているメディアの表現を可能とし、したがってユーザの注意をひいて、かつ手動でメディア項目を閲覧するための追加の入力の数を減らしそうである方法でディスプレイを用いることにより、関連したメディアを閲覧するときに効率的にディスプレイを使用して、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、第2の詳細ユーザインタフェース(例えば、図12Cの詳細ユーザインタフェース1206)は地理的マップを含む第3の領域(例えば、図12Fに示されるマップ領域1226などのマップ領域)を含み、詳細ユーザインタフェースを表示することは更に、ディスプレイに、第2の視覚的メディアの第2のメディア項目と関連した位置に対応する地理的マップ上の位置インジケータ(例えば、図12Gのメモリ詳細図1236上の位置インジケータ1236B)を表示することを含む。いくつかの実施形態にしたがって、第2の詳細ユーザインタフェースはセットの共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、ここで、視覚的メディア項目の第1のコレクションの視覚的メディア項目は第2の視覚的メディアの視覚的メディア項目と第1の特性を共有する。いくつかの実施形態にしたがって、デバイスは、視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信して、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、ディスプレイに、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現を表示する。いくつかの実施形態にしたがって、視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する。したがって、デバイス(例えば、デバイス1200)は、視覚的メディアのメディア項目に対応する位置インジケータを表示することによって、多数の追加の入力を必要とすることなく、ユーザに視覚的メディアのための関連した位置情報への速いアクセスを提供し、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、デバイスは、第2の詳細ユーザインタフェースを表示すると共に、複数の個人の単一の異なる個人にそれぞれ対応する複数のアフォーダンス(例えば、インジケータ1210A〜1210D)を含む第5の領域(例えば、図12Cの人々領域1210)をディスプレイに表示し(1318)、第5の領域の複数のアフォーダンスの1つのアフォーダンスの選択(例えば、図12Cのインジケータ1210Aの)に対応するユーザ入力を受信し(1318)、ここで、アフォーダンスは第1の個人(例えば、Pat)に対応しており、そして第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3の視覚的メディアの表現を(例えば、図12Fの写真領域1222に)含む第3の詳細ユーザインタフェース(例えば、図12Fの詳細ユーザインタフェース1220)をディスプレイに表示し(1318)、ここで、第3の視覚的メディアは第3の複数のメディア項目を含み、第3の複数のメディア項目のそれぞれは第1の個人(例えば、Pat)を表すとして識別され、第3の複数のメディア項目は第1の個人が参加したとして識別される第4のイベントに対応するメディア項目を含んでおり、第2のイベント、第3のイベント及び第4のイベントは異なるものである。したがって、デバイス(例えば、デバイス1200)は、第1のコレクションのメディア項目の識別された顔に対応するインジケータをコレクションに対する詳細ユーザインタフェースの一部として表示することによって、多数の追加の入力を必要とすることなく、例えば画像の全てをチェックして人の参加を判定するために、メディア項目のコレクションにおいて表される個人を識別している関連情報への迅速なアクセスをユーザに提供し、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、デバイスは第5の領域(例えば、図12Fの人々領域1224)をスクロールする要求に対応するユーザ入力を受信し(1320)、第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、第5の領域が静止しているままの間に第5の領域に含まれる複数のアフォーダンスをスクロールして(1320)、ここで、複数のアフォーダンスをスクロールすることにより、前に非表示であったアフォーダンス(例えば、図12Eの詳細ユーザインタフェース1216のアフォーダンス1216B)が第5の領域において表示させられ、前に非表示であったアフォーダンスは複数の個人の中に含まれていない第2の個人に対応する。
いくつかの実施形態にしたがって、デバイスは、第3の詳細ユーザインタフェースを表示すると共に、第2のアフォーダンス(例えば、図12Gのconfirm additional photosアフォーダンス1236A)をディスプレイに表示し(1322)、第2のアフォーダンスの選択に対応するユーザ入力を受信し(1322)、そして、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、潜在的に第1の個人を表すとして識別された候補視覚的メディア項目(例えば、図12Gの領域1238Cにおいて1〜9の番号をつけた写真)を含む個人確認ユーザインタフェース(例えば、図12Gのインタフェース1238)をディスプレイに表示し(1322)、ここで、候補視覚的メディア項目は第3の視覚的メディアに含まれない。
いくつかの実施形態にしたがって、デバイスは、個人確認ユーザインタフェースと関連したユーザ入力(例えば、図12Gの個人確認ユーザインタフェース1238のアフォーダンス1238E上のYESかNOの選択)を受信し、そして、個人確認ユーザインタフェースと関連したユーザ入力を受信することに応答して、個人確認ユーザインタフェースと関連したユーザ入力が確認入力又は否定入力を表すかどうか判定して、個人確認ユーザインタフェースと関連したユーザ入力が確認入力(例えば、図12Gのアフォーダンス1238EのYESの選択)を表すという判定にしたがって、候補メディア項目を第1の個人と関連させて、個人確認ユーザインタフェースと関連したユーザ入力が否定入力(例えば図12Gのアフォーダンス1238EのNOの選択)を表すという判定にしたがって、候補メディア項目を第1の個人と関連させることを控える。いくつかの実施形態にしたがって、複数のアフォーダンスからのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面上で検出される第1の特性強度を有するタッチユーザ入力である。いくつかの実施形態にしたがって、デバイスはユーザ入力の第1の特性強度を判定して(1324)、強度依存基準はタッチユーザ入力の第1の特性強度が満たされるべき強度依存基準のために強度閾値を超えることを必要とする場合に、ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェース(例えば、コンテキストのアフォーダンス1242A〜1242C)を表示する(1324)。デバイス(例えば、デバイス1200)は、強度依存基準に応答してコンテキストメニューを表示することによって、選択されたアフォーダンスとの可能な対話の数を増加させて、したがって、異なる動作を実行するのに必要な入力数を減らして、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、コンテキストメニューユーザインタフェースは、第1のコンテキストのアフォーダンス(例えば、図12Hのrenamingアフォーダンス1242A)を含む。いくつかの実施形態にしたがって、デバイスは第1のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信して(1326)、第1のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人(例えば、Pat)に対する識別子として使われる名前を編集するための名前編集ユーザインタフェース(例えば、図12Iのインタフェース1246)をディスプレイに表示し(1326)、名前編集ユーザインタフェースを表示している間に第1の個人の更新された名前(例えば、図12Iの「B」)を受信し(1326)、そして第1の個人の更新された名前を受信することに応答して、メモリに格納された第1の個人と関連した既存の名前を、更新された名前に更新する(1326)。
いくつかの実施形態にしたがって、デバイスは、提案された個人(例えば、図12Iの個人1246C)に対応するアフォーダンスをディスプレイに表示し(1328)、ここで、提案された個人はデバイスにアクセス可能な連絡先リストの連絡先に対応しており、提案された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信して(1328)、提案された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メモリに格納された第1の個人と関連した既存の名前を提案された個人の名前に更新する(1328)。
いくつかの実施形態にしたがって、コンテキストメニューユーザインタフェースは、第2のコンテキストのアフォーダンス(例えば、図12Hのお気に入りに追加(add to favorites)アフォーダンス1242C)を含む。いくつかの実施形態にしたがって、デバイスは、第2のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信し(1330)、第2のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子を(例えば、デバイスメモリの)選択された個人の識別子のリストと関連させて(1333)、第3のアフォーダンス(例えば、図12Iのお気に入りだけ表示(show favorites only)アフォーダンス1244C)及び識別された個人の表現を含むユーザインタフェース(例えば、図12Iの人々アルバム(people album)インタフェース1244)をディスプレイに表示し(1330)、ここで識別された個人の表現は選択された個人(例えば、お気に入りとされる個人)のリストの個人を含んでおり、そして、第3のアフォーダンスの選択に対応するユーザ入力を受信して(1330)、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、選択された個人の識別子のリストと関連した識別子に対応しない個人の表現の表示を中止する(1330)。
いくつかの実施形態にしたがって、第2の詳細ユーザインタフェースは、第4のアフォーダンス(例えば、図12Cの思い出への追加(add to memories)アフォーダンス1214)を含む。いくつかの実施形態にしたがって、デバイスは、第4のアフォーダンスの選択に対応するユーザ入力を受信して(1332)、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の詳細ユーザインタフェースをユーザ(例えば、ユーザによってお気に入りとされた)によって保存されたセットの詳細ユーザインタフェースに追加して(1332)、第2の詳細ユーザインタフェース(例えば、図12Cのインタフェース1206)の表示を中止し(1332)、そして第2の詳細ユーザインタフェースの表示を中止することの後に、第2の詳細ユーザインタフェースを(例えば、図12Jのメモリタイムラインインタフェース1250で)表示する要求に対応するユーザ入力を受信して、第2の詳細ユーザインタフェースを(例えば、図12Kの詳細ユーザインタフェース1252で)ディスプレイに表示する(1332)。
方法1300に関する上記のプロセスの詳細(例えば、図13)が類似した方法で後述及び上述の方法にも適用できることに注意されたい。例えば、方法700、1000及び1600は、方法1300に関して上述した様々な方法の特性の1つ以上を任意選択的に含む。例えば、例として複数の個人のための詳細ユーザインタフェースは、方法700、1000及び1600にしたがっていかなる詳細ユーザインタフェースのディスプレイでもアクセスすることができる。簡潔にするために、これらの詳細は以下では繰り返されない。
いくつかの実施形態にしたがって、図14は、様々な記載されている実施形態の原理にしたがって構成されている電子デバイス1400の例示的な機能ブロック図を示す。いくつかの実施形態にしたがって、電子デバイス1400の機能ブロックは、上記の技術を実行するように構成されている。デバイス1400の機能ブロックは、任意選択的に、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの組み合わせによって実装されて、様々な記載された例の原理を実施する。図14に記載されている機能ブロックが、任意選択的に、組み合わせるか又はサブブロックに分けて様々な記載された例の原理を実装することは、当業者によって理解される。したがって、本明細書における記述は、本明細書において記載されている機能ブロックの考えられるあらゆる組み合わせ又は分離又は更なる定義を任意選択的にサポートする。
図14に示すように、電子デバイス1400は、任意選択的に、グラフィックユーザインタフェースを表示するように構成されているディスプレイユニット1402、接触を受信するように構成されているタッチ感知面ユニット1404並びに、ディスプレイユニット1402及び任意選択的にタッチ感知面ユニット1404に連結された処理ユニット1408を含む。いくつかの実施形態では、処理ユニット1408は、表示有効化ユニット1410及び受信ユニット1412を含む。いくつかの実施形態では、処理ユニット1408は、判定ユニット1414、関連付けユニット1416、更新ユニット1418及び追加ユニット1420の1つ以上を任意選択的に含む。
処理ユニット1402は、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースの表示を有効にし、第1の詳細ユーザインタフェースを表示すると共に、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第1のイベントに参加したとして識別される複数の個人に対応するアフォーダンスの表示を有効にし、そして、(例えば、受信ユニット1412によって)アフォーダンスの選択に対応するユーザ入力を受信し、そして、ユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースの表示を有効にし、ここで、第2の視覚的メディアは、複数の個人が参加したとして識別される第2のイベントに対応する第1の複数のメディア項目及び複数の個人が参加したとして識別される第3のイベントに対応する第2の複数のメディア項目を含み、そして、ここで第2のイベント及び第3のイベントは異なるものであるように、構成されている。
いくつかの実施形態では、複数の個人による特定のイベントへの参加は、特定のイベントに対応する少なくとも1つのメディア項目の複数の個人の1人の個人の顔を識別することに基づいて識別される。
いくつかの実施形態では、複数の個人による特定のイベントへの参加は複数の個人と関連した位置データに基づいて識別されて、ここで、位置データは、特定のイベントのときに特定のイベントの位置にいた複数の個人の1人の個人に対応するデバイスを識別するデータを含む。
いくつかの実施形態では、第2の視覚的メディアは、複数の個人の全てよりは少ない個人を表す第1のメディア項目を含む。
いくつかの実施形態では、第2の詳細ユーザインタフェースは第2の視覚的メディアのメディア項目を含むスライドショーを含む第1の領域を含み、そして処理ユニット1408は、(例えば、受信ユニット1412によって)スライドショーの選択に対応するユーザ入力を受信し、スライドショーの選択に対応するユーザ入力に応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の視覚的メディアのメディア項目を含むビデオの表示を有効にし、ここで、スライドショー及びビデオは異なるものであるように、更に構成されている。
いくつかの実施形態では、第2の詳細ユーザインタフェースは第2の領域を含み、第2の領域は第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む。
いくつかの実施形態では、第2の領域は第1のアフォーダンスを更に含み、処理ユニット1408は、(例えば、受信ユニット1412によって)第1のアフォーダンスの選択に対応するユーザ入力を受信し、そして、第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の視覚的メディアのメディア項目の拡張ビューの表示を有効にするように、更に構成されている。
いくつかの実施形態では、第2の詳細ユーザインタフェースは地理的マップを含む第3の領域を含み、そして、詳細ユーザインタフェースを表示することは、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の視覚的メディアの第2のメディア項目と関連した位置に対応する地理的マップ上の位置インジケータの表示を有効にすることを、更に含む。
いくつかの実施形態では、第2の詳細ユーザインタフェースは、セットの共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は第1の特性を第2の視覚的メディアの視覚的メディア項目と共有して、そして、処理ユニット1408は、(例えば、受信ユニット1412によって)視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信し、そして、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現の表示を有効にするように、更に構成されている。
いくつかの実施形態では、視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する。
いくつかの実施形態では、処理ユニット1408は、第2の詳細ユーザインタフェースを表示すると共に、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、複数の個人の単一の異なる個人にそれぞれ対応する複数のアフォーダンスを含む第5の領域の表示を有効にし、(例えば、受信ユニット1412によって)第5の領域の複数のアフォーダンスからのアフォーダンスの選択に対応するユーザ入力を受信し、ここで、アフォーダンスは第1の個人に対応するものであり、そして、第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースの表示を有効にし、ここで、第3の視覚的メディアは第3の複数のメディア項目を含んでおり、ここで、第3の複数のメディア項目のそれぞれは第1の個人を表すとして識別され、ここで、第3の複数のメディア項目は第1の個人が参加したとして識別される第4のイベントに対応するメディア項目を含み、そしてここで、第2のイベント、第3のイベント及び第4のイベントは異なるものであるように、更に構成されている。
いくつかの実施形態では、処理ユニット1408は、(例えば、受信ユニット1412によって)第5の領域をスクロールする要求に対応するユーザ入力を受信し、第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第5の領域が静止しているままの一方で、第5の領域に含まれる複数のアフォーダンスをスクロールし、ここで、複数のアフォーダンスをスクロールすることが、前に非表示であったアフォーダンスを第5の領域において表示されるようにし、そしてここで、前に非表示であったアフォーダンスは複数の個人に含まれていない第2の個人に対応するように、更に構成されている。
いくつかの実施形態では、処理ユニット1408は、第3の詳細ユーザインタフェースを表示すると共に、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2のアフォーダンスの表示を有効にし、(例えば、受信ユニット1412によって)第2のアフォーダンスの選択に対応するユーザ入力を受信し、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第1の個人を潜在的に表すとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースの表示を有効にし、ここで、候補視覚的メディア項目は第3の視覚的メディアに含まれないように、更に構成されている。
いくつかの実施形態では、処理ユニット1408は、(例えば、受信ユニット1412によって)個人確認ユーザインタフェースと関連したユーザ入力を受信し、そして、個人確認ユーザインタフェースと関連したユーザ入力を受信することに応答して、(例えば、判定ユニット1414によって)個人確認ユーザインタフェースと関連したユーザ入力が確認入力か否定入力を表すかどうか判定し、個人確認ユーザインタフェースと関連したユーザ入力が確認入力を表すという判定にしたがって、(例えば、関連付けユニット1416によって)候補メディア項目を第1の個人と関連付け、そして、個人確認ユーザインタフェースと関連したユーザ入力が否定入力を表すという判定にしたがって、(例えば、関連付けユニット1416によって)候補メディア項目を第1の個人と関連させることを控えるように、更に構成されている。
いくつかの実施形態では、デバイスはディスプレイユニット1402及び処理ユニット1408に連結されたタッチ感知面ユニット1404を含み、複数のアフォーダンスからのアフォーダンスの選択に対応するユーザ入力はタッチ感知面ユニット上で検出される第1の特性強度を有するタッチユーザ入力であり、処理ユニット1408は、(例えば、判定ユニット1414によって)ユーザ入力の第1の特性強度を判定し、ユーザ入力が強度依存基準を満たすという判定にしたがって、ここで強度依存基準は強度依存基準が満たされるためにタッチユーザ入力の第1の特性強度が強度閾値を超えることを要求するものであるが、コンテキストメニューユーザインタフェースを表示するように、更に構成されている。
いくつかの実施形態では、コンテキストメニューユーザインタフェースは第1のコンテキストのアフォーダンスを含み、処理ユニット1408は、(例えば、受信ユニット1412によって)第1のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信し、第1のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第1の個人に対する識別子として使われる名前を編集するための名前編集ユーザインタフェースの表示を有効にし、名前編集ユーザインタフェースを表示すると共に、(例えば、受信ユニット1412によって)第1の個人の更新された名前を受信し、そして、第1の個人の更新された名前を受信することに応答して、(例えば、更新ユニット1418によって)メモリに格納される第1の個人と関連した既存の名前を更新された名前に更新するように、更に構成されている。
いくつかの実施形態では、処理ユニット1408は、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、提案された個人に対応するアフォーダンスの表示を有効にし、ここで、提案された個人はデバイスにアクセス可能な連絡先リストの連絡先に対応するものであり、(例えば、受信ユニット1412によって)提案された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信し、そして、提案された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、更新ユニット1418によって)メモリに格納される第1の個人と関連した既存の名前を提案された個人の名前に更新するように、更に構成されている。
いくつかの実施形態では、コンテキストメニューユーザインタフェースは第2のコンテキストのアフォーダンスを含み、処理ユニット1408は、(例えば、受信ユニット1412によって)第2のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信し、第2のコンテキストのアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、関連付けユニット1416によって)第1の個人の識別子を選択された個人の識別子のリストと関連させ、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースの表示を有効にし、ここで識別された個人の表現は選択された個人のリストの個人を含み、(例えば、受信ユニット1412によって)第3のアフォーダンスの選択に対応するユーザ入力を受信し、そして、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、選択された個人の識別子のリストと関連した識別子に対応しない個人の表現の表示を中止するように、更に構成されている。
いくつかの実施形態では、第2の詳細ユーザインタフェースは第4のアフォーダンスを含み、処理ユニット1408は、(例えば、受信ユニット1412によって)第4のアフォーダンスの選択に対応するユーザ入力を受信し、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、追加ユニット1420によって)第2の詳細ユーザインタフェースをユーザによって保存されるセットの詳細ユーザインタフェースに追加し、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の詳細ユーザインタフェースの表示を中止し、第2の詳細ユーザインタフェースの表示を中止することの後に、(例えば、受信ユニット1412によって)要求に対応するユーザ入力を受信して、第2の詳細ユーザインタフェースを表示し、そして、(例えば、表示有効化ユニット1410によって)ディスプレイユニット1402上で、第2の詳細ユーザインタフェースの表示を有効にするように、更に構成されている。
図13を参照して上記で説明する動作は、任意選択的に、図1A〜1B又は図14において表される構成要素によって実装される。例えば、表示動作1302及び受信動作1308は、任意選択的に、イベントソータ170、イベント認識部180及びイベントハンドラ190によって実装される。イベントソータ170のイベントモニタ171はタッチ感知式ディスプレイ112上の接触を検出して、イベントディスパッチャモジュール174はイベント情報をアプリケーション136−1に配信する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較して、タッチ感知面上の第1の位置の第1の接触が定義済みイベントかサブイベント(例えばユーザインタフェース上のアフォーダンスのアクティブ化)に対応するかどうか判定する。それぞれの定義済みイベント又はサブイベントが検出されると、イベント認識部180はイベント又はサブイベントの検出と関連したイベントハンドラ190を起動させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、任意選択的にデータ更新部176又はオブジェクト更新部177を利用するか又は呼び出す。いくつかの実施形態では、イベントハンドラ190はそれぞれのGUI更新部178にアクセスして、アプリケーションによって示されるものを更新する。同様に、他のプロセスが図1A〜1Bにおいて表される構成要素に基づいてどのように実施されることができるかは、当業者に明らかである。
自動生成されるメモリ
図15A〜15Eは、いくつかの実施形態による、コンテキスト上関連したメモリを取得するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図16A〜16Dのプロセスを含む後述するプロセスを説明するために用いる。
図15Aは、デバイス1500に表示される例示的なメモリタイムライン1502Aを示す。いくつかの実施形態では、デバイス1500は、上述のデバイス100、デバイス300、デバイス500又はデバイス600の特徴の一部若しくは全部を含む。メモリタイムライン1502Aは日付表示1504を含み、この例では現在の日付(例えば、4月25日、月曜日)を表す。メモリタイムライン1502Aは、それぞれ、1506A〜1506Cとラベルがついている3つのメモリの3つの表現も含む。
いくつかの実施形態にしたがって、デバイス1500は、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示する。例えば、表現1506A〜1506Cは、視覚的メディアの自動生成されるコレクション(例えば、メモリ)に対応する例示的なアフォーダンスである。いくつかの例において、視覚的メディアの自動生成されるコレクションは、写真アプリケーションが開かれたときに自動的に判定されるコレクションである。いくつかの例において、視覚的メディアの自動生成されるコレクションは、一日の早い時間に(例えば、ある予め定義された時間に、又は、デバイス上のユーザのアクティビティに基づいて)自動的に判定される。
いくつかの実施形態にしたがって、複数のアフォーダンスを表示すると共に、デバイス1500は第1のユーザ入力を受信する。例えば、図15Aのメモリタイムライン1502Aで、デバイス1500は、下方へのスワイプジェスチャに対応する入力を受信する。
いくつかの実施形態にしたがって、第1のユーザ入力を受信することに応答して、デバイス1500は視覚的メディアの複数のコレクションに以前に含まれなかった視覚的メディアの自動生成される第1のコレクション(第2のメモリ)を取得し、それは視覚的メディアの自動生成されるコレクションの各々のコレクションとは別である。いくつかの例において、メディア項目の自動生成されるコレクションを取得することは、メディア項目のコレクションを選択及び/又は生成することを含む。例えば、メモリタイムライン1502Bは、視覚的メディアの自動生成されるコレクションを取得すると共に、デバイス1500を表す。デバイス(例えば、デバイス1500)はユーザ入力に応答してメディア項目の自動生成されるコレクションを取得し、ユーザはコンテキスト上関連したコンテンツを取得するために過剰な数の入力を実行する必要がなく、デバイスリソース及びユーザ時間を節減する。
デバイス(例えば、デバイス1500)は、ユーザ入力に応答して自動生成されるコレクションメディア項目のメディア項目のサブセットを生成及び/又は選択することによって、コンテキスト上関連したメディアコレクションを、ユーザが特にそれを求めるときに要求に応じて生成することによって、デバイスリソースを節減し、そのことはそのコンテンツがユーザのニーズに多くあるいはより多く関連しそうなことを意味し、ユーザが所望しそうにない多数の提案されたコレクションを先に生成することと比較して、デバイスリソース及びユーザ時間を節減する。
図15Bは、ユーザ入力に応答して取得される新規なメモリ用のメモリタイルを表す。いくつかの実施形態にしたがって、第1のユーザ入力を受信することに更に応答して、デバイス1500は、ディスプレイに表示される複数のアフォーダンスに、視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加する。例えば、図15Bのメモリタイムライン1502Cは、ユーザ入力を受信した後でかつ視覚的メディアの自動生成される第1のコレクションが取得された後のメモリタイムラインを表す。この例では、メモリタイムライン1502Cは今表現1508A及び1508Bを含み、そのそれぞれは視覚的メディアの複数のコレクションに以前に含まれなかった視覚的メディアのコレクションに対応する。したがって、新規なメモリタイルが、ユーザ入力に応答して示され、それは新しく作製されたメモリに対応する。デバイス(例えば、デバイス1500)は、視覚的メディアの自動生成されるコレクションに対応するアフォーダンスを他のコンテキスト上関連したコレクションの表示に追加することによって、ユーザがコンテキストの関連性のために示されるメディア項目の多くの異なるコレクションに短時間でアクセスすることができ、ユーザが手動でメディアのこのようなコレクションに対して閲覧をするために必要な追加の入力の数を減らし、そして、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、デバイス1500は第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、それに応答して、デバイス1500は視覚的メディア(例えば、メモリ内の写真)の第2のコレクションの表現(例えば、キュレートされたビュー)を含む詳細ユーザインタフェースを表示する。例えば、表現1508Aの選択に応答して、デバイス1500は、図15Cのメモリ詳細ビュー1512を表示する。
いくつかの実施形態にしたがって、視覚的メディアの複数のコレクションに以前に含まれていなかった視覚的メディアの自動生成される第1のコレクションを取得するために、デバイス1500は、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成する。したがって、いくつかの例で、デバイス1500は、ユーザ入力に応答して動的に新規なメモリを生成する。
いくつかの実施形態にしたがって、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成するために、デバイス1500は、共通の特性のセットを共有するメディア項目のコレクションを判定して、共通の特性のセットを共有してメディア項目のキュレートされたセットを作成するメディア項目のコレクションのセットのより小さいサブセットを選択する。例えば、メモリを生成することの一部として、デバイス1500は、共通の特性(例えば、コンテキストのプロパティ)のセットによってメディア項目を判定し、生成されたメモリのメモリ詳細ビューのキュレートされたビューに含まれるメディア項目のサブセットを選択する。
図15Bは、非表示となっているメモリにアクセスするためのメモリタイムラインのスクロールを更に例示する。いくつかの実施形態にしたがって、第2のユーザ入力を受信する前に、デバイス1500は第3のユーザ入力を受信する。第3のユーザ入力を受信することに応答して、デバイス1500は、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールする。例えば、メモリタイムライン1502Dで、デバイス1500は、示された表現を(例えば、上側に)スクロールしてしまっており、現在は以前非表示だった表現1510を表示している。
いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールするために、デバイス1500は表示された複数のアフォーダンスをスクロールして視覚的メディアの自動生成される第2のコレクションに対応する第2のアフォーダンスを現し、ここで、第2のアフォーダンスは表示された複数のアフォーダンスに以前に含まれておらず、第1のアフォーダンスは第1の日付と関連しており、そして、第2のアフォーダンスは第1の日付とは異なる第2の日付と関連している。例えば、上記の通り、表現1510は、以前に表示されていなかった例示的なアフォーダンスである。更に、日付インジケータ1509で示すように、表現1510は4月24日の日付に対応して、それにより、例示的な第1のアフォーダンス(表現1508A(4月25日と関連している))とは異なる日付と関連している。
いくつかの実施形態では、メモリタブの選択は、バックナビゲーションの加速を考慮に入れる。例えば、メモリを通してナビゲートした後に、ユーザはメモリタブをタップして、メモリタイムラインの以前示されたスクロール位置に戻ることができる。この動作は、図15B及び15Cに図示される。
いくつかの実施形態にしたがって、詳細ユーザインタフェースは第1の詳細ユーザインタフェースであり、表示された複数のアフォーダンスをスクロールするために、デバイス1500は第1のビューから第2のビューまで複数のアフォーダンスをスクロールする。例えば、メモリタイムライン1502Dは、第2のビューの例示的な表示されたアフォーダンスを表す。
第2のビューの複数のアフォーダンスを表示すると共に、デバイス1500は第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、ディスプレイに第1の詳細ユーザインタフェースを表示し、ここで、第1の詳細ユーザインタフェースは視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、そして、第1の詳細ユーザインタフェースは第3のアフォーダンス(例えば、メモリタブ)を含む。例えば、1508Aの選択に応答して、デバイス1500は、図15Cの例示的な第1のメモリ詳細ユーザインタフェース1512を表示する。例示的な第3のコレクションは関連したメモリアフォーダンス1512Aによって表されて、例示的な第3のアフォーダンスはメモリタブ1514Aである。したがって、この例では、ユーザは、ナビゲーションメモリの中に深く入る1つのメモリである。
第1の詳細ユーザインタフェースを表示すると共に、デバイスは第2のアフォーダンスの選択に対応する第2のユーザ入力を受信し、これに応じて、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースを表示し、ここで、詳細ユーザインタフェースは第3のアフォーダンスを含む。例えば、表現1512Aの選択に応答して、デバイス1500は、例示的な第2のメモリ詳細ビュー1514を表示する。例示的な第3のアフォーダンス(例えば、メモリタブ1514A)は、まだ表示されている。したがって、この例では、ユーザは、ナビゲーションメモリの中に深く入る2つのメモリである。
いくつかの実施形態にしたがって、第2の詳細ユーザインタフェースを表示すると共に、デバイス1500は第3のアフォーダンスの選択に対応するユーザ入力を受信する。例えば、ユーザは、メモリタブを選択する。第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、デバイス1500は、第2のビューの複数のアフォーダンスを表示する。例えば、デバイス1500は、図15Bのメモリタイムライン1502Dに示すように、スクロールされた位置(例えば、第2のビュー)のメモリタイムラインの表示に戻る。したがって、デバイス(例えば、デバイス1500)は、加速したバックナビゲーションが単一の入力を用いて(一連のインタフェースにおいて多くのレベルを深く下った後でさえ)以前のビューに戻ることを可能にすることによって、メディア項目のコレクションの間をナビゲートするために必要な過剰な数の入力を減らし、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスは、自動生成されるコレクションの各自動生成されるコレクションが取得された日付に基づいて、時間順に配置される。例えば、図15Bの例示的なメモリタイムライン1502D上のメモリタイル(表現)は、各メモリが取得された(例えば、生成された、及び/又は選択された)日付に基づいて配置される。
いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示するために、デバイス1500は、現在の期間に対応する複数のアフォーダンスを表示する。例えば、図15Bのメモリタイムライン1502Cは、現在の日付4月25日(例えば、今日)に対応する2つのメモリタイルを含む。
いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示するために、デバイス1500は、複数のアフォーダンスが所定数のアフォーダンスである複数の異なる期間のそれぞれに対する期間に対応する複数のアフォーダンスを表示する。例えば、デバイス1500は、各期間に対して3つの自動生成されるメモリを表示することができる。いくつかの実施形態では、上記の通りに、デバイス1500は、追加のメモリを取得することができる。例えば、図15Bのメモリタイムライン1502Cは、今日(4月25日)に対する複数のメモリタイルを示す。
いくつかの実施形態にしたがって、視覚的メディアの自動生成されるコレクションは、デバイス1500の一般のコンテキストにコンテキスト上関連すると判定されたものである。例えば、デバイス1500の一般のコンテキストは、真の1日中のものであるデバイス1500のコンテキストであり、例えば、最近のイベント、設定された時間量だけ前(1年前又は1ヵ月前など)に発生したイベント、又は州又は市などの一般のデバイス位置である。いくつかの例において、デバイス1500の一般のコンテキストは、長期間の情報に基づくデバイス1500のコンテキストである。例えば、一般のコンテキストは、コレクションが自動生成される前の24時間の期間(例えば、最後の日)の全体にわたるデバイス1500のコンテキストのコレクションであり得る。例えば、一般のコンテキストは、24時間の間にわたるユーザの平均位置であり得る。
いくつかの実施形態にしたがって、視覚的メディアの第1のコレクションは、デバイス1500の特定のコンテキストに、コンテキスト上関連する。例えば、デバイス1500の特定のコンテキストは、1日の全体にわたって変化する可能性のある、デバイス1500のコンテキストであり、例えば住所又はGPS座標、時刻、他のユーザの存在などの、特定のデバイス位置である。いくつかの例において、デバイス1500の現在のコンテキストは、現在の位置、時間又は日付を含む。したがって、いくつかの例で、ユーザ入力に応答して取得されるコレクションは、既存のコレクションよりもデバイス1500の特定のコンテキストに更に関連するものであり得る。
いくつかの実施形態にしたがって、コンテキストは、記念日、誕生日、最近の旅行、先週、現在デバイス1500の現在位置に近いと識別されている個人の視覚的メディア、現在デバイス1500の現在位置に近い関心地点の視覚的メディア、及びデバイス1500によってアクセス可能なカレンダ上のイベント、などの1つ以上を含む。
いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示するために、デバイス1500は、各複数のアフォーダンスとともにコンテキスト情報を表示する。例えば、デバイス1500は、メモリタイルと関連したテキストを表示することができる。例えば、メモリタイムライン1516で、デバイス1500は表現1516Aの上にオーバレイされるコンテキスト情報を表示することができ、それは2019年7月4日メモリに対応する。このようなコンテキスト情報の例は、「2019年7月4日、2019年7月4日」である。
いくつかの実施形態にしたがって、デバイス1500はタッチ感知面を含み、第2のユーザ入力はタッチ感知面上で検出される第1の特性強度を有するタッチユーザ入力である。デバイス1500は、タッチユーザ入力の第1の特性強度を判定する。タッチユーザ入力が選択基準を満たすという判定にしたがって、ここで選択基準は選択基準が満たされるためにタッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しないものであるが、デバイス1500は複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換える。例えば、選択基準は、第2のタッチユーザ入力が、接触のリフトオフが接触のタッチダウンを検出する所定の期間の範囲内で検出されるタップ入力であるときに、満たされる。この場合、メモリ詳細ユーザがそれに応じて表示される(例えば、少なくとも図6A〜6Rに関して上述したように)。例えば、ユーザが図15Dに示されるメモリタイムライン1516の表現1516Aを選択する場合、デバイス1500は2019年7月4日メモリ詳細ビューを表示する。
タッチユーザ入力が第1の強度依存基準を満たすという判定にしたがって、デバイス1500は、複数のアフォーダンスの一部を表示し続けると共に、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースを表示し、ここで、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第1の強度閾値を超えることを要求するものであり、そして、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第2の強度閾値を超えることを要求しない。例えば、デバイス1500は、メモリのメディア項目(例えば、写真及びビデオ)のプレビュー(例えば、「覗き見」)を図15Eのプレビューユーザインタフェース1518Bのキュレートされたビュー1520に示すように、メモリ詳細ビューに入ることなく、表示することができ、それはメディア項目1520A及び1520Bを含む。デバイス(例えば、デバイス1500)は、メモリ詳細ビューを実際に表示する前にコンテンツのプレビューを可能にすることによって、ユーザは短時間で、自分がメディア項目のコレクションを見ることを望むかどうか判定することができ、もし望まないならば、ユーザは、詳細ユーザインタフェースから戻ってナビゲートするために別の入力を入力しなければならないこととは対照的に、単に単一の入力接触を取り払うことができる。したがって、ユーザは過剰な数の入力を実行してメディアコンテンツのプレビューを見る必要がなく、デバイスリソース及びユーザ時間を節減する。
いくつかの実施形態にしたがって、プレビューユーザインタフェースは、視覚的メディアの第2のコレクションからのコンテンツを含んで、少なくとも複数のアフォーダンスの一部が表示されている一方で再生される、再生中のビデオを含む。例えば、ユーザインタフェース1518Aは、例示的なプレビューユーザインタフェースでビデオ1522Aを表示するデバイス1500を表す。複数のアフォーダンスの一部は、いくつかの例では、ディスプレイ上でぼかされる(例えば、1518A及び1518Bのハッチングによって表される)。いくつかの実施形態にしたがって、複数のアフォーダンスは、タッチ入力の特性強度が第2の強度閾値に達する前に接触のリフトオフが検出される場合、再表示される。
いくつかの実施形態にしたがって、プレビューユーザインタフェースは、少なくとも複数のアフォーダンスの一部が表示される一方で、視覚的メディアの第2のコレクションに含まれるメディア項目のサブセットのキュレートされたビューを表示することを含む。例えば、ユーザインタフェース1518Bは、プレビューユーザインタフェースで例示的なキュレートされたビュー1520の一部を表示するデバイス1500を表す。
タッチユーザ入力が第2の強度依存基準を満たすという判定にしたがって、デバイス1500は、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換え、ここで、第2の強度依存基準は、タッチユーザ入力の第1の特性強度が第2の強度依存基準を満たすために第1の強度閾値及び第2の強度閾値を超えることを要求する。例えば、ユーザがプレビューユーザインタフェースを見た後にメモリに入ることに決める場合、ユーザは入力の強度を増すことができて、(例えば、自分の指をはずしてメモリタイルを選択するためにそれを再び用いなければならないという必要無しに)デバイス1500にメモリ詳細ユーザインタフェースを表示させることができる。
図16は、いくつかの実施形態による、電子デバイスを用いてメディア項目のコンテキスト上関連したコレクションを見て取得するための方法を例示するフローチャートである。方法1600は、ディスプレイ及び、任意選択的に、タッチ感知面を有するデバイス(例えば、100、300、500)で実行される。方法1600のいくつかの動作は、任意選択的に結合され、いくつかの動作の順序は任意選択的に変更され、いくつかの動作は任意選択的に省略される。
後述するように、方法1600はメディア項目のコンテキスト上関連したコレクションを見て取得するための直観的な方法を提供する。方法はメディア項目のコンテキスト上関連したコレクションを見て取得するためのユーザの認識負担を減らし、それにより、より効率的なヒューマンマシンインタフェースを作り出す。バッテリー作動式のコンピューティングデバイスのために、ユーザが、より短時間に、そして、より効率的にメディア項目を閲覧して取得することができることは、電力を節減して、バッテリー充電の間の時間を増加させる。
デバイスは、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンス(例えば、図15Aの1506A〜1506B)をディスプレイに表示する(1602)。いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスは、自動生成されるコレクションの各自動生成されるコレクションが取得された日付に基づいて、時間順に配置される。いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、ディスプレイに、現在の期間(例えば、今日)に対応する複数のアフォーダンスを表示することを含む。いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、複数のアフォーダンスが所定数のアフォーダンス(例えば、図15Aのメモリタイムライン1502Aに示すように、1日当たり3つ)である複数の異なる期間(例えば今日、昨日)のそれぞれに対する期間に対応する複数のアフォーダンスをディスプレイに表示することを含む。いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、ディスプレイに、各複数のアフォーダンスを有するコンテキスト情報を表示することを含む。
デバイスは、複数のアフォーダンスを表示すると共に、第1のユーザ入力を受信する(1604)。いくつかの例において、第1のユーザ入力は、(例えば、図15Aにて図示したように)プルダウンリフレッシュ要求である。
第1のユーザ入力(1606)を受信することに応答して、デバイスは、視覚的メディアの複数のコレクションに以前に含まれておらず、視覚的メディアの自動生成されるコレクションの各々のコレクションとは別の、視覚的メディアの自動生成される第1のコレクションを取得し(1608)、そして、ディスプレイ上の表示される複数のアフォーダンスに、視覚的メディアの第1のコレクションに対応する第1のアフォーダンス(例えば、図15Bのメモリタイムライン1502Cの表現1508A及び1508B)を追加する(1610)。
いくつかの実施形態にしたがって、視覚的メディアの複数のコレクションに以前に含まれなかった視覚的メディアの自動生成される第1のコレクションを取得することは、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成する(1616)ことを含む。いくつかの実施形態にしたがって、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、共通の特性のセットを共有するメディア項目のコレクション(例えば、図15Eのメディア項目1520A及び1520B)を判定し(1618)、そして、共通の特性のセットを共有してメディア項目のキュレートされたセットを作成する、メディア項目のコレクションのセットのより小さいサブセットを選択することを含む。
いくつかの実施形態にしたがって、視覚的メディアの自動生成されるコレクションは、デバイスの一般のコンテキスト(1620)(例えば、図6D及び6Eにおいて列挙した例示的なコンテキスト)にコンテキスト上関連すると判定されたものである。いくつかの例において、デバイスの一般のコンテキストは、長期間の情報に基づくデバイスのコンテキストである。いくつかの例において、一般のコンテキストは、コレクションが自動生成される前の24時間(例えば、先日)の期間の全体にわたるデバイスのコンテキストのコレクションであり得る。いくつかの例において、一般のコンテキストは、24時間の間にわたるユーザの平均位置であり得る。いくつかの例では、デバイスの一般のコンテキストは、真の1日中のものとなり、例えば、最近のイベント、設定された時間量だけ前(1年前又は1ヵ月前など)に発生したイベント、又は(州又は市などの)一般のデバイス位置である。
いくつかの実施形態にしたがって、視覚的メディアの第1のコレクションは、デバイスの特定のコンテキスト(1622)(例えば、図6D及び6Eにおいて列挙した例示的なコンテキスト)に、コンテキスト上関連する。いくつかの例において、特定のコンテキストは、1日の全体にわたって変化する可能性のあるデバイスのコンテキストであり、例えば住所又はGPS座標、時刻、他のユーザの存在などの、特定のデバイス位置である。いくつかの実施形態にしたがって、コンテキストは、記念日、誕生日、最近の旅行、先週、現在デバイスの現在位置に近いと識別されている個人の視覚的メディア、現在デバイスの現在位置に近い関心地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントの1つ以上を含む。
デバイスは、第1のアフォーダンス(例えば、図15Bの表現1508Bの選択)の選択に対応する第2のユーザ入力を受信する(1612)。いくつかの実施形態にしたがって、デバイスは、第2のユーザ入力を受信する前に、第3のユーザ入力を受信し(1626)、そして、第3のユーザ入力を受信することに応答して、(例えば図15Bのメモリタイムライン1502Dに示すように)視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールする(1626)。いくつかの実施形態にしたがって、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、表示された複数のアフォーダンスをスクロールして視覚的メディアの自動生成される第2のコレクションに対応する第2のアフォーダンス(例えば、図15Bのアフォーダンス1510)を現すことを含み(1628)、ここで、第2のアフォーダンスは表示された複数のアフォーダンスに以前に含まれておらず、第1のアフォーダンスは第1の日付と関連しており、そして、第2のアフォーダンスは第1の日付とは異なる第2の日付と関連している。
いくつかの実施形態にしたがって、デバイスはタッチ感知面を含んで、第2のユーザ入力はタッチ感知面で検出される第1の特性強度を有するタッチユーザ入力である。いくつかの実施形態にしたがって、デバイスは、タッチユーザ入力の第1の特性強度を判定する(1624)。タッチユーザ入力が選択基準を満たすという判定にしたがって、ここで選択基準は選択基準が満たされるためにタッチユーザ入力の第1の特性強度が第1の強度閾値(例えば、図15D及び15EのIT)又は第2の強度閾値(例えば、図15D及び15EのIT)を超えることを要求しないものであるが、デバイスは複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に(例えば、図6Jにおいて表されるような詳細ユーザインタフェースによって)置き換える(1624)。タッチユーザ入力が第1の強度依存基準を満たすという判定にしたがって、デバイスは、ディスプレイに、複数のアフォーダンスの一部を表示し続けると共に、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェース(例えば、図15D及び15Eのプレビューユーザインタフェース1518A又は1518B)を表示し(1624)、ここで、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第1の強度閾値(例えば、図15D及び15EのIT)を超えることを要求するものであり、そして、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第2の強度閾値(例えば、図15D及び15EのIT)を超えることを要求しない。タッチユーザ入力が第2の強度依存基準を満たすという判定にしたがって、デバイスは、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に(例えば、図6Jにおいて表されるような詳細ユーザインタフェースによって)置き換え(1624)、ここで、第2の強度依存基準は、タッチユーザ入力の第1の特性強度が第2の強度依存基準を満たすために第1の強度閾値及び第2の強度閾値を超えることを要求する。いくつかの例において、プレビューユーザインタフェースは、視覚的メディアの第2のコレクションからのコンテンツを含んで、少なくとも複数のアフォーダンスの一部が(例えば、ぼかしによって)ディスプレイに表示されている一方で再生される、再生中のビデオを含む。いくつかの例において、複数のアフォーダンスは、タッチ入力の特性強度が第2の強度閾値に達する前に接触のリフトオフが検出される場合、再表示される。
いくつかの実施形態にしたがって、詳細ユーザインタフェースは、第1の詳細ユーザインタフェース(例えば、図15Cの詳細ユーザインタフェース1512)である。いくつかの実施形態にしたがって、表示された複数のアフォーダンスをスクロールすることは、第1のビューから第2のビュー(例えば、図15Bのメモリタイムライン1502Dで表される第2のビュー)まで複数のアフォーダンスをスクロールすることを含む。いくつかの実施形態にしたがって、デバイスは、第2のビューの複数のアフォーダンスを(例えば、図15Bのメモリタイムライン1502Dの表示で)表示すると共に、第1のアフォーダンス(例えば、図15Aの表現1506A)の選択に対応する第2のユーザ入力を受信する。第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、デバイスは、ディスプレイに、第1の詳細ユーザインタフェース(例えば、図15Cの詳細ユーザインタフェース1512)を表示し、ここで、第1の詳細ユーザインタフェースは視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、第1の詳細ユーザインタフェースは第3のアフォーダンス(例えば、図15Cのメモリタブ1514A)を含む。第1の詳細ユーザインタフェースを表示すると共に、デバイスは第2のアフォーダンス(例えば、図15Cの関連メモリアフォーダンス1512A)の選択に対応する第2のユーザ入力(例えば、タップ)を受信する。第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、デバイスは、ディスプレイに、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースを表示し、ここで、詳細ユーザインタフェースは第3のアフォーダンス(例えば、図15Cのメモリタブ1514A)を含む。第2の詳細ユーザインタフェースを表示すると共に、デバイスは第3のアフォーダンス(例えば、図15Cのメモリタブ1514A)の選択に対応するユーザ入力を受信する。第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、デバイスは、ディスプレイに、第2のビューの複数のアフォーダンスを表示する(例えば、図15Bのメモリタイムライン1502Dを表示する)。
第2のユーザ入力を受信することに応答して、デバイスは、ディスプレイに、視覚的メディアの第2のコレクションの表現(例えば、図15Cのメモリ詳細ビュー1512)を含む詳細ユーザインタフェースを表示する(1614)。
方法1600(例えば、図16)に関して上記説明したプロセスの詳細が類似した方法で上記の方法にも適用できることに注意されたい。例えば、方法700、1000及び1300は、方法1600に関して上記説明した様々な方法の特徴の1つ以上を任意選択的に含む。例えば、コンテキスト上関連したコンテンツは、方法700、1000及び1300によるいかなる詳細ユーザインタフェースの表示でも見ることができる。簡潔さのために、これらの詳細は、以下では繰り返されない。
いくつかの実施形態にしたがって、図17は、様々な記載されている実施形態の原理にしたがって構成されている電子デバイス1700の例示的な機能ブロック図を示す。いくつかの実施形態にしたがって、電子デバイス1700の機能ブロックは、上記の技術を実行するように構成されている。デバイス1700の機能ブロックは、任意選択的に、ハードウェア、ソフトウェア又はハードウェア及びソフトウェアの組み合わせによって実装されて、様々な記載された例の原理を実施する。図17に記載されている機能ブロックが、任意選択的に、結合されるか又はサブブロックに分けられて様々な記載された例の原理を実装することは、当業者によって理解される。したがって、本明細書における記述は、本明細書において記載されている機能ブロックの可能なあらゆる組み合わせ又は分離又は更に定義を任意選択的にサポートする。
図17に示すように、電子デバイス1700は、グラフィックユーザインタフェースを表示するように構成されているディスプレイユニット1702、任意選択的に、接触を受信するように構成されているタッチ感知面ユニット1704並びに、ディスプレイユニット1702及び、任意選択的に、タッチ感知面ユニット1704に連結された処理ユニット1708を含む。いくつかの実施形態では、処理ユニット1708は、表示有効化ユニット1710、受信ユニット1712、取得ユニット1714及び追加ユニット1716を含む。いくつかの実施形態では、処理ユニット1708は、生成ユニット1718、判定ユニット1720及び選択ユニット1722の1つ以上を任意選択的に含む。
処理ユニット1708は、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702に、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスの表示を有効にし、複数のアフォーダンスを表示すると共に、(例えば、受信ユニット1712によって)第1のユーザ入力を受信し、第1のユーザ入力を受信することに応答して、(例えば、取得ユニット1714によって)視覚的メディアの自動生成されるコレクションの各々のコレクションとは別の、視覚的メディアの複数のコレクションに以前に含まれなかった視覚的メディアの、自動生成される第1のコレクションを取得し、そして、(例えば、追加ユニット1716によって)ディスプレイユニット1702に表示されている複数のアフォーダンスに、視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加し、(例えば、受信ユニット1712によって)第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、そして、第2のユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702に、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースの表示を有効にするように、構成されている。
いくつかの実施形態では、(例えば、取得ユニット1714によって)視覚的メディアの複数のコレクションに以前に含まれなかった視覚的メディアの自動生成される第1のコレクションを取得することは、(例えば、生成ユニット1718によって)第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することを含む。
いくつかの実施形態では、(例えば、生成ユニット1718によって)第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、(例えば、判定ユニット1720によって)セットの共通の特性を共有するメディア項目のコレクションを判定し、そして、(例えば、選択ユニット1722によって)共通の特性のセットを共有してメディア項目のキュレートされたセットを作成するメディア項目のコレクションのセットのより小さいサブセットを選択することを含む。
いくつかの実施形態では、処理ユニット1708は、第2のユーザ入力を受信する前に、(例えば、受信ユニット1712によって)第3のユーザ入力を受信し、第3のユーザ入力を受信することに応答して、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールするように、更に構成されている。
いくつかの実施形態では、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成される第2のコレクションに対応する第2のアフォーダンスを現すことを含み、ここで、第2のアフォーダンスは表示された複数のアフォーダンスに以前に含まれておらず、第1のアフォーダンスは第1の日付と関連しており、そして、第2のアフォーダンスは第1の日付とは異なる第2の日付と関連している。
いくつかの実施形態では、詳細ユーザインタフェースは第1の詳細ユーザインタフェースであり、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、表示された複数のアフォーダンスをスクロールすることは、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、複数のアフォーダンスを第1のビューから第2のビューまでスクロールすることを含み、方法は、第2のビューの複数のアフォーダンスを表示すると共に、(例えば、受信ユニット1712によって)第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、第1の詳細ユーザインタフェースの表示を有効にし、ここで、第1の詳細ユーザインタフェースは視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、そして、第1の詳細ユーザインタフェースは第3のアフォーダンスを含み、第1の詳細ユーザインタフェースを表示すると共に、(例えば、受信ユニット1712によって)第2のアフォーダンスの選択に対応する第2のユーザ入力を受信し、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースの表示を有効にし、そして、詳細ユーザインタフェースは第3のアフォーダンスを含み、第2の詳細ユーザインタフェースを表示すると共に、(例えば、受信ユニット1712によって)第3のアフォーダンスの選択に対応するユーザ入力を受信し、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、第2のビューの複数のアフォーダンスの表示を有効にすることを、更に含む。
いくつかの実施形態では、視覚的メディアの複数の自動生成されるコレクションに対応する表示された複数のアフォーダンスは、自動生成されるコレクションの各自動生成されるコレクションが取得された日付に基づいて、時間順に配置される。
いくつかの実施形態では、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、現在の期間に対応する複数のアフォーダンスの表示を有効にすることを含む。
いくつかの実施形態では、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、期間に対応する、複数の異なる期間のそれぞれに対する、複数のアフォーダンスの表示を有効にすることを含み、ここで、複数のアフォーダンスは所定数のアフォーダンスである。
いくつかの実施形態では、視覚的メディアの自動生成されるコレクションは、デバイスの一般のコンテキストにコンテキスト上関連すると判定されたものである。
いくつかの実施形態では、視覚的メディアの第1のコレクションは、デバイスの特定のコンテキストに、コンテキスト上関連する。
いくつかの実施形態では、コンテキストは、記念日、誕生日、最近の旅行、先週、現在デバイスの現在位置に近いと識別されている個人の視覚的メディア、現在デバイスの現在位置に近い関心地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントの1つ以上を含む。
いくつかの実施形態では、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、視覚的メディアの複数の自動生成されるコレクションに対応する複数のアフォーダンスを表示することは、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、複数のアフォーダンスのそれぞれを有するコンテキスト情報の表示を有効にすることを含む。
いくつかの実施形態では、デバイスはディスプレイユニット1702及び処理ユニット1708に連結されたタッチ感知面ユニット1704を含み、第2のユーザ入力はタッチ感知面で検出される第1の特性強度を有するタッチユーザ入力であり、処理ユニット1708は、(例えば、判定ユニット1720によって)タッチユーザ入力の第1の特性強度を判定し、タッチユーザ入力が選択基準を満たすという判定にしたがって、ここで選択基準は選択基準が満たされるためにタッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しないものであるが、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換え、タッチユーザ入力が第1の強度依存基準を満たすという判定にしたがって、複数のアフォーダンスの一部を表示し続けると共に、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースを表示することを有効化し、ここで、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第1の強度閾値を超えることを要求するものであり、そして、第1の強度依存基準は、タッチユーザ入力の第1の特性強度が第1の強度依存基準を満たすために第2の強度閾値を超えることを要求せず、そして、タッチユーザ入力が第2の強度依存基準を満たすという判定にしたがって、(例えば、表示有効化ユニット1710によって)ディスプレイユニット1702上で、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換え、ここで、第2の強度依存基準は、タッチユーザ入力の第1の特性強度が第2の強度依存基準を満たすために第1の強度閾値及び第2の強度閾値を超えることを要求するように、更に構成されている。
図16を参照して上述した動作は、任意選択的に、図1A〜1B又は図17において表される構成要素によって実装される。例えば、表示動作1602、受信動作1604、取得動作1608、及び追加動作1610は、任意選択的に、イベントソータ170、イベント認識部180及びイベントハンドラ190によって実装される。イベントソータ170のイベントモニタ171はタッチ感知式ディスプレイ112上の接触を検出して、イベントディスパッチャモジュール174はイベント情報をアプリケーション136−1に配信する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較して、タッチ感知面上の第1の位置の第1の接触が定義済みイベントかサブイベント、例えばユーザインタフェース上のアフォーダンスのアクティブ化に対応するかどうか判定する。それぞれの定義済みイベント又はサブイベントが検出されるとき、イベント認識部180はイベント又はサブイベントの検出と関連したイベントハンドラ190を起動させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、任意選択的にデータ更新部176又はオブジェクト更新部177を利用するか又は呼び出す。いくつかの実施形態では、イベントハンドラ190はそれぞれのGUI更新部178にアクセスして、アプリケーションによって表示されるものを更新する。同様に、他のプロセスが図1A〜1Bにおいて表される構成要素に基づいてどのように実施されることができるかは、当業者に明らかである。
前の記述は、説明の目的のために、特定の実施形態を参照して記載されていた。しかしながら、上記の例証的な考察は、徹底的であるか又は本発明を開示される正確な形態に制限することを目的としない。多くの修正及び変更は、上記の教示からみて可能である。実施形態は、技術及びそれらの現実的用途の原則を最も良く説明するために選択されて、記載されていた。他の当業者は、このことにより、企図される特定の使用に適している様々な修正を有する技術及び様々な実施形態を最も良く利用することができる。
本開示及び例が添付の図面を参照して充分に説明されてきたが、様々な変更及び修正が当業者にとって明らかになるであろう点に留意する必要がある。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。
上述のように、本発明の技術の一態様は、ユーザが求める内容又はユーザが関心を持つ可能性のある任意の他の内容の、ユーザへの提供を向上するために、様々なソースから入手可能なデータを収集及び使用することである。本開示は、いくつかの場合では、この収集されたデータが、特定の個人を一意に識別するか又は、特定の個人に連絡するため若しくは位置を特定するために使用することができる、個人情報データを含むことができることを企図している。このような個人情報データは、人口統計データ、位置ベースのデータ、電話番号、電子メールアドレス、自宅の住所又は他のいかなる識別情報も含むことができる。
本開示は、本発明の技術において、このような個人情報データの使用がユーザの利益のために使われることができると認識するものである。例えば、個人情報データは、ユーザにとってのより大きな関心ある目標コンテンツを配信するために用いることができる。したがって、このような個人情報データの使用は、配信されるコンテンツの計算されたコントロールを可能にする。更に、ユーザに利益を与える個人情報データの他の用途もまた、本開示によって企図される。
本開示は、更に、このような個人情報データの収集、分析、開示、転送、格納又は他の使用に対して責任がある実体が、良好に確立したプライバシーポリシー及び/又はプライバシー実践を遵守することを企図する。特に、このような実体は、個人情報データを秘密かつ安全に保つための業界又は政府の要件を満たすか又は上回る、と通常認められるプライバシーポリシー及び実践を実行しなければならず、一貫して使用しなければならない。例えば、ユーザからの個人情報は、実体による合法的かつ合理的な使用のために収集されなければならず、それらの合法的な用途外で共有されてはならず又は販売されてはならない。更に、このような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。加えて、このような実体は、このような個人情報データへのアクセスを保護して安全化し、個人情報データにアクセスする他者がそれらのプライバシーポリシー及び手順を厳守することを確実にするためのあらゆる必要とされた措置を取るであろう。更に、このような実体は第三者によって評価を受けて、広く認められたプライバシーポリシー及び実践に対する自身の遵守を保証することができる。
前述のことにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も企図する。すなわち、本開示は、ハードウェア及び/又はソフトウェア要素がこのような個人情報データへのアクセスを防止するか又は阻止するために設けられ得ることを企図する。例えば、広告配信サービスの場合、本発明の技術は、ユーザがサービスのための登録の間に、個人情報データの収集への参加に対して「加わる」か又は「引き下がる」ことを選択することができるように構成することができる。いくつかの例において、ユーザは、目標のコンテンツ配信サービスに位置情報を提供しないことを選択することができる。いくつかの例において、ユーザは、正確な位置情報を提供しないが、位置ゾーン情報の転送を許可することを選択することができる。
したがって、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを企図している。すなわち、本発明の技術の様々な実施形態は、このような個人情報データの全体又は一部の欠如のため実施不可能となるものではない。例えば、コンテンツは、ユーザと関連したデバイスによって要求されているコンテンツ、コンテンツ配信サービスが利用できる他の非個人情報又は一般公開されている情報などの、非個人情報データ又はぎりぎりの最小量の個人情報に基づいて好みを推定することによって選択してユーザに配信することができる。

Claims (103)

  1. ディスプレイを有するデバイスにおいて、
    文脈的関連メディアを表示する要求を受信することと、
    前記要求に応答して、
    前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示することと、
    前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示することであって、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、ことと、
    を含む、方法。
  2. 前記デバイスが前記第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第3のコレクションの表現を前記ディスプレイ上に表示することであって、メディア項目の前記第1のコレクションは、第1のコンテキストプロパティに基づく前記第1のコンテキストに関連し、メディア項目の前記第3のコレクションは、第2のコンテキストプロパティに基づく前記第1のコンテキストに関連し、前記第2のコンテキストプロパティは、前記第1のコンテキストプロパティとは異なる、ことを更に含む、請求項1に記載の方法。
  3. メディア項目の前記第1のコレクションの前記表現は、第1のアフォーダンスであり、前記方法は、
    前記第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項1又は2に記載の方法。
  4. メディア項目の前記第1のコレクションの前記表現は、メディア項目の前記第1のコレクションから選択されたメディア項目の縮小バージョンを含む、請求項1又は2に記載の方法。
  5. メディア項目の前記第1のコレクションに関連付けられたテキスト識別子を生成することと、
    前記選択されたメディア項目内の顔を識別することであって、前記選択されたメディア項目は画像である、ことと、
    メディア項目の前記第1のコレクションの前記表現に重ね合わせられた前記テキスト識別子を前記ディスプレイ上に表示することであって、前記重ね合わせられたテキスト識別子は、メディア項目の前記第1のコレクションの前記表現として表示された前記選択されたメディア項目内の前記識別された顔と重畳されない、ことと、
    を更に含む、請求項1又は2に記載の方法。
  6. メディア項目の前記第1のコレクションに関連付けられた前記テキスト識別子は、前記第1のコンテキストに対するメディア項目の前記第1のコレクションの関連性に基づいて選択され、前記第1のコンテキストに対するメディア項目の前記第1のコレクションの関連性を説明する1つ以上の単語を含む、請求項5に記載の方法。
  7. 前記詳細ユーザインタフェースを表示する前に、前記ディスプレイの第1の部分を視覚的に占有するメディア項目の前記第1のコレクションの前記表現を前記ディスプレイ上に表示することと、
    前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに続いて、かつ前記詳細ユーザインタフェースを表示しながら、前記ディスプレイの前記第1の部分とは別個の前記ディスプレイの第2の部分を視覚的に占有するメディア項目の前記第1のコレクションのキーメディア項目を前記ディスプレイ上に表示することと、
    前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに更に応答して、前記キーメディア項目に移行するメディア項目の前記第1のコレクションの前記表現のアニメートされた遷移を前記ディスプレイ上に表示することと、
    を更に含む、請求項3に記載の方法。
  8. 前記詳細ユーザインタフェースを表示しながら、メディア項目の前記第1のコレクションの複数のメディア項目を含むスライドショーを前記ディスプレイ上に表示することと、
    前記スライドショーの選択に対応するユーザ入力を受信することと、
    前記スライドショーの前記選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの複数のメディア項目を含む動画を前記ディスプレイ上に表示することであって、前記スライドショーと前記動画は異なる、ことと、
    を更に含む、請求項3に記載の方法。
  9. 前記スライドショーを編集する要求に対応するユーザ入力を受信することと、
    前記スライドショーを編集する前記要求に対応する前記ユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項8に記載の方法。
  10. 前記詳細ユーザインタフェースは、第1の領域を含み、前記第1の領域は、メディア項目の前記第1のコレクションの前記メディア項目のサブセットを含むキュレートされたビューを含み、メディア項目の前記サブセットは、より低い品質の写真を除外するように選択される、請求項3に記載の方法。
  11. 前記第1の領域は、第2のアフォーダンスを更に含み、前記方法は、
    前記第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2のアフォーダンスの選択に対応する前記入力を受信する前に表示されなかったメディア項目の前記第1のコレクションの追加メディア項目の表現を含む拡張ビューを前記ディスプレイ上に表示することと、
    を更に含む、請求項10に記載の方法。
  12. 前記キュレートされたビューにおけるメディア項目の前記サブセットは、メディア項目の前記サブセットの前記メディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、請求項10に記載の方法。
  13. 前記キュレートされたビューに含まれるメディア項目の前記サブセットは、キュレートされた配列に配置され、メディア項目の前記キュレートされた配列に含まれるメディア項目の前記サブセットは、前記キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するように前記メディア項目のエッジが整列されるように配置される、請求項10に記載の方法。
  14. 前記キュレートされた配列の前記下部における前記実質的に真っ直ぐな境界は、前記キュレートされたビューに含まれるメディア項目の第1の複数の前記サブセットによって形成される、請求項13に記載の方法。
  15. 前記第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、前記第1のサイズと前記第2のサイズは異なり、前記第1のアスペクト比と前記第2のアスペクト比は異なり、前記キュレートされた配列の前記下部における前記実質的に真っ直ぐな境界は、前記第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、請求項14に記載の方法。
  16. 前記メディア項目の寸法に部分的に基づいて、メディア項目の前記第1のコレクションの前記メディア項目からメディア項目の前記キュレートされたサブセットを選択すること、
    を更に含む、請求項10に記載の方法。
  17. 前記キュレートされたビューに含まれるメディア項目の前記サブセットの第3のメディア項目の選択に対応するユーザ入力を受信することと、
    前記キュレートされたビューに含まれるメディア項目の前記サブセットの前記第3のメディア項目の選択に対応する前記ユーザ入力を受信することに応答して、前記第3のメディア項目及びスクラビングアフォーダンスを前記ディスプレイ上に表示することと、
    前記スクラビングアフォーダンスに対応するユーザ入力を受信することと、
    前記スクラビングアフォーダンスに対応する前記ユーザ入力を受信することに応答して、前記スクラビングアフォーダンスを表示し続けながら、前記第3のメディア項目の表示をメディア項目の前記キュレートされたサブセットの第4のメディア項目の表示に置き換えることと、
    を更に含む、請求項10に記載の方法。
  18. 前記詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、前記詳細ユーザインタフェースを表示することは、
    メディア項目の前記第1のコレクションの第5のメディア項目に関連付けられた位置に対応する前記地理的地図上の位置インジケータを前記ディスプレイ上に表示すること、
    を更に含む、請求項3に記載の方法。
  19. 前記地理的地図を表示しながら、第3のアフォーダンスを前記ディスプレイ上に表示することと、
    前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションに含まれていないメディア項目の前記位置に対応する前記地理的地図ビュー内の追加位置インジケータを前記ディスプレイ上に表示することと、
    を更に含む、請求項18に記載の方法。
  20. 前記追加位置インジケータを表示した後、
    第4のアフォーダンスを前記ディスプレイ上に表示することと、
    前記第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第4のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記追加位置インジケータを前記地理的地図ビューに表示することを停止することと、
    を更に含む、請求項19に記載の方法。
  21. 前記位置インジケータの選択に対応するユーザ入力を受信することと、
    前記位置インジケータの選択に対応するユーザ入力を受信することに応答して、前記地理的地図ビューの表示を前記第5のメディア項目の表示に置き換えることと、
    を更に含む、請求項18に記載の方法。
  22. 前記詳細ユーザインタフェースは、メディア項目の前記第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、前記方法は、
    前記識別された顔に対応する前記インジケータの選択に対応するユーザ入力を受信することと、
    前記識別された顔に対応する前記インジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションを前記ディスプレイ上に表示することであって、メディア項目の前記第4のコレクションの前記メディア項目のそれぞれは、前記識別された顔を含む、ことと、
    を更に含む、請求項3に記載の方法。
  23. 前記詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の前記第5のコレクションのメディア項目は、メディア項目の前記第1のコレクションのメディア項目を有する第1の特性を共有し、前記方法は、
    メディア項目の前記第5のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
    メディア項目の前記第5のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第5のコレクションを含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項3に記載の方法。
  24. メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示した後、
    1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信することであって、メディア項目の前記第6のコレクションは、メディア項目の前記第1のコレクションとは異なる、ことと、
    メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
    メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示する前記要求に対応する前記ユーザ入力を受信することに応答して、前記詳細ユーザインタフェース、及び前記第4の領域内のメディア項目の前記第6のコレクションの表現を前記ディスプレイ上に表示することと、
    を更に含む、請求項23に記載の方法。
  25. メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示しながら、
    第5のアフォーダンスを前記ディスプレイ上に表示することと、
    前記第5のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第5のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けることと、
    を更に含む、請求項3に記載の方法。
  26. メディア項目の選択されたコレクションの前記リストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することと、
    メディア項目の選択されたコレクションの前記リストのメディア項目のコレクションの表現を検視する要求に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの前記表現を前記ディスプレイ上に表示することと、
    を更に含む、請求項25に記載の方法。
  27. ディスプレイ及びタッチ感知面を有するデバイスにおいて、
    視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示することと、
    前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信することと、
    前記ユーザ入力を受信することに応答して、
    前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
    前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、ことと、
    を含む、方法。
  28. 前記ユーザ入力は、前記第1の視覚的メディア項目に対応する前記タッチ感知面上の位置で検出される、請求項27に記載の方法。
  29. それぞれの方向の移動を含む前記ユーザ入力は、第1のユーザ入力であり、前記方法は、
    前記第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
    前記第2のユーザ入力が前記第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定することと、
    前記ユーザ入力が前記第2の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目の表示を、視覚的メディア項目の前記シーケンスの第2の視覚的メディア項目の表示に置き換えることと、
    を更に含む、請求項27又は28に記載の方法。
  30. 前記詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、前記方法は、
    前記第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
    前記第2のユーザ入力が前記第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
    前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第2の視覚的メディア項目に関連すると判定された前記第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第2の視覚的メディア項目に対する前記関連コンテンツは、前記第1のメディア項目に対する前記関連コンテンツとは異なる、ことと、
    を更に含む、請求項29に記載の方法。
  31. 前記第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信することと、
    前記第3のユーザ入力が前記第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
    前記第3のユーザ入力が前記第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目の前記シーケンスの前記メディア項目の縮小バージョンを前記ディスプレイ上に表示することと、
    を更に含む、請求項27又は28に記載の方法。
  32. 視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンは、経時的に配置される、請求項31に記載の方法。
  33. 視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、請求項31に記載の方法。
  34. 前記第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信することと、
    前記第4のユーザ入力が前記第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
    前記ユーザ入力が前記第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンを前記ディスプレイ上に表示することと、
    を更に含む、請求項31に記載の方法。
  35. 前記第1の視覚的メディア項目に対する関連コンテンツの前記表現は、経時的に配置される、請求項27又は28に記載の方法。
  36. 前記第1の視覚的メディア項目を表示しながら、前記第1の方向の移動を含む第5のユーザ入力を受信することと、
    前記第5のユーザ入力を受信することに応答して、
    前記第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、前記詳細ユーザインタフェースを表示することなく、前記第5のユーザ入力にしたがって前記ディスプレイ上の前記第1の視覚的メディア項目を移動することと、
    前記第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、前記第5のユーザ入力にしたがって前記ディスプレイ上の前記第1の視覚的メディア項目を移動し、前記詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項27又は28に記載の方法。
  37. 前記詳細ユーザインタフェースは、前記第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、前記第1のカテゴリは、前記第1の視覚的メディア項目内で識別された顔であり、前記第1の領域は、前記第1の視覚的メディア項目から識別された顔を含み、前記方法は、
    前記識別された顔の選択に対応するユーザ入力を受信することと、
    前記識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションを前記ディスプレイ上に表示することであって、メディア項目の前記第1のコレクション内の各項目は、前記識別された顔を含むように選択される、ことと、
    を更に含む、請求項27又は28に記載の方法。
  38. 前記詳細ユーザインタフェースは、前記第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、前記第2のカテゴリは、位置であり、前記第2の領域は、前記第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、請求項27又は28に記載の方法。
  39. 前記第2の領域の選択に対応するユーザ入力を受信することと、
    前記第2の領域の選択に対応する前記ユーザ入力に応答して、前記第1の視覚的メディアに関連付けられた前記位置の視覚表現を含む地図ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項38に記載の方法。
  40. 前記アドレスの選択に対応するユーザ入力を受信することと、
    前記アドレスの選択に対応する前記ユーザ入力に応答して、地図アプリケーションのユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項39に記載の方法。
  41. 前記詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、前記第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、前記第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の前記第2のコレクションの視覚的メディア項目は、前記第1の視覚的メディア項目と第1の特性を共有し、前記方法は、
    視覚的メディア項目の前記第2のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
    メディア項目の前記第1のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、視覚的メディア項目の前記第2のコレクションの前記視覚的メディア項目の表現を前記ディスプレイ上に表示することと、
    を更に含む、請求項27又は28に記載の方法。
  42. 視覚的メディア項目の前記第2のコレクションは、前記第1の視覚的メディア項目を除外する、請求項41に記載の方法。
  43. 前記第1の視覚的メディア項目に対する関連コンテンツを含む前記詳細ユーザインタフェースを表示することは、
    前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールして前記詳細ユーザインタフェースを明瞭化することを含む、請求項27又は28に記載の方法。
  44. 前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールして前記詳細ユーザインタフェースを明瞭化することは、
    表示されたままの前記第1の視覚的メディア項目の部分が前記第1の視覚的メディア項目の所定の部分になるまで、前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールすることと、
    前記所定の部分が前記表示された部分になるまでスクロールした後、
    前記第1の視覚的メディア項目のスクロールを停止することと、
    前記第1のメディア項目の前記所定の部分が静止している間に、前記詳細ユーザインタフェースを明瞭化するためにスクロールを続けることと、
    を含む、請求項43に記載の方法。
  45. 前記第1の視覚的メディア項目は、画像又は動画である、請求項27又は28に記載の方法。
  46. 前記詳細ユーザインタフェースは、前記デバイスにインストールされたアプリケーションのインタフェースであり、前記詳細ユーザインタフェースは、前記アプリケーションを使用して表示された任意の視覚的メディア項目の前記ディスプレイにおいてアクセス可能である、請求項27又は28に記載の方法。
  47. ディスプレイを有するデバイスにおいて、
    第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    前記第1の詳細ユーザインタフェースを表示しながら、
    前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示することと、
    前記アフォーダンスの選択に対応するユーザ入力を受信することと、
    前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、ことと、
    を含む、方法。
  48. 前記複数の個人による特定のイベントの出席は、前記特定のイベントに対応する少なくとも1つのメディア項目内の前記複数の個人のうちの個人の顔を識別することに基づいて識別される、請求項47に記載の方法。
  49. 前記複数の個人による特定のイベントの出席は、前記複数の個人に関連付けられた位置データに基づいて識別され、前記位置データは、前記特定のイベントの時刻に前記特定のイベントの場所にいた前記複数の個人のうちの個人に対応するデバイスを識別するデータを含む、請求項47又は48に記載の方法。
  50. 前記第2の視覚的メディアは、前記複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、請求項47又は48に記載の方法。
  51. 前記第2の詳細ユーザインタフェースは、前記第2の視覚的メディアの前記メディア項目を含むスライドショーを含む第1の領域を含み、前記方法は、
    前記スライドショーの選択に対応するユーザ入力を受信することと、
    前記スライドショーの選択に対応する前記ユーザ入力に応答して、前記第2の視覚的メディアのメディア項目を含む動画を前記ディスプレイ上に表示することであって、前記スライドショーと前記動画は異なる、ことと、
    を更に含む、請求項47又は48に記載の方法。
  52. 前記第2の詳細ユーザインタフェースは、第2の領域を含み、前記第2の領域は、前記第2の視覚的メディアの前記メディア項目のサブセットを含むキュレートされたビューを含む、請求項47又は48に記載の方法。
  53. 前記第2の領域は、第1のアフォーダンスを更に含み、前記方法は、
    前記第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2の視覚的メディアの前記メディア項目の拡張ビューを前記ディスプレイ上に表示することと、
    を更に含む、請求項52に記載の方法。
  54. 前記第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、前記詳細ユーザインタフェースを表示することは、
    前記第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する前記地理的地図上の位置インジケータを前記ディスプレイ上に表示すること、
    を更に含む、請求項47又は48に記載の方法。
  55. 前記第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の前記第1のコレクションの視覚的メディア項目は、前記第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、前記方法は、
    視覚的メディア項目の前記第1のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
    メディア項目の前記第1のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、視覚的メディア項目の前記第1のコレクションの前記視覚的メディア項目の表現を前記ディスプレイ上に表示することと、
    を更に含む、請求項47又は48に記載の方法。
  56. 視覚的メディア項目の前記第1のコレクションは、前記第2の視覚的メディアの前記メディア項目を除外する、請求項55に記載の方法。
  57. 前記第2の詳細ユーザインタフェースを表示しながら、それぞれが前記複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域を前記ディスプレイ上に表示することと、
    前記第5の領域内の前記複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信することであって、前記アフォーダンスは、第1の個人に対応する、ことと、
    前記第1の個人に対応する前記アフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第3の視覚的メディアは、第3の複数のメディア項目を含み、前記第3の複数のメディア項目のそれぞれは、前記第1の個人を示すものとして識別され、前記第3の複数のメディア項目は、前記第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、前記第2のイベント、前記第3のイベント、及び前記第4のイベントは異なる、ことと、
    を更に含む、請求項47又は48に記載の方法。
  58. 前記第5の領域をスクロールする要求に対応するユーザ入力を受信することと、
    前記第5の領域をスクロールする前記要求に対応する前記ユーザ入力を受信することに応答して、前記第5の領域が静止している間に前記第5の領域に含まれる前記複数のアフォーダンスをスクロールさせることであって、前記複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが前記第5の領域に表示され、前記以前に表示されていないアフォーダンスは、前記複数の個人に含まれていない第2の個人に対応する、ことと、
    を更に含む、請求項57に記載の方法。
  59. 前記第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスを前記ディスプレイ上に表示することと、
    前記第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースを前記ディスプレイ上に表示することであって、前記候補視覚的メディア項目は、前記第3の視覚的メディアに含まれない、ことと、
    を更に含む、請求項57に記載の方法。
  60. 前記個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することと、
    前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力を受信することに応答して、
    前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が、確認入力又は拒否入力を表すかどうかを判定することと、
    前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が確認入力を表すという判定にしたがって、前記候補メディア項目を前記第1の個人に関連付けることと、
    前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が拒否入力を表すという判定にしたがって、前記候補メディア項目を前記第1の個人に関連付けることを見合わせることと、
    を更に含む、請求項59に記載の方法。
  61. 前記複数のアフォーダンスのうちの前記アフォーダンスの選択に対応する前記ユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、前記方法は、
    前記ユーザ入力の第1の特性強度を判定することと、
    前記ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースを表示することであって、前記強度依存基準は、前記強度依存基準が満たされるために前記タッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことと、
    を更に含む、請求項57に記載の方法。
  62. 前記コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、前記方法は、
    前記第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第1のコンテキストアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースを前記ディスプレイ上に表示することと、
    前記名前編集ユーザインタフェースを表示しながら、前記第1の個人の更新された名前を受信することと、
    前記第1の個人の前記更新された名前を受信することに応答して、メモリに記憶された前記第1の個人に関連付けられた既存の名前を前記更新された名前に更新することと、
    を更に含む、請求項61に記載の方法。
  63. 提示された個人に対応するアフォーダンスを前記ディスプレイ上に表示することであって、前記提示された個人は、前記デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことと、
    前記提示された個人に対応する前記アフォーダンスの選択に対応するユーザ入力を受信することと、
    前記提示された個人に対応する前記アフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メモリに記憶された前記第1の個人に関連付けられた前記既存の名前を前記提案された個人の名前に更新することと、
    を更に含む、請求項62に記載の方法。
  64. 前記コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、前記方法は、
    前記第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第2のコンテキストアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人の識別子を選択された個人の識別子のリストに関連付けることと、
    識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースを前記ディスプレイ上に表示することであって、識別された個人の前記表現は、選択された個人の前記リストのうちの前記個人を含む、ことと、
    前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、選択された個人の識別子の前記リストに関連付けられた識別子に対応しない個人の表現の表示を停止することと、
    を更に含む、請求項61に記載の方法。
  65. 前記第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、前記方法は、
    前記第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第4のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2の詳細ユーザインタフェースを、前記ユーザによって保存された1組の詳細ユーザインタフェースに追加することと、
    前記第2の詳細ユーザインタフェースの表示を停止することと、
    前記第2の詳細ユーザインタフェースの表示を停止した後、前記第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
    前記第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    を更に含む、請求項47又は48に記載の方法。
  66. ディスプレイを有するデバイスにおいて、
    視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示することと、
    前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信することと、
    前記第1のユーザ入力を受信することに応答して、
    視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することと、
    前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加することと、
    前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
    前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
    を含む、方法。
  67. 視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの前記自動生成された第1のコレクションを取得することは、前記第1のユーザ入力に応答してメディア項目の前記第1のコレクションを生成することを含む、請求項66に記載の方法。
  68. 前記第1のユーザ入力に応答してメディア項目の前記第1のコレクションを生成することは、
    1組の共通の特性を共有するメディア項目のコレクションを判定することと、
    前記1組の共通の特性を共有するメディア項目の前記1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成することと、
    を含む、請求項67に記載の方法。
  69. 前記第2のユーザ入力を受信する前に、第3のユーザ入力を受信することと、
    前記第3のユーザ入力を受信することに応答して、視覚的メディアの前記複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスをスクロールすることと、
    を更に含む、請求項66又は67に記載の方法。
  70. 視覚的メディアの前記複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスをスクロールすることは、
    前記表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、前記第2のアフォーダンスは、前記表示された複数のアフォーダンスに以前含まれておらず、前記第1のアフォーダンスは、第1の日付に関連付けられ、前記第2のアフォーダンスは、前記第1とは異なる第2の日付に関連付けられる、ことを含む、請求項69に記載の方法。
  71. 前記詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、前記表示された複数のアフォーダンスをスクロールすることは、前記複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、前記方法は、
    前記第2のビュー内に前記複数のアフォーダンスを表示しながら、前記第1のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することと、
    前記第1のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することに応答して、前記第1の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、前記第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
    前記第1の詳細なユーザインタフェースを表示しながら、前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することと、
    前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記詳細ユーザインタフェースは、前記第3のアフォーダンスを含む、ことと、
    前記第2の詳細ユーザインタフェースを表示しながら、前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
    前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2のビュー内の前記複数のアフォーダンスを前記ディスプレイ上に表示することと、
    を更に含む、請求項70に記載の方法。
  72. 視覚的メディアの複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスは、前記自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、請求項66又は67に記載の方法。
  73. 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、
    現在の期間に対応する複数のアフォーダンスを前記ディスプレイ上に表示することを含む、請求項66又は67に記載の方法。
  74. 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、
    複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスを前記ディスプレイ上に表示することであって、前記複数のアフォーダンスは、所定数のアフォーダンスである、ことを含む、請求項66又は67に記載の方法。
  75. 視覚的メディアの前記自動生成されたコレクションは、前記デバイスの一般的なコンテキストに文脈的に関連すると判定された、請求項66又は67に記載の方法。
  76. 視覚的メディアの前記第1のコレクションは、前記デバイスの特定のコンテキストに文脈的に関連する、請求項66又は67に記載の方法。
  77. コンテキストは、前記デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、前記デバイスの前記現在位置の近くに現在ある対象地点の視覚的メディア、及び前記デバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、請求項75に記載の方法。
  78. 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、前記複数のアフォーダンスのそれぞれと共にコンテキスト情報を前記ディスプレイ上に表示することを含む、請求項66又は67に記載の方法。
  79. 前記デバイスは、タッチ感知面を含み、前記第2のユーザ入力は、前記タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、前記方法は、
    前記タッチユーザ入力の第1の特性強度を判定することと、
    前記タッチユーザ入力が選択基準を満たしているという判定にしたがって、前記複数のアフォーダンスの表示を前記詳細ユーザインタフェースの表示に置き換えることであって、前記選択基準は、前記選択基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ことと、
    前記タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、前記複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの前記第2のコレクションの表現を含むプレビューユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の強度依存基準は、前記第1の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第1の強度閾値を超えることを要求し、前記第1の強度依存基準は、前記第1の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第2の強度閾値を超えることを要求しない、ことと、
    前記タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、前記複数のアフォーダンスの表示を前記詳細ユーザインタフェースの表示に置き換えることであって、前記第2の強度依存基準は、前記第2の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第1の強度閾値及び前記第2の強度閾値を超えることを要求する、ことと、
    を更に含む、請求項66又は67に記載の方法。
  80. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備える電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
    文脈的関連メディアを表示する要求を受信し、
    前記要求に応答して、
    前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示し、
    前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示する命令を含み、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、電子デバイス。
  81. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
    文脈的関連メディアを表示する要求を受信させ、
    前記要求に応答して、
    前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示させ、
    前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示させ、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、非一時的コンピュータ可読記憶媒体。
  82. ディスプレイと、
    文脈的関連メディアを表示する要求を受信する手段と、
    前記要求に応答して、
    前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示する手段と、
    前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示する手段であって、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、手段と、
    を備える、システム。
  83. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備える電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項1から26のいずれか一項に記載の方法を実行する命令を含む電子デバイス。
  84. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項1から26のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
  85. ディスプレイと、請求項1から26のいずれか一項に記載の方法を実行する手段と、
    を備える、システム。
  86. ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
    視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示し、
    前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信し、
    前記ユーザ入力を受信することに応答して、
    前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定し、
    前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含み、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、電子デバイス。
  87. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、前記デバイスに、
    視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示させ、
    前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、
    前記ユーザ入力を受信することに応答して、
    前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、
    前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示させ、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、非一時的コンピュータ可読記憶媒体。
  88. ディスプレイと、
    タッチ感知面と、
    視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示する手段と、
    前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信する手段と、
    前記ユーザ入力を受信することに応答して、
    前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定する手段と、
    前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示する手段であって、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、手段と、
    を備える、システム。
  89. ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項27から46のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
  90. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、前記デバイスに、請求項27から46のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
  91. ディスプレイと、
    タッチ感知面と、請求項27から46のいずれか一項に記載の方法を実行する手段と、
    を備える、システム。
  92. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
    第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示し、
    前記第1の詳細ユーザインタフェースを表示しながら、
    前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示し、
    前記アフォーダンスの選択に対応するユーザ入力を受信し、
    前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含み、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、電子デバイス。
  93. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
    第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示させ、
    前記第1の詳細ユーザインタフェースを表示しながら、
    前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示させ、
    前記アフォーダンスの選択に対応するユーザ入力を受信させ、
    前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示させ、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、非一時的コンピュータ可読記憶媒体。
  94. ディスプレイと、
    第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示する手段と、
    前記第1の詳細ユーザインタフェースを表示しながら、
    前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示し、
    前記アフォーダンスの選択に対応するユーザ入力を受信する手段と、
    前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示する手段であって、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、手段と、
    を備える、システム。
  95. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項47から65のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
  96. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項47から65のいずれか一項に記載の方法を実行させる、
    非一時的コンピュータ可読記憶媒体。
  97. ディスプレイと、請求項47から65のいずれか一項に記載の方法を実行する手段と、
    を備える、システム。
  98. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
    視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示し、
    前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信し、
    前記第1のユーザ入力を受信することに応答して、
    視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
    前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加し、
    前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、
    前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含む、電子デバイス。
  99. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
    視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示させ、
    前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、
    前記第1のユーザ入力を受信することに応答して、
    視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、
    前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加させ、
    前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、
    前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示させる、非一時的コンピュータ可読記憶媒体。
  100. ディスプレイと、
    視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示する手段と、
    前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信する手段と、
    前記第1のユーザ入力を受信することに応答して、
    視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
    前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加する手段と、
    前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信する手段と、
    前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示する手段と、
    を備える、システム。
  101. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項66から79のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。
  102. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項66から79のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
  103. ディスプレイと、請求項66から79のいずれか一項に記載の方法を実行する手段と、
    を備える、システム。
JP2021094529A 2016-06-12 2021-06-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース Active JP6956910B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662349109P 2016-06-12 2016-06-12
US62/349,109 2016-06-12
DKPA201670608A DK201670608A1 (en) 2016-06-12 2016-08-10 User interfaces for retrieving contextually relevant media content
DKPA201670608 2016-08-10
DKPA201670609 2016-08-10
DKPA201670609A DK201670609A1 (en) 2016-06-12 2016-08-10 User interfaces for retrieving contextually relevant media content
JP2021000224A JP6895028B2 (ja) 2016-06-12 2021-01-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021000224A Division JP6895028B2 (ja) 2016-06-12 2021-01-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2021144739A true JP2021144739A (ja) 2021-09-24
JP6956910B2 JP6956910B2 (ja) 2021-11-02

Family

ID=60572656

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018562937A Active JP6550545B1 (ja) 2016-06-12 2017-05-31 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
JP2019123115A Active JP6820381B2 (ja) 2016-06-12 2019-07-01 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
JP2021000224A Active JP6895028B2 (ja) 2016-06-12 2021-01-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
JP2021094529A Active JP6956910B2 (ja) 2016-06-12 2021-06-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2018562937A Active JP6550545B1 (ja) 2016-06-12 2017-05-31 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
JP2019123115A Active JP6820381B2 (ja) 2016-06-12 2019-07-01 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
JP2021000224A Active JP6895028B2 (ja) 2016-06-12 2021-01-04 文脈的関連メディアコンテンツを検索するためのユーザインタフェース

Country Status (7)

Country Link
US (2) US10073584B2 (ja)
EP (2) EP4064064A1 (ja)
JP (4) JP6550545B1 (ja)
KR (4) KR102257131B1 (ja)
CN (3) CN109684491B (ja)
AU (6) AU2017284958B2 (ja)
DK (2) DK201670608A1 (ja)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
EP2480957B1 (en) 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
KR102103057B1 (ko) 2013-02-07 2020-04-21 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
KR102111769B1 (ko) * 2013-02-08 2020-06-08 삼성전자주식회사 추천 패널 제공 방법 및 이를 위한 디바이스, 추천 아이템 제공 방법 및 이를 위한 서버
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3480811A1 (en) 2014-05-30 2019-05-08 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
USD778942S1 (en) * 2016-01-11 2017-02-14 Apple Inc. Display screen or portion thereof with graphical user interface
CN107015998A (zh) * 2016-01-28 2017-08-04 阿里巴巴集团控股有限公司 一种图片处理方法、装置和智能终端
US10534503B1 (en) 2016-06-06 2020-01-14 Google Llc Motion stills experience
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
KR20180003884A (ko) * 2016-07-01 2018-01-10 삼성전자주식회사 전자 장치 및 그의 정보 제공 방법
EP3654290A1 (en) 2016-09-23 2020-05-20 Apple Inc. Avatar creation and editing
US10817895B2 (en) 2016-12-30 2020-10-27 Adobe Inc. Marketing campaign system and method
USD845974S1 (en) * 2016-12-30 2019-04-16 Adobe Inc. Graphical user interface for displaying a marketing campaign on a screen
USD849029S1 (en) * 2016-12-30 2019-05-21 Adobe Inc. Display screen with graphical user interface for a marketing campaign
US10158828B2 (en) * 2017-04-05 2018-12-18 Facebook, Inc. Customized graphics for video conversations
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US11323398B1 (en) * 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
USD880493S1 (en) * 2017-08-14 2020-04-07 Hong Kong Liveme Corporation Limited Mobile communication terminal display screen with a transitional graphical user interface
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US10524010B2 (en) * 2017-11-07 2019-12-31 Facebook, Inc. Social interaction user interface for videos
USD861025S1 (en) * 2018-01-23 2019-09-24 Whatsapp Inc. Display screen with an animated graphical user interface
USD870742S1 (en) 2018-01-26 2019-12-24 Facebook, Inc. Display screen or portion thereof with animated user interface
DK201870364A1 (en) 2018-05-07 2019-12-03 Apple Inc. MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
WO2020028870A1 (en) * 2018-08-03 2020-02-06 Panoramiq Markets Inc. Location-based verification of user requests, identification of matching users based on image analysis, and generation of notifications on mobile devices
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
WO2020076287A1 (en) * 2018-10-08 2020-04-16 Google Llc Systems and methods for displaying media files
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
CN109905772B (zh) * 2019-03-12 2022-07-22 腾讯科技(深圳)有限公司 视频片段查询方法、装置、计算机设备及存储介质
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11467726B2 (en) * 2019-03-24 2022-10-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
DK201970535A1 (en) * 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
WO2020227273A1 (en) * 2019-05-06 2020-11-12 Apple Inc. Media browsing user interface with intelligently selected representative media items
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) * 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
CN113939795A (zh) * 2019-05-31 2022-01-14 苹果公司 用于更新主屏幕用户界面和唤醒屏幕用户界面的背景的设备、方法和图形用户界面
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
USD970516S1 (en) * 2019-06-20 2022-11-22 Yandex Europe Ag Display screen or portion thereof with graphical user interface
US11237716B2 (en) 2019-10-14 2022-02-01 Sling TV L.L.C. Devices, systems and processes for facilitating user adaptive progressions through content
DK202070613A1 (en) 2020-02-14 2021-10-15 Apple Inc User interfaces for workout content
CN111294656B (zh) * 2020-03-12 2021-09-14 北京字节跳动网络技术有限公司 用于调节视频播放的方法、装置和电子设备
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11843574B2 (en) * 2020-05-21 2023-12-12 Snap Inc. Featured content collection interface
US11294538B2 (en) * 2020-06-03 2022-04-05 Snap Inc. Timeline media content navigation system
CN111813303B (zh) * 2020-06-10 2022-01-28 维沃移动通信有限公司 文本处理方法、装置、电子设备及可读存储介质
US11539647B1 (en) * 2020-06-17 2022-12-27 Meta Platforms, Inc. Message thread media gallery
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11416917B2 (en) * 2020-08-04 2022-08-16 Contextlogic, Inc. Content carousel
CN114095905A (zh) * 2020-08-05 2022-02-25 华为技术有限公司 设备交互方法和电子设备
CN112087661B (zh) * 2020-08-25 2022-07-22 腾讯科技(上海)有限公司 视频集锦生成方法、装置、设备及存储介质
USD962279S1 (en) * 2020-10-14 2022-08-30 Kwai Games Pte, Ltd. Display screen or portion thereof with graphical user interface
US11671697B2 (en) * 2021-01-31 2023-06-06 Apple Inc. User interfaces for wide angle video conference
USD1013716S1 (en) * 2021-04-01 2024-02-06 Instasize, Inc. Display screen or portion thereof with a graphical user interface
USD1013715S1 (en) * 2021-04-01 2024-02-06 Instasize, Inc. Display screen or portion thereof with a graphical user interface
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
USD1012099S1 (en) * 2021-05-25 2024-01-23 Beijing Kuaimajiabian Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
US20220382811A1 (en) * 2021-06-01 2022-12-01 Apple Inc. Inclusive Holidays
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
CN116861019A (zh) * 2022-01-14 2023-10-10 荣耀终端有限公司 图片显示方法及电子设备
JP1738171S (ja) * 2022-02-22 2023-03-03 X線ct装置
US11893204B2 (en) 2022-05-23 2024-02-06 Snap Inc. Context cards for media supplementation

Family Cites Families (388)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
JPH03217976A (ja) 1990-01-23 1991-09-25 Canon Inc 画像処理システム
US5196838A (en) 1990-12-28 1993-03-23 Apple Computer, Inc. Intelligent scrolling
US5416895A (en) 1992-04-08 1995-05-16 Borland International, Inc. System and methods for improved spreadsheet interface with user-familiar objects
US5583542A (en) 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
US5604861A (en) 1992-12-28 1997-02-18 International Business Machines Corporation Method and apparatus for improved notebook control in a data procesing system
JPH06309138A (ja) 1993-04-26 1994-11-04 Toshiba Corp タッチパネルを使用した画面制御方法
JP3337798B2 (ja) 1993-12-24 2002-10-21 キヤノン株式会社 画像データ及び音声データを処理する装置、データ処理装置並びにデータ処理方法
JP3974948B2 (ja) 1994-10-07 2007-09-12 株式会社日立製作所 ページめくり表示方法および装置
US5565888A (en) 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US5757368A (en) 1995-03-27 1998-05-26 Cirque Corporation System and method for extending the drag function of a computer pointing device
US5677708A (en) 1995-05-05 1997-10-14 Microsoft Corporation System for displaying a list on a display screen
US5973694A (en) 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
JPH099072A (ja) 1995-06-26 1997-01-10 Aibitsukusu Kk 情報通信システム
US5784061A (en) 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
JPH1093848A (ja) 1996-09-17 1998-04-10 Nikon Corp 電子カメラ
US6128012A (en) 1996-09-19 2000-10-03 Microsoft Corporation User interface for a portable data management device with limited size and processing capability
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US5956035A (en) 1997-05-15 1999-09-21 Sony Corporation Menu selection with menu stem and submenu size enlargement
US6233015B1 (en) 1997-06-27 2001-05-15 Eastman Kodak Company Camera with user compliant browse and display modes
US6920619B1 (en) 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6301586B1 (en) 1997-10-06 2001-10-09 Canon Kabushiki Kaisha System for managing multimedia objects
US6237010B1 (en) 1997-10-06 2001-05-22 Canon Kabushiki Kaisha Multimedia application using flashpix file format
JP4280314B2 (ja) 1997-11-27 2009-06-17 富士フイルム株式会社 画面表示部を有する機器の操作装置
EP1717681B1 (en) 1998-01-26 2015-04-29 Apple Inc. Method for integrating manual input
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6784925B1 (en) 1998-03-24 2004-08-31 Canon Kabushiki Kaisha System to manage digital camera images
US6252596B1 (en) 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US6167469A (en) 1998-05-18 2000-12-26 Agilent Technologies, Inc. Digital camera having display device for displaying graphical representation of user input and method for transporting the selected digital images thereof
US6292273B1 (en) 1998-08-07 2001-09-18 Hewlett-Packard Company Appliance and method of using same having a delete capability for saved data
US6453078B2 (en) 1998-08-28 2002-09-17 Eastman Kodak Company Selecting, arranging, and printing digital images from thumbnail images
US6606411B1 (en) 1998-09-30 2003-08-12 Eastman Kodak Company Method for automatically classifying images into events
JP2000138883A (ja) 1998-11-02 2000-05-16 Olympus Optical Co Ltd 画像取り扱い装置
US6351556B1 (en) 1998-11-20 2002-02-26 Eastman Kodak Company Method for automatically comparing content of images for classification into events
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6279018B1 (en) 1998-12-21 2001-08-21 Kudrollis Software Inventions Pvt. Ltd. Abbreviating and compacting text to cope with display space constraint in computer software
US6441824B2 (en) 1999-01-25 2002-08-27 Datarover Mobile Systems, Inc. Method and apparatus for dynamic text resizing
JP3519007B2 (ja) 1999-01-29 2004-04-12 シャープ株式会社 地図情報表示機能を有する情報機器及び地図情報表示方法並びに地図情報表示プログラムを記録した記録媒体
JP2000244637A (ja) * 1999-02-23 2000-09-08 Hitachi Telecom Technol Ltd 連接回線障害時における接続方法
JP2000244673A (ja) 1999-02-24 2000-09-08 Matsushita Electric Ind Co Ltd 携帯電話装置及び方法
JP2000350134A (ja) 1999-06-08 2000-12-15 Sony Corp デジタルカメラ
JP3941292B2 (ja) 1999-07-26 2007-07-04 日本電気株式会社 ページ情報表示方法及び装置並びにページ情報表示用のプログラム又はデータを記憶した記憶媒体
US6452597B1 (en) 1999-08-24 2002-09-17 Microsoft Corporation Displaying text on a limited-area display surface
CN1156746C (zh) 1999-10-20 2004-07-07 皇家菲利浦电子有限公司 浏览图像集合的设备和方法
JP4264170B2 (ja) 1999-11-02 2009-05-13 富士フイルム株式会社 撮像装置およびその制御方法
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6686938B1 (en) 2000-01-05 2004-02-03 Apple Computer, Inc. Method and system for providing an embedded application toolbar
US7415662B2 (en) 2000-01-31 2008-08-19 Adobe Systems Incorporated Digital media management apparatus and methods
GB2359177A (en) 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
US20020021758A1 (en) 2000-03-15 2002-02-21 Chui Charles K. System and method for efficient transmission and display of image details by re-usage of compressed data
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP4325075B2 (ja) 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
JP3396718B2 (ja) 2000-04-24 2003-04-14 株式会社ヘリオス 通信端末装置、画像情報記憶方法および情報記憶媒体
US6995875B2 (en) 2000-06-07 2006-02-07 Hewlett-Packard Development Company, L.P. Appliance and method for navigating among multiple captured images and functional menus
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
US7657916B2 (en) 2000-07-31 2010-02-02 Cisco Technology, Inc. Digital subscriber television networks with local physical storage devices and virtual storage
WO2002012990A2 (en) 2000-08-04 2002-02-14 Copan Inc. Method and system for presenting digital media
US8701022B2 (en) * 2000-09-26 2014-04-15 6S Limited Method and system for archiving and retrieving items based on episodic memory of groups of people
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
JP2002152559A (ja) 2000-11-07 2002-05-24 Olympus Optical Co Ltd 電子カメラ装置および画像処理装置
KR100377936B1 (ko) 2000-12-16 2003-03-29 삼성전자주식회사 이동통신 단말기의 감정 아이콘 입력방법
US6950989B2 (en) 2000-12-20 2005-09-27 Eastman Kodak Company Timeline-based graphical user interface for efficient image database browsing and retrieval
US7015910B2 (en) 2000-12-21 2006-03-21 Xerox Corporation Methods, systems, and computer program products for the display and operation of virtual three-dimensional books
US7139982B2 (en) 2000-12-21 2006-11-21 Xerox Corporation Navigation methods, systems, and computer program products for virtual three-dimensional books
EP1223757B1 (en) 2001-01-09 2006-03-22 Metabyte Networks, Inc. System, method, and software application for targeted advertising via behavioral model clustering, and preference programming based on behavioral model clusters
US20020093531A1 (en) 2001-01-17 2002-07-18 John Barile Adaptive display for video conferences
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6964025B2 (en) 2001-03-20 2005-11-08 Microsoft Corporation Auto thumbnail gallery
US6915011B2 (en) 2001-03-28 2005-07-05 Eastman Kodak Company Event clustering of images using foreground/background segmentation
US7930624B2 (en) 2001-04-20 2011-04-19 Avid Technology, Inc. Editing time-based media with enhanced content
US8028249B2 (en) 2001-05-23 2011-09-27 Eastman Kodak Company Method and system for browsing large digital multimedia object collections
US6996782B2 (en) 2001-05-23 2006-02-07 Eastman Kodak Company Using digital objects organized according to a histogram timeline
JP2003076647A (ja) 2001-08-31 2003-03-14 Hitachi Ltd メール送受信方法およびそれを用いる装置
US7299418B2 (en) 2001-09-10 2007-11-20 International Business Machines Corporation Navigation method for visual presentations
FI114175B (fi) 2001-09-10 2004-08-31 Myorigo Oy Navigointimenetelmä, ohjelmatuote ja laite tiedon esittämiseksi käyttöliittymässä
JP2003091347A (ja) 2001-09-18 2003-03-28 Sony Corp 情報処理装置、並びに画面表示方法、画面表示プログラム及び画面表示プログラムが記録された記録媒体
FR2830093A3 (fr) 2001-09-25 2003-03-28 Bahia 21 Corp Procede de navigation par ecran tactile
US7480864B2 (en) 2001-10-12 2009-01-20 Canon Kabushiki Kaisha Zoom editor
US6970200B2 (en) 2001-10-26 2005-11-29 Hewlett-Packard Development Company, L.P. System and method for a simplified digital camera interface for viewing images and controlling camera operation
US6961908B2 (en) 2001-12-05 2005-11-01 International Business Machines Corporation System and method for navigating graphical images
US7970240B1 (en) 2001-12-17 2011-06-28 Google Inc. Method and apparatus for archiving and visualizing digital images
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US7266836B2 (en) 2002-02-04 2007-09-04 Nokia Corporation Tune alerts for remotely adjusting a tuner
WO2003081458A1 (en) 2002-03-19 2003-10-02 America Online, Inc. Controlling content display
US7433546B2 (en) 2004-10-25 2008-10-07 Apple Inc. Image scaling arrangement
US6882337B2 (en) 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
JP3977684B2 (ja) 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
JP2003345491A (ja) 2002-05-24 2003-12-05 Sharp Corp 表示入力装置、表示入力方法、プログラムおよび記録媒体
JP2004032346A (ja) 2002-06-26 2004-01-29 Toshiba Corp 画像撮影装置
US20040019640A1 (en) * 2002-07-25 2004-01-29 Bartram Linda Ruth System and method for distributing shared storage for collaboration across multiple devices
JP2004145291A (ja) 2002-10-03 2004-05-20 Casio Comput Co Ltd 画像表示装置、画像表示方法及びプログラム
US7515903B1 (en) 2002-10-28 2009-04-07 At&T Mobility Ii Llc Speech to message processing
US20040085457A1 (en) 2002-10-31 2004-05-06 Thorland Miles K. Reviewing stored images
KR100471594B1 (ko) 2002-11-26 2005-03-10 엔에이치엔(주) 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체
US7360172B2 (en) 2002-12-19 2008-04-15 Microsoft Corporation Contact controls
JP2004213129A (ja) 2002-12-27 2004-07-29 Fuji Photo Film Co Ltd 画像分類方法および装置並びにプログラム
US7325198B2 (en) 2002-12-31 2008-01-29 Fuji Xerox Co., Ltd. Calendar-based interfaces for browsing and manipulation of digital images
US7663605B2 (en) 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
US7509321B2 (en) 2003-01-21 2009-03-24 Microsoft Corporation Selection bins for browsing, annotating, sorting, clustering, and filtering media objects
US20040158555A1 (en) 2003-02-11 2004-08-12 Terradigtal Systems Llc. Method for managing a collection of media objects
US7478096B2 (en) 2003-02-26 2009-01-13 Burnside Acquisition, Llc History preservation in a computer storage system
US7380212B2 (en) 2003-03-18 2008-05-27 Microsoft Corporation Dynamic-template incorporation of digital images in an electronic mail message
CN100370799C (zh) 2003-04-18 2008-02-20 卡西欧计算机株式会社 具有通信功能的成像设备和图像数据存储方法
JP4374610B2 (ja) 2003-04-18 2009-12-02 カシオ計算機株式会社 撮像装置、画像データ記憶方法、及び、プログラム
JP4236986B2 (ja) 2003-05-09 2009-03-11 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP2004363892A (ja) 2003-06-04 2004-12-24 Canon Inc 携帯機器
JP4145746B2 (ja) 2003-07-17 2008-09-03 シャープ株式会社 情報出力装置、情報出力方法、情報出力プログラム、および該プログラムを記録した記録媒体
US7164410B2 (en) 2003-07-28 2007-01-16 Sig G. Kupka Manipulating an on-screen object using zones surrounding the object
US7747625B2 (en) 2003-07-31 2010-06-29 Hewlett-Packard Development Company, L.P. Organizing a collection of objects
US7398479B2 (en) 2003-08-20 2008-07-08 Acd Systems, Ltd. Method and system for calendar-based image asset organization
JP2005102126A (ja) 2003-08-21 2005-04-14 Casio Comput Co Ltd 通信機能付撮像装置および表示処理方法
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
US7078785B2 (en) 2003-09-23 2006-07-18 Freescale Semiconductor, Inc. Semiconductor device and making thereof
JP2005100084A (ja) 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
US20050071736A1 (en) 2003-09-26 2005-03-31 Fuji Xerox Co., Ltd. Comprehensive and intuitive media collection and management tool
US7484175B2 (en) 2003-09-30 2009-01-27 International Business Machines Corporation Method and apparatus for increasing personability of instant messaging with user images
US7313574B2 (en) 2003-10-02 2007-12-25 Nokia Corporation Method for clustering and querying media items
US7545428B2 (en) 2003-10-02 2009-06-09 Hewlett-Packard Development Company, L.P. System and method for managing digital images
US7636733B1 (en) 2003-10-03 2009-12-22 Adobe Systems Incorporated Time-based image management
US7343568B2 (en) 2003-11-10 2008-03-11 Yahoo! Inc. Navigation pattern on a directory tree
JP2005150836A (ja) 2003-11-11 2005-06-09 Canon Inc 撮影装置
US7680340B2 (en) 2003-11-13 2010-03-16 Eastman Kodak Company Method of using temporal context for image classification
JP4457660B2 (ja) 2003-12-12 2010-04-28 パナソニック株式会社 画像分類装置、画像分類システム、画像分類に関するプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4292399B2 (ja) 2003-12-12 2009-07-08 ソニー株式会社 画像処理装置および画像処理方法
US20050134945A1 (en) 2003-12-17 2005-06-23 Canon Information Systems Research Australia Pty. Ltd. 3D view for digital photograph management
JP4373199B2 (ja) 2003-12-17 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 電子メール作成装置および通信端末
JP2005202483A (ja) 2004-01-13 2005-07-28 Sony Corp 情報処理装置および方法、並びにプログラム
JP2005202651A (ja) 2004-01-15 2005-07-28 Canon Inc 情報処理装置、情報処理方法、プログラムを記録した記録媒体及び制御プログラム
US20050195221A1 (en) * 2004-03-04 2005-09-08 Adam Berger System and method for facilitating the presentation of content via device displays
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
JP2005303728A (ja) 2004-04-13 2005-10-27 Fuji Photo Film Co Ltd デジタルカメラ
JP2005321516A (ja) 2004-05-07 2005-11-17 Mitsubishi Electric Corp 携帯機器
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
JP5055684B2 (ja) 2004-05-13 2012-10-24 ソニー株式会社 画像フォルダ切替装置
JP4855654B2 (ja) 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
US7464110B2 (en) 2004-06-30 2008-12-09 Nokia Corporation Automated grouping of image and other user data
TWI248576B (en) 2004-07-05 2006-02-01 Elan Microelectronics Corp Method for controlling rolling of scroll bar on a touch panel
JP4903371B2 (ja) 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
JP2006067344A (ja) 2004-08-27 2006-03-09 Mitsubishi Electric Corp 画像付きメールの送信方法および通信端末装置
CN1756273A (zh) 2004-09-27 2006-04-05 华为技术有限公司 一种在手持设备电话簿中增加联系人信息的方法
KR101058011B1 (ko) 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
US20060077266A1 (en) 2004-10-08 2006-04-13 Nokia Corporation Image processing in a communication device having a camera
US7778671B2 (en) 2004-10-08 2010-08-17 Nokia Corporation Mobile communications terminal having an improved user interface and method therefor
KR101058013B1 (ko) 2004-10-13 2011-08-19 삼성전자주식회사 터치 스크린을 갖는 디지털 저장 장치의 섬네일 이미지검색 방법
JP4565495B2 (ja) 2004-11-10 2010-10-20 富士通株式会社 端末装置、端末装置のメール処理方法及びメール処理プログラム
JP4306592B2 (ja) 2004-11-15 2009-08-05 ソニー株式会社 再生装置、表示制御方法
US20060136839A1 (en) 2004-12-22 2006-06-22 Nokia Corporation Indicating related content outside a display area
US7865215B2 (en) 2005-01-07 2011-01-04 Research In Motion Limited Magnification of currently selected menu item
US8024658B1 (en) 2005-01-09 2011-09-20 Apple Inc. Application for designing photo albums
US7606437B2 (en) 2005-01-11 2009-10-20 Eastman Kodak Company Image processing based on ambient air attributes
JP4932159B2 (ja) 2005-01-11 2012-05-16 Necカシオモバイルコミュニケーションズ株式会社 通信端末、通信端末の表示方法、及び、コンピュータプログラム
US7796116B2 (en) * 2005-01-12 2010-09-14 Thinkoptics, Inc. Electronic equipment for handheld vision based absolute pointing system
US7421449B2 (en) 2005-01-12 2008-09-02 Microsoft Corporation Systems and methods for managing a life journal
US7716194B2 (en) 2005-01-12 2010-05-11 Microsoft Corporation File management system employing time line based representation of data
US7788592B2 (en) 2005-01-12 2010-08-31 Microsoft Corporation Architecture and engine for time line based visualization of data
US20060156237A1 (en) 2005-01-12 2006-07-13 Microsoft Corporation Time line based user interface for visualization of data
JP4481842B2 (ja) 2005-01-24 2010-06-16 キヤノン株式会社 撮像装置及びその制御方法
JP2006236249A (ja) 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd 電子メールの添付画像ファイル生成装置ならびにその方法およびその制御プログラム
US7403642B2 (en) * 2005-04-21 2008-07-22 Microsoft Corporation Efficient propagation for face annotation
US7587671B2 (en) 2005-05-17 2009-09-08 Palm, Inc. Image repositioning, storage and retrieval
US8085318B2 (en) 2005-10-11 2011-12-27 Apple Inc. Real-time image capture and manipulation based on streaming data
JP4782105B2 (ja) 2005-06-30 2011-09-28 パナソニック株式会社 画像処理装置及び画像処理方法
FI20055369A0 (fi) 2005-06-30 2005-06-30 Nokia Corp Menetelmä ja laite digitaalisten mediatiedostojen käsittelemiseksi
US20070008321A1 (en) 2005-07-11 2007-01-11 Eastman Kodak Company Identifying collection images with special events
JP4600203B2 (ja) 2005-08-08 2010-12-15 株式会社日立製作所 映像再生示装置
US7697040B2 (en) 2005-10-31 2010-04-13 Lightbox Network, Inc. Method for digital photo management and distribution
US7663671B2 (en) 2005-11-22 2010-02-16 Eastman Kodak Company Location based image classification with map segmentation
US20070136778A1 (en) 2005-12-09 2007-06-14 Ari Birger Controller and control method for media retrieval, routing and playback
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
CN102169415A (zh) 2005-12-30 2011-08-31 苹果公司 具有多重触摸输入的便携式电子设备
US7978936B1 (en) * 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US7864978B2 (en) 2006-02-06 2011-01-04 Microsoft Corporation Smart arrangement and cropping for photo views
US7559027B2 (en) 2006-02-28 2009-07-07 Palm, Inc. Master multimedia software controls
US20070229678A1 (en) 2006-03-31 2007-10-04 Ricoh Company, Ltd. Camera for generating and sharing media keys
US7627828B1 (en) 2006-04-12 2009-12-01 Google Inc Systems and methods for graphically representing users of a messaging system
KR20070102346A (ko) * 2006-04-13 2007-10-18 삼성전자주식회사 디바이스의 XHTML-Print 데이터 생성 방법 및장치
JP2007287014A (ja) * 2006-04-19 2007-11-01 Seiko Epson Corp 画像処理装置、画像処理方法
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
EP2010999A4 (en) 2006-04-21 2012-11-21 Google Inc SYSTEM FOR ORGANIZING AND VISUALIZING DISPLAY OBJECTS
US7503007B2 (en) 2006-05-16 2009-03-10 International Business Machines Corporation Context enhanced messaging and collaboration system
CN101196786B (zh) 2006-06-12 2010-04-14 左莉 光学鼠标的可更换部件和重复使用部件
US20080030456A1 (en) 2006-07-19 2008-02-07 Sony Ericsson Mobile Communications Ab Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device
US7791594B2 (en) 2006-08-30 2010-09-07 Sony Ericsson Mobile Communications Ab Orientation based multiple mode mechanically vibrated touch screen display
US7855714B2 (en) 2006-09-01 2010-12-21 Research In Motion Limited Method and apparatus for controlling a display in an electronic device
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080091637A1 (en) 2006-10-17 2008-04-17 Terry Dwain Escamilla Temporal association between assets in a knowledge system
JP5156217B2 (ja) 2006-10-24 2013-03-06 株式会社E−マテリアル 耐火被覆材、耐火被覆材の塗工方法、及び耐火被覆の被膜
US7779358B1 (en) 2006-11-30 2010-08-17 Adobe Systems Incorporated Intelligent content organization based on time gap analysis
KR100912877B1 (ko) 2006-12-02 2009-08-18 한국전자통신연구원 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법
US20080133697A1 (en) 2006-12-05 2008-06-05 Palm, Inc. Auto-blog from a mobile device
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
WO2008111115A1 (ja) 2007-03-09 2008-09-18 Pioneer Corporation Av処理装置およびプログラム
JP5287716B2 (ja) 2007-04-13 2013-09-11 日本電気株式会社 写真グループ化装置、写真グループ化方法、および写真グループ化用プログラム
JP4564512B2 (ja) 2007-04-16 2010-10-20 富士通株式会社 表示装置、表示プログラム、および表示方法
US7843454B1 (en) 2007-04-25 2010-11-30 Adobe Systems Incorporated Animated preview of images
US8732161B2 (en) * 2007-04-27 2014-05-20 The Regents Of The University Of California Event based organization and access of digital photos
US7979809B2 (en) 2007-05-11 2011-07-12 Microsoft Corporation Gestured movement of object to display edge
US8934717B2 (en) 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US20090006965A1 (en) 2007-06-26 2009-01-01 Bodin William K Assisting A User In Editing A Motion Picture With Audio Recast Of A Legacy Web Page
US8717412B2 (en) 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
JP5128880B2 (ja) * 2007-08-30 2013-01-23 オリンパスイメージング株式会社 画像取扱装置
US20090063542A1 (en) 2007-09-04 2009-03-05 Bull William E Cluster Presentation of Digital Assets for Electronic Devices
US20090066648A1 (en) * 2007-09-07 2009-03-12 Apple Inc. Gui applications for use with 3d remote controller
US20090113315A1 (en) 2007-10-26 2009-04-30 Yahoo! Inc. Multimedia Enhanced Instant Messaging Engine
US20090113350A1 (en) 2007-10-26 2009-04-30 Stacie Lynn Hibino System and method for visually summarizing and interactively browsing hierarchically structured digital objects
KR20090050577A (ko) 2007-11-16 2009-05-20 삼성전자주식회사 멀티미디어 컨텐츠를 표시 및 재생하는 사용자인터페이스및 그 장치와 제어방법
JP4709199B2 (ja) 2007-11-19 2011-06-22 デジタル・アドバタイジング・コンソーシアム株式会社 広告評価システム及び広告評価方法
US8150098B2 (en) 2007-12-20 2012-04-03 Eastman Kodak Company Grouping images by location
WO2009082814A1 (en) * 2007-12-31 2009-07-09 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
US8099679B2 (en) * 2008-02-14 2012-01-17 Palo Alto Research Center Incorporated Method and system for traversing digital records with multiple dimensional attributes
US20090216806A1 (en) * 2008-02-24 2009-08-27 Allofme Ltd. Digital assets internet timeline aggregation and sharing platform
US8132116B1 (en) 2008-02-28 2012-03-06 Adobe Systems Incorporated Configurable iconic image representation
WO2009122684A1 (ja) 2008-04-01 2009-10-08 Yanase Takatoshi 表示システム、表示方法、プログラム、及び記録媒体
US8335996B2 (en) 2008-04-10 2012-12-18 Perceptive Pixel Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
JP5383668B2 (ja) 2008-04-30 2014-01-08 株式会社アクロディア キャラクタ表示用データの生成装置および方法
WO2009137688A2 (en) 2008-05-07 2009-11-12 Carrot Medical Llc Integration system for medical instruments with remote control
US8620641B2 (en) 2008-05-16 2013-12-31 Blackberry Limited Intelligent elision
KR101488726B1 (ko) 2008-05-27 2015-02-06 삼성전자주식회사 위젯 창을 표시하는 디스플레이 장치 및 이를 포함하는디스플레이 시스템과 그 디스플레이 방법
GB2460844B (en) 2008-06-10 2012-06-06 Half Minute Media Ltd Automatic detection of repeating video sequences
US8339451B2 (en) * 2008-06-27 2012-12-25 Nokia Corporation Image navigation with multiple images
AU2008358849A1 (en) 2008-06-30 2010-01-07 Accenture Global Services Limited Gaming system
WO2010000074A1 (en) 2008-07-03 2010-01-07 Germann Stephen R Method and system for applying metadata to data sets of file objects
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8200669B1 (en) 2008-08-21 2012-06-12 Adobe Systems Incorporated Management of smart tags via hierarchy
US20100076976A1 (en) 2008-09-06 2010-03-25 Zlatko Manolov Sotirov Method of Automatically Tagging Image Data
JP4752897B2 (ja) 2008-10-31 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR20100052676A (ko) 2008-11-11 2010-05-20 삼성전자주식회사 컨텐츠 앨범화 장치 및 그 방법
US8611677B2 (en) 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5289022B2 (ja) 2008-12-11 2013-09-11 キヤノン株式会社 情報処理装置及び情報処理方法
US8122024B2 (en) * 2008-12-12 2012-02-21 Research In Motion Limited Method and system for storing multiple geo-tagged media files and rendering the same
US8566403B2 (en) 2008-12-23 2013-10-22 At&T Mobility Ii Llc Message content management system
TWM361674U (en) 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US8698920B2 (en) 2009-02-24 2014-04-15 Olympus Imaging Corp. Image display apparatus and image display method
CN101854278A (zh) * 2009-04-01 2010-10-06 升东网络科技发展(上海)有限公司 即时通讯中的多媒体传输系统和方法
JP2010259064A (ja) 2009-04-03 2010-11-11 Olympus Imaging Corp 表示装置及び撮像装置
US8601087B2 (en) 2009-05-22 2013-12-03 Cisco Technology, Inc. Configuring channels for sharing media
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US20110145327A1 (en) 2009-06-19 2011-06-16 Moment Usa, Inc. Systems and methods of contextualizing and linking media items
US20110035700A1 (en) 2009-08-05 2011-02-10 Brian Meaney Multi-Operation User Interface Tool
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US20110044563A1 (en) * 2009-08-24 2011-02-24 Blose Andrew C Processing geo-location information associated with digital image files
US20110050564A1 (en) 2009-09-01 2011-03-03 Motorola, Inc. Dynamic Picture Frame in Electronic Handset
US20110050640A1 (en) 2009-09-03 2011-03-03 Niklas Lundback Calibration for a Large Scale Multi-User, Multi-Touch System
US20110099199A1 (en) 2009-10-27 2011-04-28 Thijs Stalenhoef Method and System of Detecting Events in Image Collections
US9152318B2 (en) * 2009-11-25 2015-10-06 Yahoo! Inc. Gallery application for content viewing
US8571331B2 (en) 2009-11-30 2013-10-29 Xerox Corporation Content based image selection for automatic photo album generation
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
JP2011209887A (ja) 2010-03-29 2011-10-20 Sannetto:Kk アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
US8326880B2 (en) 2010-04-05 2012-12-04 Microsoft Corporation Summarizing streams of information
US8495057B2 (en) * 2010-05-17 2013-07-23 Microsoft Corporation Image searching with recognition suggestion
US8694899B2 (en) 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US8484562B2 (en) 2010-06-25 2013-07-09 Apple Inc. Dynamic text adjustment in a user interface element
US9727128B2 (en) * 2010-09-02 2017-08-08 Nokia Technologies Oy Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
US8564728B2 (en) * 2010-09-08 2013-10-22 Telefonaktiebolaget L M Ericsson (Publ) Gesture-based control of IPTV system
US9195637B2 (en) 2010-11-03 2015-11-24 Microsoft Technology Licensing, Llc Proportional font scaling
US9477311B2 (en) * 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US8612441B2 (en) 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
AU2012225536B9 (en) 2011-03-07 2014-01-09 Kba2, Inc. Systems and methods for analytic data gathering from image providers at an event or geographic location
TW201239869A (en) 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for adjusting font size on screen
JP5735330B2 (ja) 2011-04-08 2015-06-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US20120311444A1 (en) * 2011-06-05 2012-12-06 Apple Inc. Portable multifunction device, method, and graphical user interface for controlling media playback using gestures
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9552376B2 (en) * 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8582828B2 (en) * 2011-06-24 2013-11-12 Google Inc. Using photographs to manage groups
US9411506B1 (en) 2011-06-28 2016-08-09 Google Inc. Providing additional functionality for a group messaging application
US20130022282A1 (en) 2011-07-19 2013-01-24 Fuji Xerox Co., Ltd. Methods for clustering collections of geo-tagged photographs
KR101552194B1 (ko) 2011-07-20 2015-09-11 네이버 주식회사 영상을 앨범 단위로 관리 및 공유하는 시스템 및 방법
KR101832959B1 (ko) 2011-08-10 2018-02-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US8625904B2 (en) 2011-08-30 2014-01-07 Intellectual Ventures Fund 83 Llc Detecting recurring themes in consumer image collections
CN102271241A (zh) 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及系统
US20140198234A1 (en) * 2011-09-21 2014-07-17 Nikon Corporation Image processing apparatus, program, image processing method, and imaging apparatus
JP5983983B2 (ja) 2011-10-03 2016-09-06 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5967794B2 (ja) * 2011-10-06 2016-08-10 Kddi株式会社 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法
US9143601B2 (en) 2011-11-09 2015-09-22 Microsoft Technology Licensing, Llc Event-based media grouping, playback, and sharing
US9230223B2 (en) 2011-12-05 2016-01-05 Houzz, Inc. Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system
US9256620B2 (en) * 2011-12-20 2016-02-09 Amazon Technologies, Inc. Techniques for grouping images
US9292195B2 (en) 2011-12-29 2016-03-22 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
KR101303166B1 (ko) * 2012-01-26 2013-09-09 엘지전자 주식회사 이동 단말기 및 그의 사진 검색방법
KR101907136B1 (ko) 2012-01-27 2018-10-11 라인 가부시키가이샤 유무선 웹을 통한 아바타 서비스 시스템 및 방법
KR102024587B1 (ko) 2012-02-02 2019-09-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2013120851A1 (en) 2012-02-13 2013-08-22 Mach-3D Sàrl Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
US9301114B2 (en) 2012-02-22 2016-03-29 Nokia Technologies Oy Method and apparatus for determining significant places
US20130239049A1 (en) 2012-03-06 2013-09-12 Apple Inc. Application for creating journals
US9411875B2 (en) 2012-03-31 2016-08-09 Peking University Tag refinement strategies for social tagging systems
CN102681847B (zh) * 2012-04-28 2015-06-03 华为终端有限公司 触屏终端对象处理方法及触屏终端
US20130293686A1 (en) 2012-05-03 2013-11-07 Qualcomm Incorporated 3d reconstruction of human subject using a mobile device
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN102693311B (zh) * 2012-05-28 2014-07-23 中国人民解放军信息工程大学 基于随机化视觉词典组和上下文语义信息的目标检索方法
US9021034B2 (en) 2012-07-09 2015-04-28 Facebook, Inc. Incorporating external event information into a social networking system
US9092455B2 (en) * 2012-07-17 2015-07-28 Microsoft Technology Licensing, Llc Image curation
US9282153B2 (en) 2012-07-19 2016-03-08 Empire Technology Development Llc Content suggestion for posting on communication network
US20140055495A1 (en) 2012-08-22 2014-02-27 Lg Cns Co., Ltd. Responsive user interface engine for display devices
US9147008B2 (en) 2012-09-13 2015-09-29 Cisco Technology, Inc. Activity based recommendations within a social networking environment based upon graph activation
US20140082533A1 (en) 2012-09-20 2014-03-20 Adobe Systems Incorporated Navigation Interface for Electronic Content
JP5925655B2 (ja) 2012-09-28 2016-05-25 富士フイルム株式会社 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
KR102004287B1 (ko) 2012-10-17 2019-07-26 에스케이플래닛 주식회사 이모티콘 생성 장치 및 이모티콘 생성 방법
US9870554B1 (en) 2012-10-23 2018-01-16 Google Inc. Managing documents based on a user's calendar
JP2014093003A (ja) 2012-11-05 2014-05-19 Robot:Kk 書籍作成システム及び書籍印刷システム
JP2014095979A (ja) * 2012-11-08 2014-05-22 Sony Corp 電子機器、画像データ処理方法およびプログラム
KR102083209B1 (ko) 2012-11-22 2020-03-02 삼성전자 주식회사 데이터 제공 방법 및 휴대 단말
JP2014109881A (ja) 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
US9778819B2 (en) * 2012-12-07 2017-10-03 Google Inc. Displaying a stream of content
US20140172622A1 (en) * 2012-12-14 2014-06-19 Rawllin International Inc. Selecting and scrolling media content associated with media content items
CN104782120B (zh) 2012-12-17 2018-08-10 英特尔公司 化身动画制作方法、计算设备和存储介质
WO2014105916A2 (en) 2012-12-26 2014-07-03 Google Inc. Promoting sharing in a social network system
US20140189584A1 (en) 2012-12-27 2014-07-03 Compal Communications, Inc. Method for switching applications in user interface and electronic apparatus using the same
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
US10051103B1 (en) 2013-01-10 2018-08-14 Majen Tech, LLC Screen interface for a mobile device apparatus
CN103927190A (zh) 2013-01-11 2014-07-16 腾讯科技(深圳)有限公司 网络表情下载方法与装置
US9380431B1 (en) 2013-01-31 2016-06-28 Palantir Technologies, Inc. Use of teams in a mobile application
US9323855B2 (en) 2013-02-05 2016-04-26 Facebook, Inc. Processing media items in location-based groups
JP2014157390A (ja) 2013-02-14 2014-08-28 Sony Corp 情報処理装置及び記憶媒体
US10191945B2 (en) 2013-02-20 2019-01-29 The Florida International University Board Of Trustees Geolocating social media
JP5697058B2 (ja) 2013-02-27 2015-04-08 株式会社ユピテル ナビゲーション装置及びプログラム
US9411831B2 (en) 2013-03-01 2016-08-09 Facebook, Inc. Photo clustering into moments
CN105009132A (zh) 2013-03-11 2015-10-28 惠普发展公司,有限责任合伙企业 基于置信因子的事件关联
US9286546B2 (en) 2013-03-15 2016-03-15 Google Inc. Identifying labels for image collections
US9654761B1 (en) 2013-03-15 2017-05-16 Google Inc. Computer vision algorithm for capturing and refocusing imagery
KR20170073710A (ko) 2013-03-15 2017-06-28 애플 인크. 동시에 열린 소프트웨어 애플리케이션들을 관리하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9471200B2 (en) * 2013-03-15 2016-10-18 Apple Inc. Device, method, and graphical user interface for organizing and presenting a collection of media items
US9317188B2 (en) 2013-03-15 2016-04-19 Arris Enterprises, Inc. Devices and methods for providing navigation images associated with adaptive bit rate video content
EP2983077B1 (en) 2013-04-01 2021-04-28 Sony Corporation Display control device, display control method, and display control program
CN103279261B (zh) 2013-04-23 2016-06-29 惠州Tcl移动通信有限公司 无线通讯设备及其窗口小部件的添加方法
US10341421B2 (en) 2013-05-10 2019-07-02 Samsung Electronics Co., Ltd. On-device social grouping for automated responses
US9760803B2 (en) 2013-05-15 2017-09-12 Google Inc. Associating classifications with images
CN104184760B (zh) 2013-05-22 2018-08-07 阿里巴巴集团控股有限公司 通讯过程中的信息交互方法、客户端及服务器
US9449027B2 (en) * 2013-06-04 2016-09-20 Nokia Technologies Oy Apparatus and method for representing and manipulating metadata
WO2014194439A1 (en) 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
US10168882B2 (en) * 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
US9325783B2 (en) 2013-08-07 2016-04-26 Google Inc. Systems and methods for inferential sharing of photos
US9338242B1 (en) 2013-09-09 2016-05-10 Amazon Technologies, Inc. Processes for generating content sharing recommendations
CN104462113B (zh) * 2013-09-17 2018-10-23 腾讯科技(深圳)有限公司 搜索方法、装置及电子设备
US20150078726A1 (en) * 2013-09-17 2015-03-19 Babak Robert Shakib Sharing Highlight Reels
US20150143234A1 (en) 2013-10-22 2015-05-21 Forbes Holten Norris, III Ergonomic micro user interface display and editing
US10417588B1 (en) * 2013-12-06 2019-09-17 Guidewire Software, Inc. Processing insurance related address information
WO2015092489A1 (en) 2013-12-20 2015-06-25 Sony Corporation Method of controlling a graphical user interface for a mobile electronic device
US9811245B2 (en) * 2013-12-24 2017-11-07 Dropbox, Inc. Systems and methods for displaying an image capturing mode and a content viewing mode
US20150180980A1 (en) 2013-12-24 2015-06-25 Dropbox, Inc. Systems and methods for preserving shared virtual spaces on a content management system
US9519408B2 (en) 2013-12-31 2016-12-13 Google Inc. Systems and methods for guided user actions
WO2015107640A1 (ja) 2014-01-15 2015-07-23 富士通株式会社 アルバム作成プログラム、アルバム作成方法およびアルバム作成装置
US20150227166A1 (en) * 2014-02-13 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US9462054B2 (en) 2014-02-27 2016-10-04 Dropbox, Inc. Systems and methods for providing a user with a set of interactivity features locally on a user device
US20150256491A1 (en) 2014-03-04 2015-09-10 Microsoft Corporation Recipient suggestion system
US20150262062A1 (en) * 2014-03-17 2015-09-17 Microsoft Corporation Decision tree threshold coding
US9891794B2 (en) * 2014-04-25 2018-02-13 Dropbox, Inc. Browsing and selecting content items based on user gestures
US11170037B2 (en) 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
KR20160017954A (ko) 2014-08-07 2016-02-17 삼성전자주식회사 전자장치 및 전자장치의 전송 제어 방법
KR101540544B1 (ko) 2014-09-05 2015-07-30 서용창 캐릭터를 이용한 메시지 서비스 방법, 상기 방법을 수행하는 사용자 단말, 상기 방법을 포함하는 메시지 애플리케이션
KR102188267B1 (ko) 2014-10-02 2020-12-08 엘지전자 주식회사 이동단말기 및 그 제어방법
US10318575B2 (en) * 2014-11-14 2019-06-11 Zorroa Corporation Systems and methods of building and using an image catalog
US9906772B2 (en) 2014-11-24 2018-02-27 Mediatek Inc. Method for performing multi-camera capturing control of an electronic device, and associated apparatus
KR20160087640A (ko) 2015-01-14 2016-07-22 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6152125B2 (ja) 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
US10284537B2 (en) 2015-02-11 2019-05-07 Google Llc Methods, systems, and media for presenting information related to an event based on metadata
WO2016160629A1 (en) 2015-03-27 2016-10-06 Google Inc. Providing selected images from a set of images
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
KR101611895B1 (ko) * 2015-07-23 2016-04-12 연세대학교 산학협력단 감정 기반의 자동 문구 디자인 장치 및 그 방법
US20170063753A1 (en) 2015-08-27 2017-03-02 Pinterest, Inc. Suggesting object identifiers to include in a communication
US9781392B2 (en) 2015-09-16 2017-10-03 Intel Corporation Facilitating personal assistance for curation of multimedia and generation of stories at computing devices
WO2017058826A1 (en) 2015-09-28 2017-04-06 Google Inc. Sharing images and image albums over a communication network
US10122674B2 (en) 2015-11-03 2018-11-06 Ipxlu, Llc Method of creating a PXLgram
JP6223405B2 (ja) 2015-11-11 2017-11-01 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP2017097407A (ja) 2015-11-18 2017-06-01 株式会社東芝 電子機器及び表示制御方法
US20170192625A1 (en) 2015-12-31 2017-07-06 Young Kim Data managing and providing method and system for the same
US10976923B2 (en) 2016-02-11 2021-04-13 Hyperkey, Inc. Enhanced virtual keyboard
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
US11227017B2 (en) 2016-05-17 2022-01-18 Google Llc Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US10664157B2 (en) 2016-08-03 2020-05-26 Google Llc Image search query predictions by a keyboard
EP3654290A1 (en) 2016-09-23 2020-05-20 Apple Inc. Avatar creation and editing
KR20180057366A (ko) 2016-11-22 2018-05-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2018175806A1 (en) 2017-03-24 2018-09-27 Intel IP Corporation Techniques to enable physical downlink control channel communications
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
CN110932673A (zh) 2018-09-19 2020-03-27 恩智浦美国有限公司 一种包含并联陷波滤波器的斩波稳定放大器

Also Published As

Publication number Publication date
DK201670608A1 (en) 2018-01-02
US20170357382A1 (en) 2017-12-14
JP2019523477A (ja) 2019-08-22
US10073584B2 (en) 2018-09-11
KR102257131B1 (ko) 2021-05-26
AU2020267310A1 (en) 2020-12-10
EP3472731A1 (en) 2019-04-24
AU2024201844A1 (en) 2024-04-11
AU2017284958A1 (en) 2018-12-20
CN112231496A (zh) 2021-01-15
JP6820381B2 (ja) 2021-01-27
KR101959328B1 (ko) 2019-03-18
AU2022201561A1 (en) 2022-03-31
US20180364872A1 (en) 2018-12-20
JP2019215874A (ja) 2019-12-19
KR20190028574A (ko) 2019-03-18
AU2022201561B2 (en) 2022-08-04
AU2017284958B2 (en) 2019-09-12
JP6550545B1 (ja) 2019-07-24
AU2022263576A1 (en) 2022-12-08
JP2021073559A (ja) 2021-05-13
CN109684491B (zh) 2020-10-23
AU2020267310B2 (en) 2022-03-10
JP6895028B2 (ja) 2021-06-30
CN109313651A (zh) 2019-02-05
KR20200090876A (ko) 2020-07-29
KR20200022541A (ko) 2020-03-03
KR20180133531A (ko) 2018-12-14
US10891013B2 (en) 2021-01-12
KR102128388B1 (ko) 2020-06-30
DK201670609A1 (en) 2018-01-02
AU2022263576B2 (en) 2023-12-21
EP4064064A1 (en) 2022-09-28
AU2019271873A1 (en) 2019-12-12
KR102124285B1 (ko) 2020-06-23
JP6956910B2 (ja) 2021-11-02
AU2019271873B2 (en) 2020-12-10
EP3472731A4 (en) 2020-02-12
CN109684491A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
JP6956910B2 (ja) 文脈的関連メディアコンテンツを検索するためのユーザインタフェース
US11681408B2 (en) User interfaces for retrieving contextually relevant media content
JP7231763B2 (ja) インテリジェントに選択された代表的なメディアアイテムを使用したメディア閲覧ユーザインタフェース
WO2017218194A1 (en) User interfaces for retrieving contextually relevant media content

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211005

R150 Certificate of patent or registration of utility model

Ref document number: 6956910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150