JP2019215874A - 文脈的関連メディアコンテンツを検索するためのユーザインタフェース - Google Patents
文脈的関連メディアコンテンツを検索するためのユーザインタフェース Download PDFInfo
- Publication number
- JP2019215874A JP2019215874A JP2019123115A JP2019123115A JP2019215874A JP 2019215874 A JP2019215874 A JP 2019215874A JP 2019123115 A JP2019123115 A JP 2019123115A JP 2019123115 A JP2019123115 A JP 2019123115A JP 2019215874 A JP2019215874 A JP 2019215874A
- Authority
- JP
- Japan
- Prior art keywords
- display
- user input
- collection
- displaying
- receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 852
- 230000004044 response Effects 0.000 claims abstract description 351
- 230000015654 memory Effects 0.000 claims description 497
- 238000000034 method Methods 0.000 claims description 392
- 230000001419 dependent effect Effects 0.000 claims description 68
- 238000003860 storage Methods 0.000 claims description 54
- 238000005201 scrubbing Methods 0.000 claims description 52
- 238000012790 confirmation Methods 0.000 claims description 26
- 230000007704 transition Effects 0.000 claims description 16
- 238000012800 visualization Methods 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 705
- 238000012545 processing Methods 0.000 description 96
- 230000008569 process Effects 0.000 description 54
- 238000010586 diagram Methods 0.000 description 38
- 238000004891 communication Methods 0.000 description 27
- 230000014509 gene expression Effects 0.000 description 25
- 238000001514 detection method Methods 0.000 description 23
- 230000009471 action Effects 0.000 description 21
- 210000000887 face Anatomy 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 19
- 230000002093 peripheral effect Effects 0.000 description 19
- 230000004913 activation Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 15
- 238000003825 pressing Methods 0.000 description 14
- 241000699666 Mus <mouse, genus> Species 0.000 description 12
- 230000007423 decrease Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 230000003213 activating effect Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 10
- 230000001149 cognitive effect Effects 0.000 description 7
- 239000002131 composite material Substances 0.000 description 7
- 238000009499 grossing Methods 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- CGTZMJIMMUNLQD-STYNFMPRSA-N (2r)-2-[(r)-(2-ethoxyphenoxy)-phenylmethyl]morpholine;methanesulfonic acid Chemical compound CS(O)(=O)=O.CCOC1=CC=CC=C1O[C@H](C=1C=CC=CC=1)[C@@H]1OCCNC1 CGTZMJIMMUNLQD-STYNFMPRSA-N 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000000994 depressogenic effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 241001422033 Thestylus Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 235000019577 caloric intake Nutrition 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 244000144985 peep Species 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 235000021178 picnic Nutrition 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 235000002020 sage Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/178—Techniques for file synchronisation in file systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/435—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/438—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/44—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/44—Browsing; Visualisation therefor
- G06F16/447—Temporal browsing, e.g. timeline
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Liquid Crystal Substances (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Mobile Radio Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本出願は、2016年6月12日に出願された、「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題する米国仮特許出願第62/349,109号の優先権を主張し、その内容全体が参照により本明細書に組み込まれる。本出願は、2016年8月10日に出願された「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題するデンマーク特許出願第PA201670608号、及び2016年8月10日に出願された「USER INTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENTインタフェース」と題するデンマーク特許出願第PA201670609号の優先権を主張し、そのそれぞれの内容全体が参照により本明細書に組み込まれる。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138;
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●天気ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作成するウィジェットクリエータモジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを統合した、ビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は
●オンラインビデオモジュール155。
●セルラー信号及びWi−Fi信号などの無線通信(単数又は複数)に関する信号強度インジケータ(単数又は複数)402、
●時間404、
●Bluetoothインジケータ405、
●バッテリ状態インジケータ406、
●
○逸した呼又はボイスメールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされた電話モジュール138用のアイコン416、
○未読の電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147用のアイコン420、及び
○「iPod」とラベル付けされた、iPod(Apple Inc.の商標)モジュール152とも称される、ビデオ及び音楽プレーヤモジュール152用のアイコン422などの、頻繁に使用されるアプリケーション用のアイコンを有するトレイ408、並びに、
●
○「メッセージ」とラベル付けされたIMモジュール141用のアイコン424、
○「カレンダ」とラベル付けされたカレンダモジュール148用のアイコン426、
○「写真」とラベル付けされた画像管理モジュール144の用のアイコン428、
○「カメラ」とラベル付けされたカメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされたオンラインビデオモジュール155用のアイコン432、
○「株式」とラベル付けされた株式ウィジェット149−2用のアイコン434、
○「地図」とラベル付けされた地図モジュール154用のアイコン436、
○「天気」とラベル付けされた天気ウィジェット149−1用のアイコン438、
○「時計」とラベル付けされたアラーム時計ウィジェット149−4用のアイコン440、
○「トレーニングサポート」とラベル付けされたトレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされたモジュール153用のアイコン444、及び
○装置100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション若しくはモジュール用のアイコン446などの、他のアプリケーション用のアイコンを含む。
1.
ディスプレイを有するデバイスにおいて、
文脈的関連メディアを表示する要求を受信することと、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示することであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、ことと、
を含む、方法。
2.
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第3のコレクションの表現をディスプレイ上に表示することであって、メディア項目の第1のコレクションは、第1のコンテキストプロパティに基づく第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキストプロパティに基づく第1のコンテキストに関連し、第2のコンテキストプロパティは、第1のコンテキストプロパティとは異なる、ことを更に含む、項目1に記載の方法。
3.
メディア項目の第1のコレクションの表現は、第1のアフォーダンスであり、方法は、
第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
ユーザ入力を受信することに応答して、メディア項目の第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目1又は2に記載の方法。
4.
メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む、項目1から3のいずれか一項に記載の方法。
5.
メディア項目の第1のコレクションに関連付けられたテキスト識別子を生成することと、
選択されたメディア項目内の顔を識別することであって、選択されたメディア項目は画像である、ことと、
メディア項目の第1のコレクションの表現に重ね合わせられたテキスト識別子をディスプレイ上に表示することであって、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔と重畳されない、ことと、
を更に含む、項目1から4のいずれか一項に記載の方法。
6.
メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上の単語を含む、項目5に記載の方法。
7.
詳細ユーザインタフェースを表示する前に、ディスプレイの第1の部分を視覚的に占有するメディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに続いて、かつ詳細ユーザインタフェースを表示しながら、ディスプレイの第1の部分とは別個のディスプレイの第2の部分を視覚的に占有するメディア項目の第1のコレクションのキーメディア項目をディスプレイ上に表示することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに更に応答して、キーメディア項目に移行するメディア項目の第1のコレクションの表現のアニメートされた遷移をディスプレイ上に表示することと、
を更に含む、項目3から6のいずれか一項に記載の方法。
8.
詳細ユーザインタフェースを表示しながら、メディア項目の第1のコレクションの複数のメディア項目を含むスライドショーをディスプレイ上に表示することと、
スライドショーの選択に対応するユーザ入力を受信することと、
スライドショーの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの複数のメディア項目を含む動画をディスプレイ上に表示することであって、スライドショーと動画は異なる、ことと、
を更に含む、項目3から7のいずれか一項に記載の方法。
9.
スライドショーを編集する要求に対応するユーザ入力を受信することと、
スライドショーを編集する要求に対応するユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目8に記載の方法。
10.
詳細ユーザインタフェースは、第1の領域を含み、第1の領域は、メディア項目の第1のコレクションのメディア項目のサブセットを含むキュレートされたビューを含み、メディア項目のサブセットは、より低い品質の写真を除外するように選択される、項目3から9のいずれか一項に記載の方法。
11.
第1の領域は、第2のアフォーダンスを更に含み、方法は、
第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のアフォーダンスの選択に対応する入力を受信する前に表示されなかったメディア項目の第1のコレクションの追加メディア項目の表現を含む拡張ビューをディスプレイ上に表示することと、
を更に含む、項目10に記載の方法。
12.
キュレートされたビューにおけるメディア項目のサブセットは、メディア項目のサブセットのメディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、項目10又は11に記載の方法。
13.
キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配列に配置され、メディア項目のキュレートされた配列に含まれるメディア項目のサブセットは、キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するようにメディア項目のエッジが整列されるように配置される、項目10から12のいずれか一項に記載の方法。
14.
キュレートされた配列の下部における実質的に真っ直ぐな境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される、項目13に記載の方法。
15.
第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、第1のサイズと第2のサイズは異なり、第1のアスペクト比と第2のアスペクト比は異なり、キュレートされた配列の下部における実質的に真っ直ぐな境界は、第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、項目14に記載の方法。
16.
メディア項目の寸法に部分的に基づいて、メディア項目の第1のコレクションのメディア項目からメディア項目のキュレートされたサブセットを選択すること、
を更に含む、項目10から15のいずれか一項に記載の方法。
17.
キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することと、
キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することに応答して、第3のメディア項目及びスクラビングアフォーダンスをディスプレイ上に表示することと、
スクラビングアフォーダンスに対応するユーザ入力を受信することと、
スクラビングアフォーダンスに対応するユーザ入力を受信することに応答して、スクラビングアフォーダンスを表示し続けながら、第3のメディア項目の表示をメディア項目のキュレートされたサブセットの第4のメディア項目の表示に置き換えることと、
を更に含む、項目10から14のいずれか一項に記載の方法。
18.
詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、詳細ユーザインタフェースを表示することは、
メディア項目の第1のコレクションの第5のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示すること、
を更に含む、項目3から17のいずれか一項に記載の方法。
19.
地理的地図を表示しながら、第3のアフォーダンスをディスプレイ上に表示することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションに含まれていないメディア項目の位置に対応する地理的地図ビュー内の追加位置インジケータをディスプレイ上に表示することと、
を更に含む、項目18に記載の方法。
20.
追加位置インジケータを表示した後、
第4のアフォーダンスをディスプレイ上に表示することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、追加位置インジケータを地理的地図ビューに表示することを停止することと、
を更に含む、項目19に記載の方法。
21.
位置インジケータの選択に対応するユーザ入力を受信することと、
位置インジケータの選択に対応するユーザ入力を受信することに応答して、地理的地図ビューの表示を第5のメディア項目の表示に置き換えることと、
を更に含む、項目18から20のいずれか一項に記載の方法。
22.
詳細ユーザインタフェースは、メディア項目の第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、方法は、
識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することと、
識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションをディスプレイ上に表示することであって、メディア項目の第4のコレクションのメディア項目のそれぞれは、識別された顔を含む、ことと、
を更に含む、項目3から21のいずれか一項に記載の方法。
23.
詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の第5のコレクションのメディア項目は、メディア項目の第1のコレクションのメディア項目を有する第1の特性を共有し、方法は、
メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目3から22のいずれか一項に記載の方法。
24.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、
1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信することであって、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なる、ことと、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することに応答して、詳細ユーザインタフェース、及び第4の領域内のメディア項目の第6のコレクションの表現をディスプレイ上に表示することと、
を更に含む、項目23に記載の方法。
25.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示しながら、
第5のアフォーダンスをディスプレイ上に表示することと、
第5のアフォーダンスの選択に対応するユーザ入力を受信することと、
第5のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けることと、
を更に含む、項目3から24のいずれか一項に記載の方法。
26.
メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することと、
メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの表現をディスプレイ上に表示することと、
を更に含む、項目25に記載の方法。
27.
ディスプレイ及びタッチ感知面を有するデバイスにおいて、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示することと、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信することと、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことと、
を含む、方法。
28.
ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置で検出される、項目27に記載の方法。
29.
それぞれの方向の移動を含むユーザ入力は、第1のユーザ入力であり、方法は、
第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
第2のユーザ入力が第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第2の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示に置き換えることと、
を更に含む、項目27又は28に記載の方法。
30.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、方法は、
第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
第2のユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、第2の視覚的メディア項目に対する関連コンテンツは、第1のメディア項目に対する関連コンテンツとは異なる、ことと、
を更に含む、項目29に記載の方法。
31.
第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信することと、
第3のユーザ入力が第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
第3のユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイ上に表示することと、
を更に含む、項目27から30のいずれか一項に記載の方法。
32.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、経時的に配置される、項目31に記載の方法。
33.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、項目31から32のいずれか一項に記載の方法。
34.
第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信することと、
第4のユーザ入力が第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
ユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイ上に表示することと、
を更に含む、項目31から33のいずれか一項に記載の方法。
35.
第1の視覚的メディア項目に対する関連コンテンツの表現は、経時的に配置される、項目27から34のいずれか一項に記載の方法。
36.
第1の視覚的メディア項目を表示しながら、第1の方向の移動を含む第5のユーザ入力を受信することと、
第5のユーザ入力を受信することに応答して、
第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがってディスプレイ上の第1の視覚的メディア項目を移動することと、
第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、第5のユーザ入力にしたがってディスプレイ上の第1の視覚的メディア項目を移動し、詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目27から35のいずれか一項に記載の方法。
37.
詳細ユーザインタフェースは、第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目内で識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含み、方法は、
識別された顔の選択に対応するユーザ入力を受信することと、
識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションをディスプレイ上に表示することであって、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される、ことと、
を更に含む、項目27から36のいずれか一項に記載の方法。
38.
詳細ユーザインタフェースは、第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、第2のカテゴリは、位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、項目27から37のいずれか一項に記載の方法。
39.
第2の領域の選択に対応するユーザ入力を受信することと、
第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置の視覚表現を含む地図ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目38に記載の方法。
40.
アドレスの選択に対応するユーザ入力を受信することと、
アドレスの選択に対応するユーザ入力に応答して、地図アプリケーションのユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目39に記載の方法。
41.
詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、方法は、
視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することと、
を更に含む、項目27から40のいずれか一項に記載の方法。
42.
視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する、項目41に記載の方法。
43.
第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを表示することは、
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することを含む、項目27から42のいずれか一項に記載の方法。
44.
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することは、
表示されたままの第1の視覚的メディア項目の部分が第1の視覚的メディア項目の所定の部分になるまで、表示された第1の視覚的メディア項目を第1の方向にスクロールすることと、
所定の部分が表示された部分になるまでスクロールした後、
第1の視覚的メディア項目のスクロールを停止することと、
第1のメディア項目の所定の部分が静止している間に、詳細ユーザインタフェースを明瞭化するためにスクロールを続けることと、
を含む、項目43に記載の方法。
45.
第1の視覚的メディア項目は、画像又は動画である、項目27から44のいずれか一項に記載の方法。
46.
詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示された任意の視覚的メディア項目のディスプレイにおいてアクセス可能である、項目27から45のいずれか一項に記載の方法。
47.
ディスプレイを有するデバイスにおいて、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示することと、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示することと、
アフォーダンスの選択に対応するユーザ入力を受信することと、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことと、
を含む、方法。
48.
複数の個人による特定のイベントの出席は、特定のイベントに対応する少なくとも1つのメディア項目内の複数の個人のうちの個人の顔を識別することに基づいて識別される、項目47に記載の方法。
49.
複数の個人による特定のイベントの出席は、複数の個人に関連付けられた位置データに基づいて識別され、位置データは、特定のイベントの時刻に特定のイベントの場所にいた複数の個人のうちの個人に対応するデバイスを識別するデータを含む、項目47又は48に記載の方法。
50.
第2の視覚的メディアは、複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、項目47から49のいずれか一項に記載の方法。
51.
第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショーを含む第1の領域を含み、方法は、
スライドショーの選択に対応するユーザ入力を受信することと、
スライドショーの選択に対応するユーザ入力に応答して、第2の視覚的メディアのメディア項目を含む動画をディスプレイ上に表示することであって、スライドショーと動画は異なる、ことと、
を更に含む、項目47から50のいずれか一項に記載の方法。
52.
第2の詳細ユーザインタフェースは、第2の領域を含み、第2の領域は、第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む、項目47から51のいずれか一項に記載の方法。
53.
第2の領域は、第1のアフォーダンスを更に含み、方法は、
第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の視覚的メディアのメディア項目の拡張ビューをディスプレイ上に表示することと、
を更に含む、項目52に記載の方法。
54.
第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、詳細ユーザインタフェースを表示することは、
第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示すること、
を更に含む、項目47から53のいずれか一項に記載の方法。
55.
第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、方法は、
視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することと、
メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することと、
を更に含む、項目47から54のいずれか一項に記載の方法。
56.
視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する、項目55に記載の方法。
57.
第2の詳細ユーザインタフェースを表示しながら、それぞれが複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域をディスプレイ上に表示することと、
第5の領域内の複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信することであって、アフォーダンスは、第1の個人に対応する、ことと、
第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースをディスプレイ上に表示することであって、第3の視覚的メディアは、第3の複数のメディア項目を含み、第3の複数のメディア項目のそれぞれは、第1の個人を示すものとして識別され、第3の複数のメディア項目は、第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、第2のイベント、第3のイベント、及び第4のイベントは異なる、ことと、
を更に含む、項目47から56のいずれか一項に記載の方法。
58.
第5の領域をスクロールする要求に対応するユーザ入力を受信することと、
第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、第5の領域が静止している間に第5の領域に含まれる複数のアフォーダンスをスクロールさせることであって、複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが第5の領域に表示され、以前に表示されていないアフォーダンスは、複数の個人に含まれていない第2の個人に対応する、ことと、
を更に含む、項目57に記載の方法。
59.
第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスをディスプレイ上に表示することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースをディスプレイ上に表示することであって、候補視覚的メディア項目は、第3の視覚的メディアに含まれない、ことと、
を更に含む、項目57又は58に記載の方法。
60.
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することと、
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することに応答して、
個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力又は拒否入力を表すかどうかを判定することと、
個人確認ユーザインタフェースに関連付けられたユーザ入力が確認入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることと、
個人確認ユーザインタフェースに関連付けられたユーザ入力が拒否入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることを見合わせることと、
を更に含む、項目59に記載の方法。
61.
複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
ユーザ入力の第1の特性強度を判定することと、
ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースを表示することであって、強度依存基準は、強度依存基準が満たされるためにタッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことと、
を更に含む、項目57から60のいずれか一項に記載の方法。
62.
コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、方法は、
第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースをディスプレイ上に表示することと、
名前編集ユーザインタフェースを表示しながら、第1の個人の更新された名前を受信することと、
第1の個人の更新された名前を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を更新された名前に更新することと、
を更に含む、項目61に記載の方法。
63.
提示された個人に対応するアフォーダンスをディスプレイ上に表示することであって、提示された個人は、デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことと、
提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することと、
提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を提案された個人の名前に更新することと、
を更に含む、項目62に記載の方法。
64.
コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、方法は、
第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子を選択された個人の識別子のリストに関連付けることと、
識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースをディスプレイ上に表示することであって、識別された個人の表現は、選択された個人のリストのうちの個人を含む、ことと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、選択された個人の識別子のリストに関連付けられた識別子に対応しない個人の表現の表示を停止することと、
を更に含む、項目61から63のいずれか一項に記載の方法。
65.
第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、方法は、
第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の詳細ユーザインタフェースを、ユーザによって保存された1組の詳細ユーザインタフェースに追加することと、
第2の詳細ユーザインタフェースの表示を停止することと、
第2の詳細ユーザインタフェースの表示を停止した後、第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
第2の詳細ユーザインタフェースをディスプレイ上に表示することと、
を更に含む、項目47から64のいずれか一項に記載の方法。
66.
ディスプレイを有するデバイスにおいて、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示することと、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信することと、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することと、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加することと、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示することと、
を含む、方法。
67.
視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することは、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することを含む、項目66に記載の方法。
68.
第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、
1組の共通の特性を共有するメディア項目のコレクションを判定することと、
1組の共通の特性を共有するメディア項目の1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成することと、
を含む、項目67に記載の方法。
69.
第2のユーザ入力を受信する前に、第3のユーザ入力を受信することと、
第3のユーザ入力を受信することに応答して、視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることと、
を更に含む、項目66から68のいずれか一項に記載の方法。
70.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、
表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、第2のアフォーダンスは、表示された複数のアフォーダンスに以前含まれておらず、第1のアフォーダンスは、第1の日付に関連付けられ、第2のアフォーダンスは、第1とは異なる第2の日付に関連付けられる、ことを含む、項目69に記載の方法。
71.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、表示された複数のアフォーダンスをスクロールすることは、複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、方法は、
第2のビュー内に複数のアフォーダンスを表示しながら、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、第1の詳細ユーザインタフェースをディスプレイ上に表示することであって、第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
第1の詳細なユーザインタフェースを表示しながら、第2のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示することであって、詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
第2の詳細ユーザインタフェースを表示しながら、第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のビュー内の複数のアフォーダンスをディスプレイ上に表示することと、
を更に含む、項目70に記載の方法。
72.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスは、自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、項目66から71のいずれか一項に記載の方法。
73.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、
現在の期間に対応する複数のアフォーダンスをディスプレイ上に表示することを含む、項目66から72のいずれか一項に記載の方法。
74.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、
複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスをディスプレイ上に表示することであって、複数のアフォーダンスは、所定数のアフォーダンスである、ことを含む、項目66から73のいずれか一項に記載の方法。
75.
視覚的メディアの自動生成されたコレクションは、デバイスの一般的なコンテキストに文脈的に関連すると判定された、項目66から74のいずれか一項に記載の方法。
76.
視覚的メディアの第1のコレクションは、デバイスの特定のコンテキストに文脈的に関連する、項目66から75のいずれか一項に記載の方法。
77.
コンテキストは、デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、デバイスの現在位置の近くに現在ある対象地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、項目75から76のいずれか一項に記載の方法。
78.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数のアフォーダンスのそれぞれと共にコンテキスト情報をディスプレイ上に表示することを含む、項目66から77のいずれか一項に記載の方法。
79.
デバイスは、タッチ感知面を含み、第2のユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
タッチユーザ入力の第1の特性強度を判定することと、
タッチユーザ入力が選択基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、選択基準は、選択基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ことと、
タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースをディスプレイ上に表示することであって、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値を超えることを要求し、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第2の強度閾値を超えることを要求しない、ことと、
タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、第2の強度依存基準は、第2の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値及び第2の強度閾値を超えることを要求する、ことと、
を更に含む、項目66から78のいずれか一項に記載の方法。
80.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
文脈的関連メディアを表示する要求を受信し、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示し、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する命令を含み、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、
電子デバイス。
81.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
文脈的関連メディアを表示する要求を受信させ、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示させ、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示させ、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、
非一時的コンピュータ可読記憶媒体。
82.
ディスプレイと、
文脈的関連メディアを表示する要求を受信する手段と、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイ上に表示する手段と、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイ上に表示する手段であって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、手段と、
を含む、システム。
83.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目1から26のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
84.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目1から26のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
85.
ディスプレイと、項目1から26のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
86.
ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示し、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信し、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定し、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、
電子デバイス。
87.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示させ、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示させ、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、
非一時的コンピュータ可読記憶媒体。
88.
ディスプレイと、
タッチ感知面と、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイ上に表示する手段と、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信する手段と、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定する手段と、
ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、手段と、
を含む、システム。
89.
ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目27から46のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
90.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、デバイスに、項目27から46のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
91.
ディスプレイと、
タッチ感知面と、項目27から46のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
92.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示し、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、
アフォーダンスの選択に対応するユーザ入力を受信し、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する、命令を含み、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、
電子デバイス。
93.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示させ、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示させ、
アフォーダンスの選択に対応するユーザ入力を受信させ、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示させ、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、
非一時的コンピュータ可読記憶媒体。
94.
ディスプレイと、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイ上に表示する手段と、
第1の詳細ユーザインタフェースを表示しながら、
第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイ上に表示し、
アフォーダンスの選択に対応するユーザ入力を受信する手段と、
ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイ上に表示する手段であって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、手段と、
を含む、システム。
95.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目47から65のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
96.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目47から65のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
97.
ディスプレイと、項目47から65のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
98.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示し、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信し、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加し、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する、命令を含む、
電子デバイス。
99.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示させ、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加させ、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示させる、
非一時的コンピュータ可読記憶媒体。
100.
ディスプレイと、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイ上に表示する手段と、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信する手段と、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加する手段と、
第1のアフォーダンスの選択に対応する第2のユーザ入力を受信する手段と、
第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイ上に表示する手段と、
を含む、システム。
101.
ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、1つ以上のプログラムはメモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは項目66から79のいずれか一項に記載の方法を実行する命令を含む、
電子デバイス。
102.
1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、1つ以上のプログラムが、命令を含み、命令が、ディスプレイを備える電子デバイスによって実行されたときに、デバイスに、項目66から79のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。
103.
ディスプレイと、項目66から79のいずれか一項に記載の方法を実行する手段と、
を含む、システム。
104.
デバイスであって、
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
文脈的関連メディアを表示する要求を受信するように構成された受信ユニットと、
要求に応答して、
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを可能にし、
デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第2のコンテキストに関連するメディア項目の第2のコレクションの表現をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、メディア項目の第2のコレクションは、メディア項目の第1のコレクションとは異なる、表示有効化ユニットと、
を含む、デバイス。
105.
デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ第1のコンテキストに関連するメディア項目の第3のコレクションの表現をディスプレイユニット上に表示することを有効化することであって、メディア項目の第1のコレクションは、第1のコンテキストプロパティに基づく第1のコンテキストに関連し、メディア項目の第3のコレクションは、第2のコンテキストプロパティに基づく第1のコンテキストに関連し、第2のコンテキストプロパティは、第1のコンテキストプロパティとは異なる、ことを更に含む、項目104に記載のデバイス。
106.
メディア項目の第1のコレクションの表現は、第1のアフォーダンスであり、
受信ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、ユーザ入力を受信することに応答して、メディア項目の第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目104又は105に記載のデバイス。
107.
メディア項目の第1のコレクションの表現は、メディア項目の第1のコレクションから選択されたメディア項目の縮小バージョンを含む、項目104から106のいずれか一項に記載のデバイス。
108.
処理ユニットは、
メディア項目の第1のコレクションに関連付けられたテキスト識別子を生成するように構成された生成ユニットと、
選択されたメディア項目内の顔を識別するように構成された識別ユニットであって、選択されたメディア項目は画像である、識別ユニットと、を更に含み、
表示有効化ユニットは、メディア項目の第1のコレクションの表現に重ね合わせられたテキスト識別子をディスプレイユニット上に表示することであって、重ね合わせられたテキスト識別子は、メディア項目の第1のコレクションの表現として表示された選択されたメディア項目内の識別された顔と重畳されない、ことを有効化するように更に構成されている、項目104から107のいずれか一項に記載のデバイス。
109.
メディア項目の第1のコレクションに関連付けられたテキスト識別子は、第1のコンテキストに対するメディア項目の第1のコレクションの関連性に基づいて選択され、第1のコンテキストに対するメディア項目の第1のコレクションの関連性を説明する1つ以上の単語を含む、項目108に記載のデバイス。
110.
表示有効化ユニットは、
詳細ユーザインタフェースを表示する前に、ディスプレイの第1の部分を視覚的に占有するメディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを有効化し、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに続いて、かつ詳細ユーザインタフェースを表示しながら、ディスプレイの第1の部分とは別個のディスプレイの第2の部分を視覚的に占有するメディア項目の第1のコレクションのキーメディア項目をディスプレイユニット上に表示することを有効化し、
第1のアフォーダンスの選択に対応するユーザ入力を受信することに更に応答して、キーメディア項目に移行するメディア項目の第1のコレクションの表現のアニメートされた遷移をディスプレイユニット上に表示することと、を有効化するように更に構成されている、項目106から109のいずれか一項に記載のデバイス。
111.
表示有効化ユニットは、詳細ユーザインタフェースを表示しながら、メディア項目の第1のコレクションの複数のメディア項目を含むスライドショーをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、スライドショーの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの複数のメディア項目を含む動画をディスプレイユニット上に表示することであって、スライドショーと動画は異なる、ことを有効化するように更に構成されている、項目106から110のいずれか一項に記載のデバイス。
112.
受信ユニットは、スライドショーを編集する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーを編集する要求に対応するユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目111に記載のデバイス。
113.
詳細ユーザインタフェースは、第1の領域を含み、第1の領域は、メディア項目の第1のコレクションのメディア項目のサブセットを含むキュレートされたビューを含み、メディア項目のサブセットは、より低い品質の写真を除外するように選択される、項目106から112のいずれか一項に記載のデバイス。
114.
第1の領域は、第2のアフォーダンスを更に含み、
受信ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のアフォーダンスの選択に対応する入力を受信する前に表示されなかったメディア項目の第1のコレクションの追加メディア項目の表現を含む拡張ビューをディスプレイユニット上に表示することを有効化するように更に構成されている、項目113に記載のデバイス。
115.
キュレートされたビューにおけるメディア項目のサブセットは、メディア項目のサブセットのメディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、項目113又は114に記載のデバイス。
116.
キュレートされたビューに含まれるメディア項目のサブセットは、キュレートされた配列に配置され、メディア項目のキュレートされた配列に含まれるメディア項目のサブセットは、キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するようにメディア項目のエッジが整列されるように配置される、項目113から115のいずれか一項に記載のデバイス。
117.
キュレートされた配列の下部における実質的に真っ直ぐな境界は、キュレートされたビューに含まれるメディア項目の第1の複数のサブセットによって形成される、項目116に記載のデバイス。
118.
第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、第1のサイズと第2のサイズは異なり、第1のアスペクト比と第2のアスペクト比は異なり、キュレートされた配列の下部における実質的に真っ直ぐな境界は、第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、項目117に記載のデバイス。
119.
処理ユニットは、
メディア項目の寸法に部分的に基づいて、メディア項目の第1のコレクションのメディア項目からメディア項目のキュレートされたサブセットを選択するように更に構成された選択ユニットを更に含む、項目113から118のいずれか一項に記載のデバイス。
120.
受信ユニットは、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、キュレートされたビューに含まれるメディア項目のサブセットの第3のメディア項目の選択に対応するユーザ入力を受信することに応答して、第3のメディア項目及びスクラビングアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、スクラビングアフォーダンスに対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スクラビングアフォーダンスに対応するユーザ入力を受信することに応答して、スクラビングアフォーダンスを表示し続けながら、ディスプレイユニット上の第3のメディア項目の表示をメディア項目のキュレートされたサブセットの第4のメディア項目の表示に置き換えるように更に構成されている、項目113から117のいずれか一項に記載のデバイス。
121.
詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、メディア項目の第1のコレクションの第5のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイ上に表示することを有効化するように更に構成されている、ことを更に含む、項目106から120のいずれか一項に記載のデバイス。
122.
表示有効化ユニットは、地理的地図を表示しながら、第3のアフォーダンスをディスプレイ上に表示することを有効化するように更に構成されており、
受信ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションに含まれていないメディア項目の位置に対応する地理的地図ビュー内の追加位置インジケータをディスプレイユニット上に表示することを有効化するように更に構成されている、項目121に記載のデバイス。
123.
追加位置インジケータを表示した後、
表示有効化ユニットは、第4のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、追加位置インジケータをディスプレイユニット上の地理的地図ビューに表示することを停止するように更に構成されている、項目122に記載のデバイス。
124.
受信ユニットは、位置インジケータの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、位置インジケータの選択に対応するユーザ入力を受信することに応答して、ディスプレイユニット上の地理的地図ビューの表示を第5のメディア項目の表示に置き換えるように更に構成されている、項目121から123のいずれか一項に記載のデバイス。
125.
詳細ユーザインタフェースは、メディア項目の第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、
受信ユニットは、識別された顔に対応するインジケータの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、識別された顔に対応するインジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションをディスプレイユニット上に表示することであって、メディア項目の第4のコレクションのメディア項目のそれぞれは、識別された顔を含む、ことを有効化するように更に構成されている、項目106から124のいずれか一項に記載のデバイス。
126.
詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の第5のコレクションのメディア項目は、メディア項目の第1のコレクションのメディア項目を有する第1の特性を共有し、
受信ユニットは、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第5のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、メディア項目の第5のコレクションを含む詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目106から125のいずれか一項に記載のデバイス。
127.
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示した後、
受信ユニットは、1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信するように更に構成されており、メディア項目の第6のコレクションは、メディア項目の第1のコレクションとは異なり、
受信ユニットは、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することに応答して、詳細ユーザインタフェース、及び第4の領域内のメディア項目の第6のコレクションの表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目126に記載のデバイス。
128.
処理ユニットは、関連付けユニットを更に含み、
メディア項目の第1のコレクションを含む詳細ユーザインタフェースを表示しながら、
表示有効化ユニットは、第5のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第5のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
関連付けユニットは、第5のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けるように構成されている、項目106から127のいずれか一項に記載のデバイス。
129.
受信ユニットは、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の選択されたコレクションのリストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションの表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目128に記載のデバイス。
130.
ディスプレイユニットと、
タッチ感知面ユニットと、
ディスプレイユニット及びタッチ感知面ユニットに結合された処理ユニットと、を含み、処理ユニットは、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目をディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットと、
第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信するように構成された受信ユニットと、
ユーザ入力を受信することに応答して、
ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定するように構成された判定ユニットと、を含み、
表示有効化ユニットは、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第1の視覚的メディア項目に関連すると判定された第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第1の視覚的メディア項目に対する関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、第1のカテゴリは第2のカテゴリとは異なる、ことを有効化するように更に構成されている、
デバイス。
131.
ユーザ入力は、第1の視覚的メディア項目に対応するタッチ感知面上の位置で検出される、項目130に記載のデバイス。
132.
それぞれの方向の移動を含むユーザ入力は、第1のユーザ入力であり、
受信ユニットは、第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信するように更に構成されており、
判定ユニットは、第2のユーザ入力が第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第2の方向のスワイプジェスチャに対応するという判定にしたがって、ディスプレイユニット上の第1の視覚的メディア項目の表示を、視覚的メディア項目のシーケンスの第2の視覚的メディア項目の表示に置き換えるように更に構成されている、項目130又は131に記載のデバイス。
133.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、
受信ユニットは、第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信するように更に構成されており、
判定ユニットは、第2のユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第1の方向のスワイプジェスチャに対応するという判定にしたがって、第2の視覚的メディア項目に関連すると判定された第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第2の視覚的メディア項目に対する関連コンテンツは、第1のメディア項目に対する関連コンテンツとは異なる、ことを有効化するように更に構成されている、項目132に記載のデバイス。
134.
受信ユニットは、第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信するように更に構成されており、
判定ユニットは、第3のユーザ入力が第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、第3のユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から133のいずれか一項に記載のデバイス。
135.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、経時的に配置される、項目134に記載のデバイス。
136.
視覚的メディア項目のシーケンスのメディア項目の縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、項目134又は135に記載のデバイス。
137.
受信ユニットは、第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信するように更に構成されており、
判定ユニットは、第4のユーザ入力が第3の方向のスワイプジェスチャに対応するかどうかを判定するように更に構成されており、
表示有効化ユニットは、ユーザ入力が第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目のシーケンスのメディア項目の縮小バージョンをディスプレイユニット上に表示することを有効化するように更に構成されている、項目134から136のいずれか一項に記載のデバイス。
138.
第1の視覚的メディア項目に対する関連コンテンツの表現は、経時的に配置される、項目130から137のいずれか一項に記載のデバイス。
139.
受信ユニットは、第1の視覚的メディア項目を表示しながら、第1の方向の移動を含む第5のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第5のユーザ入力を受信することに応答して、
第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、詳細ユーザインタフェースを表示することなく、第5のユーザ入力にしたがってディスプレイユニット上の第1の視覚的メディア項目を移動し、
第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、第5のユーザ入力にしたがってディスプレイユニット上の第1の視覚的メディア項目を移動し、詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から138のいずれか一項に記載のデバイス。
140.
詳細ユーザインタフェースは、第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、第1のカテゴリは、第1の視覚的メディア項目内で識別された顔であり、第1の領域は、第1の視覚的メディア項目から識別された顔を含み、
受信ユニットは、識別された顔の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションをディスプレイユニット上に表示することであって、メディア項目の第1のコレクション内の各項目は、識別された顔を含むように選択される、ことを有効化するように更に構成されている、項目130から139のいずれか一項に記載のデバイス。
141.
詳細ユーザインタフェースは、第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、第2のカテゴリは、位置であり、第2の領域は、第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、項目130から140のいずれか一項に記載のデバイス。
142.
受信ユニットは、第2の領域の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2の領域の選択に対応するユーザ入力に応答して、第1の視覚的メディアに関連付けられた位置の視覚表現を含む地図ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目141に記載のデバイス。
143.
受信ユニットは、アドレスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、アドレスの選択に対応するユーザ入力に応答して、地図アプリケーションのユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されている、項目142に記載のデバイス。
144.
詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の第2のコレクションの視覚的メディア項目は、第1の視覚的メディア項目と第1の特性を共有し、
受信ユニットは、視覚的メディア項目の第2のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第2のコレクションの視覚的メディア項目の表現をディスプレイユニット上に表示することを有効化するように更に構成されている、項目130から143のいずれか一項に記載のデバイス。
145.
視覚的メディア項目の第2のコレクションは、第1の視覚的メディア項目を除外する、項目144に記載のデバイス。
146.
第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、表示された第1の視覚的メディア項目をディスプレイユニット上で第1の方向にスクロールして詳細ユーザインタフェースを明瞭化するように更に構成されている、ことを含む、項目130から145のいずれか一項に記載のデバイス。
147.
表示された第1の視覚的メディア項目を第1の方向にスクロールして詳細ユーザインタフェースを明瞭化することは、
表示有効化ユニットが、表示されたままの第1の視覚的メディア項目の部分が第1の視覚的メディア項目の所定の部分になるまで、ディスプレイユニット上で表示された第1の視覚的メディア項目を第1の方向にスクロールするように更に構成されており、
表示有効化ユニットが、所定の部分が表示された部分になるまでスクロールした後、
ディスプレイユニット上で第1の視覚的メディア項目のスクロールを停止し、
第1のメディア項目の所定の部分が静止している間に、ディスプレイユニット上で詳細ユーザインタフェースを明瞭化するためにスクロールを続けるように更に構成されている、ことを含む、項目146に記載のデバイス。
148.
第1の視覚的メディア項目は、画像又は動画である、項目130から147のいずれか一項に記載のデバイス。
149.
詳細ユーザインタフェースは、デバイスにインストールされたアプリケーションのインタフェースであり、詳細ユーザインタフェースは、アプリケーションを使用して表示された任意の視覚的メディア項目のディスプレイにおいてアクセス可能である、項目130から148のいずれか一項に記載のデバイス。
150.
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースをディスプレイユニット上に表示することを有効化するように構成された表示有効化ユニットであって、
第1の詳細ユーザインタフェースを表示しながら、
表示有効化ユニットは、第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されている、表示有効化ユニットと、
アフォーダンスの選択に対応するユーザ入力を受信するように構成された受信ユニットと、
を含み、
表示有効化ユニットは、ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第2の視覚的メディアは、複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、第2のイベントと第3のイベントは異なる、ことを有効化するように更に構成されている、
デバイス。
151.
複数の個人による特定のイベントの出席は、特定のイベントに対応する少なくとも1つのメディア項目内の複数の個人のうちの個人の顔を識別することに基づいて識別される、項目150に記載のデバイス。
152.
複数の個人による特定のイベントの出席は、複数の個人に関連付けられた位置データに基づいて識別され、位置データは、特定のイベントの時刻に特定のイベントの場所にいた複数の個人のうちの個人に対応するデバイスを識別するデータを含む、項目150又は151に記載のデバイス。
153.
第2の視覚的メディアは、複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、項目150から152のいずれか一項に記載のデバイス。
154.
第2の詳細ユーザインタフェースは、第2の視覚的メディアのメディア項目を含むスライドショーを含む第1の領域を含み、
受信ユニットは、スライドショーの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、スライドショーの選択に対応するユーザ入力に応答して、第2の視覚的メディアのメディア項目を含む動画をディスプレイユニット上に表示することであって、スライドショーと動画は異なる、ことを有効化するように更に構成されている、項目150から153のいずれか一項に記載のデバイス。
155.
第2の詳細ユーザインタフェースは、第2の領域を含み、第2の領域は、第2の視覚的メディアのメディア項目のサブセットを含むキュレートされたビューを含む、項目150から154のいずれか一項に記載のデバイス。
156.
第2の領域は、第1のアフォーダンスを更に含み、
受信ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第1のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の視覚的メディアのメディア項目の拡張ビューをディスプレイユニット上に表示することを有効化するように更に構成されている、項目155に記載のデバイス。
157.
第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、詳細ユーザインタフェースを表示することは、
表示有効化ユニットが、第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する地理的地図上の位置インジケータをディスプレイユニット上に表示することを有効化するように更に構成されている、ことを更に含む、項目150から156のいずれか一項に記載のデバイス。
158.
第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の第1のコレクションの視覚的メディア項目は、第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、
視覚的メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、メディア項目の第1のコレクションの表現の選択に対応するユーザ入力を受信することに応答して、視覚的メディア項目の第1のコレクションの視覚的メディア項目の表現をディスプレイ上に表示することを有効化するように更に構成されている、項目150から157のいずれか一項に記載のデバイス。
159.
視覚的メディア項目の第1のコレクションは、第2の視覚的メディアのメディア項目を除外する、項目158に記載のデバイス。
160.
表示有効化ユニットは、第2の詳細ユーザインタフェースを表示しながら、それぞれが複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域をディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第5の領域内の複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、アフォーダンスは、第1の個人に対応し、
表示有効化ユニットは、第1の個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第3の視覚的メディアは、第3の複数のメディア項目を含み、第3の複数のメディア項目のそれぞれは、第1の個人を示すものとして識別され、第3の複数のメディア項目は、第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、第2のイベント、第3のイベント、及び第4のイベントは異なる、ことを有効化するように更に構成されている、項目150から159のいずれか一項に記載のデバイス。
161.
受信ユニットは、第5の領域をスクロールする要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第5の領域をスクロールする要求に対応するユーザ入力を受信することに応答して、ディスプレイユニット上で第5の領域が静止している間に第5の領域に含まれる複数のアフォーダンスをスクロールさせるように更に構成されており、複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが第5の領域に表示され、以前に表示されていないアフォーダンスは、複数の個人に含まれていない第2の個人に対応する、項目160に記載のデバイス。
162.
表示有効化ユニットは、第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースをディスプレイユニット上に表示することであって、候補視覚的メディア項目は、第3の視覚的メディアに含まれない、ことを有効化するように更に構成されている、項目160又は161に記載のデバイス。
163.
処理ユニットは、判定ユニット及び関連付けユニットを更に含み、
受信ユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力を受信するように更に構成されており、
個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することに応答して、
判定ユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が、確認入力又は拒否入力を表すかどうかを判定するように構成されており、
関連付けユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が確認入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けるように構成されており、
関連付けユニットは、個人確認ユーザインタフェースに関連付けられたユーザ入力が拒否入力を表すという判定にしたがって、候補メディア項目を第1の個人に関連付けることを見合わせるように更に構成されている、項目162に記載のデバイス。
164.
デバイスは、タッチ感知面ユニットを含み、タッチ感知面ユニットは、処理ユニット及びディスプレイユニットに結合され、複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力は、タッチ感知面ユニット上で検出された第1の特性強度を有するタッチユーザ入力であり、方法は、
判定ユニットが、ユーザ入力の第1の特性強度を判定するように更に構成されており、
表示有効化ユニットが、ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースをディスプレイユニット上に表示することであって、強度依存基準は、強度依存基準が満たされるためにタッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことを有効化するように更に構成されている、ことを更に含む、項目160から163のいずれか一項に記載のデバイス。
165.
コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、処理ユニットは更新ユニットを更に含み、
受信ユニットは、第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースをディスプレイユニット上に表示することを有効化するように更に構成されており、
受信ユニットは、名前編集ユーザインタフェースを表示しながら、第1の個人の更新された名前を受信するように更に構成されており、
更新ユニットは、第1の個人の更新された名前を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を更新された名前に更新するように更に構成されている、項目164に記載のデバイス。
166.
表示有効化ユニットは、提示された個人に対応するアフォーダンスをディスプレイユニット上に表示することであって、提示された個人は、デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことを有効化するように更に構成されており、
受信ユニットは、提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
更新ユニットは、提示された個人に対応するアフォーダンスの選択に対応するユーザ入力を受信することに応答して、メモリに記憶された第1の個人に関連付けられた既存の名前を提案された個人の名前に更新するように更に構成されている、項目165に記載のデバイス。
167.
コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、
受信ユニットは、第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
関連付けユニットは、第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第1の個人の識別子を選択された個人の識別子のリストに関連付けるように更に構成されており、
表示有効化ユニットは、識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースをディスプレイユニット上に表示することであって、識別された個人の表現は、選択された個人のリストのうちの個人を含む、ことを有効化するように更に構成されており、
受信ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、ディスプレイユニット上で選択された個人の識別子のリストに関連付けられた識別子に対応しない個人の表現の表示を停止するように更に構成されている、項目164から166のいずれか一項に記載のデバイス。
168.
第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、処理ユニットは、追加ユニットを更に含み、
受信ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
追加ユニットは、第4のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2の詳細ユーザインタフェースを、ユーザによって保存された1組の詳細ユーザインタフェースに追加するように構成されており、
表示有効化ユニットは、第2の詳細ユーザインタフェースの表示を停止するように更に構成されており、
受信ユニットは、第2の詳細ユーザインタフェースの表示を停止した後、第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2の詳細ユーザインタフェースをディスプレイユニット上の表示を有効化するように更に構成されている、項目150から167に記載のデバイス。
169.
ディスプレイユニットと、
ディスプレイユニットに結合された処理ユニットと、を含み、処理ユニットは、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスをディスプレイユニット上に表示するように構成された表示有効化ユニットと、
複数のアフォーダンスを表示しながら、第1のユーザ入力を受信するように構成された受信ユニットと、
第1のユーザ入力を受信することに応答して、
視覚的メディアの自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得するように構成された取得ユニットと、
ディスプレイ上に表示された複数のアフォーダンスに視覚的メディアの第1のコレクションに対応する第1のアフォーダンスを追加するように構成された追加ユニットと、を含み、
受信ユニットは、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第2のユーザ入力を受信することに応答して、視覚的メディアの第2のコレクションの表現を含む詳細ユーザインタフェースをディスプレイユニット上の表示を有効化するように更に構成されている、
デバイス。
170.
処理ユニットは、生成ユニットを更に含み、視覚的メディアの複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することは、生成ユニットは、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成するように構成されていることを含む、項目169に記載のデバイス。
171.
処理ユニットは、判定ユニット及び選択ユニットを更に含み、第1のユーザ入力に応答してメディア項目の第1のコレクションを生成することは、
判定ユニットが、1組の共通の特性を共有するメディア項目のコレクションを判定するように構成されている、ことと、
選択ユニットが、1組の共通の特性を共有するメディア項目の1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成するように構成されている、ことを含む、項目170に記載のデバイス。
172.
受信ユニットは、第2のユーザ入力を受信する前に、第3のユーザ入力を受信するように更に構成されており、
表示有効化ユニットは、第3のユーザ入力を受信することに応答して、視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをディスプレイユニット上でスクロールするように更に構成されている、ことを更に含む、項目169から171のいずれか一項に記載のデバイス。
173.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスをスクロールすることは、表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、第2のアフォーダンスは、表示された複数のアフォーダンスに以前含まれておらず、第1のアフォーダンスは、第1の日付に関連付けられ、第2のアフォーダンスは、第1とは異なる第2の日付に関連付けられる、ことを含む、項目172に記載のデバイス。
174.
詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、表示された複数のアフォーダンスをスクロールすることは、複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、方法は、
受信ユニットが、第2のビュー内に複数のアフォーダンスを表示しながら、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することに応答して、第1の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことを有効化するように更に構成されており、
受信ユニットが、第1の詳細なユーザインタフェースを表示しながら、第2のアフォーダンスの選択に対応する第2のユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第2のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースをディスプレイユニット上に表示することであって、詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことを有効化するように更に構成されており、
受信ユニットが、第2の詳細ユーザインタフェースを表示しながら、第3のアフォーダンスの選択に対応するユーザ入力を受信するように更に構成されており、
表示有効化ユニットが、第3のアフォーダンスの選択に対応するユーザ入力を受信することに応答して、第2のビュー内の複数のアフォーダンスをディスプレイユニット上に表示することを有効化するように更に構成されている、ことを更に含む、項目173に記載のデバイス。
175.
視覚的メディアの複数の自動生成されたコレクションに対応する表示された複数のアフォーダンスは、自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、項目169から174のいずれか一項に記載のデバイス。
176.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、現在の期間に対応する複数のアフォーダンスをディスプレイユニット上に表示することを有効化することを含む、項目169から175のいずれか一項に記載のデバイス。
177.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスをディスプレイユニット上に表示することであって、複数のアフォーダンスは、所定数のアフォーダンスである、ことを有効化することを含む、項目169から176のいずれか一項に記載のデバイス。
178.
視覚的メディアの自動生成されたコレクションは、デバイスの一般的なコンテキストに文脈的に関連すると判定された、項目169から177のいずれか一項に記載のデバイス。
179.
視覚的メディアの第1のコレクションは、デバイスの特定のコンテキストに文脈的に関連する、項目169から178のいずれか一項に記載のデバイス。
180.
コンテキストは、デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、デバイスの現在位置の近くに現在ある対象地点の視覚的メディア、及びデバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、項目178から179のいずれか一項に記載のデバイス。
181.
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを表示することは、複数のアフォーダンスのそれぞれと共にコンテキスト情報をディスプレイユニット上に表示することを有効化することを含む、項目169から180のいずれか一項に記載のデバイス。
182.
デバイスは、処理ユニットに結合されたタッチ感知面ユニットを含み、第2のユーザ入力は、タッチ感知面ユニット上で検出された第1の特性強度を有するタッチユーザ入力であり、
判定ユニットは、タッチユーザ入力の第1の特性強度を判定するように更に構成されており、
表示有効化ユニットは、タッチユーザ入力が選択基準を満たしているという判定にしたがって、ディスプレイユニット上で複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、選択基準は、選択基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ように更に構成されており、
表示有効化ユニットは、タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの第2のコレクションの表現を含むプレビューユーザインタフェースをディスプレイユニット上に表示することであって、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値を超えることを要求し、第1の強度依存基準は、第1の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第2の強度閾値を超えることを要求しない、ことを有効化するように更に構成されており、
タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、複数のアフォーダンスの表示を詳細ユーザインタフェースの表示に置き換えることであって、第2の強度依存基準は、第2の強度依存基準が満たされるために、タッチユーザ入力の第1の特性強度が第1の強度閾値及び第2の強度閾値を超えることを要求する、ように更に構成されている、項目169から181のいずれか一項に記載のデバイス。
ように構成されている。
(例えば、固定された線形的な寸法、メディア項目の線形的な寸法の割合、メディア項目のエリアの割合等)である。
のうちの1つ以上に基づいて決定される。
Claims (103)
- ディスプレイを有するデバイスにおいて、
文脈的関連メディアを表示する要求を受信することと、
前記要求に応答して、
前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示することと、
前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示することであって、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、ことと、
を含む、方法。 - 前記デバイスが前記第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第3のコレクションの表現を前記ディスプレイ上に表示することであって、メディア項目の前記第1のコレクションは、第1のコンテキストプロパティに基づく前記第1のコンテキストに関連し、メディア項目の前記第3のコレクションは、第2のコンテキストプロパティに基づく前記第1のコンテキストに関連し、前記第2のコンテキストプロパティは、前記第1のコンテキストプロパティとは異なる、ことを更に含む、請求項1に記載の方法。
- メディア項目の前記第1のコレクションの前記表現は、第1のアフォーダンスであり、前記方法は、
前記第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの少なくとも一部を含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項1又は2に記載の方法。 - メディア項目の前記第1のコレクションの前記表現は、メディア項目の前記第1のコレクションから選択されたメディア項目の縮小バージョンを含む、請求項1又は2に記載の方法。
- メディア項目の前記第1のコレクションに関連付けられたテキスト識別子を生成することと、
前記選択されたメディア項目内の顔を識別することであって、前記選択されたメディア項目は画像である、ことと、
メディア項目の前記第1のコレクションの前記表現に重ね合わせられた前記テキスト識別子を前記ディスプレイ上に表示することであって、前記重ね合わせられたテキスト識別子は、メディア項目の前記第1のコレクションの前記表現として表示された前記選択されたメディア項目内の前記識別された顔と重畳されない、ことと、
を更に含む、請求項1又は2に記載の方法。 - メディア項目の前記第1のコレクションに関連付けられた前記テキスト識別子は、前記第1のコンテキストに対するメディア項目の前記第1のコレクションの関連性に基づいて選択され、前記第1のコンテキストに対するメディア項目の前記第1のコレクションの関連性を説明する1つ以上の単語を含む、請求項5に記載の方法。
- 前記詳細ユーザインタフェースを表示する前に、前記ディスプレイの第1の部分を視覚的に占有するメディア項目の前記第1のコレクションの前記表現を前記ディスプレイ上に表示することと、
前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに続いて、かつ前記詳細ユーザインタフェースを表示しながら、前記ディスプレイの前記第1の部分とは別個の前記ディスプレイの第2の部分を視覚的に占有するメディア項目の前記第1のコレクションのキーメディア項目を前記ディスプレイ上に表示することと、
前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに更に応答して、前記キーメディア項目に移行するメディア項目の前記第1のコレクションの前記表現のアニメートされた遷移を前記ディスプレイ上に表示することと、
を更に含む、請求項3に記載の方法。 - 前記詳細ユーザインタフェースを表示しながら、メディア項目の前記第1のコレクションの複数のメディア項目を含むスライドショーを前記ディスプレイ上に表示することと、
前記スライドショーの選択に対応するユーザ入力を受信することと、
前記スライドショーの前記選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの複数のメディア項目を含む動画を前記ディスプレイ上に表示することであって、前記スライドショーと前記動画は異なる、ことと、
を更に含む、請求項3に記載の方法。 - 前記スライドショーを編集する要求に対応するユーザ入力を受信することと、
前記スライドショーを編集する前記要求に対応する前記ユーザ入力を受信することに応答して、スライドショー編集ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項8に記載の方法。 - 前記詳細ユーザインタフェースは、第1の領域を含み、前記第1の領域は、メディア項目の前記第1のコレクションの前記メディア項目のサブセットを含むキュレートされたビューを含み、メディア項目の前記サブセットは、より低い品質の写真を除外するように選択される、請求項3に記載の方法。
- 前記第1の領域は、第2のアフォーダンスを更に含み、前記方法は、
前記第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2のアフォーダンスの選択に対応する前記入力を受信する前に表示されなかったメディア項目の前記第1のコレクションの追加メディア項目の表現を含む拡張ビューを前記ディスプレイ上に表示することと、
を更に含む、請求項10に記載の方法。 - 前記キュレートされたビューにおけるメディア項目の前記サブセットは、メディア項目の前記サブセットの前記メディア項目に関連付けられた時間に時間的に基づいて経時的に配置される、請求項10に記載の方法。
- 前記キュレートされたビューに含まれるメディア項目の前記サブセットは、キュレートされた配列に配置され、メディア項目の前記キュレートされた配列に含まれるメディア項目の前記サブセットは、前記キュレートされた配列の上部及び下部に実質的に真っ直ぐな境界を生成するように前記メディア項目のエッジが整列されるように配置される、請求項10に記載の方法。
- 前記キュレートされた配列の前記下部における前記実質的に真っ直ぐな境界は、前記キュレートされたビューに含まれるメディア項目の第1の複数の前記サブセットによって形成される、請求項13に記載の方法。
- 前記第1の複数のメディア項目は、第1のサイズ及び第1のアスペクト比を有する第1のメディア項目と、第2のサイズ及び第2のアスペクト比を有する第2のメディア項目とを含み、前記第1のサイズと前記第2のサイズは異なり、前記第1のアスペクト比と前記第2のアスペクト比は異なり、前記キュレートされた配列の前記下部における前記実質的に真っ直ぐな境界は、前記第1の複数のメディア項目の隣接するメディア項目のエッジによって形成される、請求項14に記載の方法。
- 前記メディア項目の寸法に部分的に基づいて、メディア項目の前記第1のコレクションの前記メディア項目からメディア項目の前記キュレートされたサブセットを選択すること、
を更に含む、請求項10に記載の方法。 - 前記キュレートされたビューに含まれるメディア項目の前記サブセットの第3のメディア項目の選択に対応するユーザ入力を受信することと、
前記キュレートされたビューに含まれるメディア項目の前記サブセットの前記第3のメディア項目の選択に対応する前記ユーザ入力を受信することに応答して、前記第3のメディア項目及びスクラビングアフォーダンスを前記ディスプレイ上に表示することと、
前記スクラビングアフォーダンスに対応するユーザ入力を受信することと、
前記スクラビングアフォーダンスに対応する前記ユーザ入力を受信することに応答して、前記スクラビングアフォーダンスを表示し続けながら、前記第3のメディア項目の表示をメディア項目の前記キュレートされたサブセットの第4のメディア項目の表示に置き換えることと、
を更に含む、請求項10に記載の方法。 - 前記詳細ユーザインタフェースは、地理的地図を含む第2の領域を含み、前記詳細ユーザインタフェースを表示することは、
メディア項目の前記第1のコレクションの第5のメディア項目に関連付けられた位置に対応する前記地理的地図上の位置インジケータを前記ディスプレイ上に表示すること、
を更に含む、請求項3に記載の方法。 - 前記地理的地図を表示しながら、第3のアフォーダンスを前記ディスプレイ上に表示することと、
前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションに含まれていないメディア項目の前記位置に対応する前記地理的地図ビュー内の追加位置インジケータを前記ディスプレイ上に表示することと、
を更に含む、請求項18に記載の方法。 - 前記追加位置インジケータを表示した後、
第4のアフォーダンスを前記ディスプレイ上に表示することと、
前記第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第4のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記追加位置インジケータを前記地理的地図ビューに表示することを停止することと、
を更に含む、請求項19に記載の方法。 - 前記位置インジケータの選択に対応するユーザ入力を受信することと、
前記位置インジケータの選択に対応するユーザ入力を受信することに応答して、前記地理的地図ビューの表示を前記第5のメディア項目の表示に置き換えることと、
を更に含む、請求項18に記載の方法。 - 前記詳細ユーザインタフェースは、メディア項目の前記第1のコレクションのメディア項目内の識別された顔に対応するインジケータを含む第3の領域を含み、前記方法は、
前記識別された顔に対応する前記インジケータの選択に対応するユーザ入力を受信することと、
前記識別された顔に対応する前記インジケータの選択に対応するユーザ入力を受信することに応答して、メディア項目の第4のコレクションを前記ディスプレイ上に表示することであって、メディア項目の前記第4のコレクションの前記メディア項目のそれぞれは、前記識別された顔を含む、ことと、
を更に含む、請求項3に記載の方法。 - 前記詳細ユーザインタフェースは、1組の共通の特性を共有するメディア項目の第5のコレクションの表現を含む第4の領域を含み、メディア項目の前記第5のコレクションのメディア項目は、メディア項目の前記第1のコレクションのメディア項目を有する第1の特性を共有し、前記方法は、
メディア項目の前記第5のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
メディア項目の前記第5のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第5のコレクションを含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項3に記載の方法。 - メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示した後、
1組の共通の特性を共有するメディア項目の第6のコレクションを表すデータを受信することであって、メディア項目の前記第6のコレクションは、メディア項目の前記第1のコレクションとは異なる、ことと、
メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示する前記要求に対応する前記ユーザ入力を受信することに応答して、前記詳細ユーザインタフェース、及び前記第4の領域内のメディア項目の前記第6のコレクションの表現を前記ディスプレイ上に表示することと、
を更に含む、請求項23に記載の方法。 - メディア項目の前記第1のコレクションを含む前記詳細ユーザインタフェースを表示しながら、
第5のアフォーダンスを前記ディスプレイ上に表示することと、
前記第5のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第5のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの識別子を、メモリに格納されたメディア項目の選択されたコレクションのリストに関連付けることと、
を更に含む、請求項3に記載の方法。 - メディア項目の選択されたコレクションの前記リストのメディア項目のコレクションの表現を検視する要求に対応するユーザ入力を受信することと、
メディア項目の選択されたコレクションの前記リストのメディア項目のコレクションの表現を検視する要求に対応する前記ユーザ入力を受信することに応答して、メディア項目の前記第1のコレクションの前記表現を前記ディスプレイ上に表示することと、
を更に含む、請求項25に記載の方法。 - ディスプレイ及びタッチ感知面を有するデバイスにおいて、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示することと、
前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信することと、
前記ユーザ入力を受信することに応答して、
前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、ことと、
を含む、方法。 - 前記ユーザ入力は、前記第1の視覚的メディア項目に対応する前記タッチ感知面上の位置で検出される、請求項27に記載の方法。
- それぞれの方向の移動を含む前記ユーザ入力は、第1のユーザ入力であり、前記方法は、
前記第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
前記第2のユーザ入力が前記第1の方向とは異なる第2の方向のスワイプジェスチャに対応するかどうかを判定することと、
前記ユーザ入力が前記第2の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目の表示を、視覚的メディア項目の前記シーケンスの第2の視覚的メディア項目の表示に置き換えることと、
を更に含む、請求項27又は28に記載の方法。 - 前記詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、前記方法は、
前記第2の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第2のユーザ入力を受信することと、
前記第2のユーザ入力が前記第1の方向のスワイプジェスチャに対応するかどうかを判定することと、
前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第2の視覚的メディア項目に関連すると判定された前記第2の視覚的メディア項目に対する関連コンテンツを含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第2の視覚的メディア項目に対する前記関連コンテンツは、前記第1のメディア項目に対する前記関連コンテンツとは異なる、ことと、
を更に含む、請求項29に記載の方法。 - 前記第1の視覚的メディア項目を表示しながら、それぞれの方向の動きを含む第3のユーザ入力を受信することと、
前記第3のユーザ入力が前記第1及び第2の方向とは異なる第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
前記第3のユーザ入力が前記第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目の前記シーケンスの前記メディア項目の縮小バージョンを前記ディスプレイ上に表示することと、
を更に含む、請求項27又は28に記載の方法。 - 視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンは、経時的に配置される、請求項31に記載の方法。
- 視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンは、それぞれの視覚的メディア項目に関連付けられた地理的位置によって視覚的にグループ化される、請求項31に記載の方法。
- 前記第2の視覚的メディア項目を表示しながら、それぞれの方向の移動を含む第4のユーザ入力を受信することと、
前記第4のユーザ入力が前記第3の方向のスワイプジェスチャに対応するかどうかを判定することと、
前記ユーザ入力が前記第3の方向のスワイプジェスチャに対応するという判定にしたがって、視覚的メディア項目の前記シーケンスの前記メディア項目の前記縮小バージョンを前記ディスプレイ上に表示することと、
を更に含む、請求項31に記載の方法。 - 前記第1の視覚的メディア項目に対する関連コンテンツの前記表現は、経時的に配置される、請求項27又は28に記載の方法。
- 前記第1の視覚的メディア項目を表示しながら、前記第1の方向の移動を含む第5のユーザ入力を受信することと、
前記第5のユーザ入力を受信することに応答して、
前記第1の視覚的メディア項目が所定の閾値を超えて拡大されたという判定にしたがって、前記詳細ユーザインタフェースを表示することなく、前記第5のユーザ入力にしたがって前記ディスプレイ上の前記第1の視覚的メディア項目を移動することと、
前記第1の視覚的メディア項目が所定の閾値を超えて拡大されていないという判定にしたがって、前記第5のユーザ入力にしたがって前記ディスプレイ上の前記第1の視覚的メディア項目を移動し、前記詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項27又は28に記載の方法。 - 前記詳細ユーザインタフェースは、前記第1のカテゴリによって編成された関連コンテンツを含む第1の領域を含み、前記第1のカテゴリは、前記第1の視覚的メディア項目内で識別された顔であり、前記第1の領域は、前記第1の視覚的メディア項目から識別された顔を含み、前記方法は、
前記識別された顔の選択に対応するユーザ入力を受信することと、
前記識別された顔の選択に対応するユーザ入力を受信することに応答して、メディア項目の第1のコレクションを前記ディスプレイ上に表示することであって、メディア項目の前記第1のコレクション内の各項目は、前記識別された顔を含むように選択される、ことと、
を更に含む、請求項27又は28に記載の方法。 - 前記詳細ユーザインタフェースは、前記第2のカテゴリによって編成された関連コンテンツを含む第2の領域を含み、前記第2のカテゴリは、位置であり、前記第2の領域は、前記第1の視覚的メディア項目に関連付けられた位置に対応する位置インジケータを含む地理的地図を含む、請求項27又は28に記載の方法。
- 前記第2の領域の選択に対応するユーザ入力を受信することと、
前記第2の領域の選択に対応する前記ユーザ入力に応答して、前記第1の視覚的メディアに関連付けられた前記位置の視覚表現を含む地図ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項38に記載の方法。 - 前記アドレスの選択に対応するユーザ入力を受信することと、
前記アドレスの選択に対応する前記ユーザ入力に応答して、地図アプリケーションのユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項39に記載の方法。 - 前記詳細ユーザインタフェースは、第3のカテゴリによって編成された関連コンテンツを含む第3の領域を含み、前記第3のカテゴリは、1組の共通の特性を共有する視覚的メディア項目のコレクションであり、前記第3の領域は、1組の共通の特性を共有する視覚的メディア項目の第2のコレクションの表現を含み、視覚的メディア項目の前記第2のコレクションの視覚的メディア項目は、前記第1の視覚的メディア項目と第1の特性を共有し、前記方法は、
視覚的メディア項目の前記第2のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
メディア項目の前記第1のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、視覚的メディア項目の前記第2のコレクションの前記視覚的メディア項目の表現を前記ディスプレイ上に表示することと、
を更に含む、請求項27又は28に記載の方法。 - 視覚的メディア項目の前記第2のコレクションは、前記第1の視覚的メディア項目を除外する、請求項41に記載の方法。
- 前記第1の視覚的メディア項目に対する関連コンテンツを含む前記詳細ユーザインタフェースを表示することは、
前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールして前記詳細ユーザインタフェースを明瞭化することを含む、請求項27又は28に記載の方法。 - 前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールして前記詳細ユーザインタフェースを明瞭化することは、
表示されたままの前記第1の視覚的メディア項目の部分が前記第1の視覚的メディア項目の所定の部分になるまで、前記表示された第1の視覚的メディア項目を前記第1の方向にスクロールすることと、
前記所定の部分が前記表示された部分になるまでスクロールした後、
前記第1の視覚的メディア項目のスクロールを停止することと、
前記第1のメディア項目の前記所定の部分が静止している間に、前記詳細ユーザインタフェースを明瞭化するためにスクロールを続けることと、
を含む、請求項43に記載の方法。 - 前記第1の視覚的メディア項目は、画像又は動画である、請求項27又は28に記載の方法。
- 前記詳細ユーザインタフェースは、前記デバイスにインストールされたアプリケーションのインタフェースであり、前記詳細ユーザインタフェースは、前記アプリケーションを使用して表示された任意の視覚的メディア項目の前記ディスプレイにおいてアクセス可能である、請求項27又は28に記載の方法。
- ディスプレイを有するデバイスにおいて、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
前記第1の詳細ユーザインタフェースを表示しながら、
前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示することと、
前記アフォーダンスの選択に対応するユーザ入力を受信することと、
前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、ことと、
を含む、方法。 - 前記複数の個人による特定のイベントの出席は、前記特定のイベントに対応する少なくとも1つのメディア項目内の前記複数の個人のうちの個人の顔を識別することに基づいて識別される、請求項47に記載の方法。
- 前記複数の個人による特定のイベントの出席は、前記複数の個人に関連付けられた位置データに基づいて識別され、前記位置データは、前記特定のイベントの時刻に前記特定のイベントの場所にいた前記複数の個人のうちの個人に対応するデバイスを識別するデータを含む、請求項47又は48に記載の方法。
- 前記第2の視覚的メディアは、前記複数の個人のうちの全ての個人よりも少ない個人を表す第1のメディア項目を含む、請求項47又は48に記載の方法。
- 前記第2の詳細ユーザインタフェースは、前記第2の視覚的メディアの前記メディア項目を含むスライドショーを含む第1の領域を含み、前記方法は、
前記スライドショーの選択に対応するユーザ入力を受信することと、
前記スライドショーの選択に対応する前記ユーザ入力に応答して、前記第2の視覚的メディアのメディア項目を含む動画を前記ディスプレイ上に表示することであって、前記スライドショーと前記動画は異なる、ことと、
を更に含む、請求項47又は48に記載の方法。 - 前記第2の詳細ユーザインタフェースは、第2の領域を含み、前記第2の領域は、前記第2の視覚的メディアの前記メディア項目のサブセットを含むキュレートされたビューを含む、請求項47又は48に記載の方法。
- 前記第2の領域は、第1のアフォーダンスを更に含み、前記方法は、
前記第1のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第1のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2の視覚的メディアの前記メディア項目の拡張ビューを前記ディスプレイ上に表示することと、
を更に含む、請求項52に記載の方法。 - 前記第2の詳細ユーザインタフェースは、地理的地図を含む第3の領域を含み、前記詳細ユーザインタフェースを表示することは、
前記第2の視覚的メディアの第2のメディア項目に関連付けられた位置に対応する前記地理的地図上の位置インジケータを前記ディスプレイ上に表示すること、
を更に含む、請求項47又は48に記載の方法。 - 前記第2の詳細なユーザインタフェースは、1組の共通の特性を共有する視覚的メディア項目の第1のコレクションの表現を含む第4の領域を含み、視覚的メディア項目の前記第1のコレクションの視覚的メディア項目は、前記第2の視覚的メディアの視覚的メディア項目と第1の特性を共有し、前記方法は、
視覚的メディア項目の前記第1のコレクションの前記表現の選択に対応するユーザ入力を受信することと、
メディア項目の前記第1のコレクションの前記表現の選択に対応する前記ユーザ入力を受信することに応答して、視覚的メディア項目の前記第1のコレクションの前記視覚的メディア項目の表現を前記ディスプレイ上に表示することと、
を更に含む、請求項47又は48に記載の方法。 - 視覚的メディア項目の前記第1のコレクションは、前記第2の視覚的メディアの前記メディア項目を除外する、請求項55に記載の方法。
- 前記第2の詳細ユーザインタフェースを表示しながら、それぞれが前記複数の個人のうちの単一の異なる個人に対応する複数のアフォーダンスを含む第5の領域を前記ディスプレイ上に表示することと、
前記第5の領域内の前記複数のアフォーダンスのうちのアフォーダンスの選択に対応するユーザ入力を受信することであって、前記アフォーダンスは、第1の個人に対応する、ことと、
前記第1の個人に対応する前記アフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、第3の視覚的メディアの表現を含む第3の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第3の視覚的メディアは、第3の複数のメディア項目を含み、前記第3の複数のメディア項目のそれぞれは、前記第1の個人を示すものとして識別され、前記第3の複数のメディア項目は、前記第1の個人が出席したと識別された第4のイベントに対応するメディア項目を含み、前記第2のイベント、前記第3のイベント、及び前記第4のイベントは異なる、ことと、
を更に含む、請求項47又は48に記載の方法。 - 前記第5の領域をスクロールする要求に対応するユーザ入力を受信することと、
前記第5の領域をスクロールする前記要求に対応する前記ユーザ入力を受信することに応答して、前記第5の領域が静止している間に前記第5の領域に含まれる前記複数のアフォーダンスをスクロールさせることであって、前記複数のアフォーダンスをスクロールすることにより、以前に表示されていないアフォーダンスが前記第5の領域に表示され、前記以前に表示されていないアフォーダンスは、前記複数の個人に含まれていない第2の個人に対応する、ことと、
を更に含む、請求項57に記載の方法。 - 前記第3の詳細ユーザインタフェースを表示しながら、第2のアフォーダンスを前記ディスプレイ上に表示することと、
前記第2のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人を潜在的に示すものとして識別された候補視覚的メディア項目を含む個人確認ユーザインタフェースを前記ディスプレイ上に表示することであって、前記候補視覚的メディア項目は、前記第3の視覚的メディアに含まれない、ことと、
を更に含む、請求項57に記載の方法。 - 前記個人確認ユーザインタフェースに関連付けられたユーザ入力を受信することと、
前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力を受信することに応答して、
前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が、確認入力又は拒否入力を表すかどうかを判定することと、
前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が確認入力を表すという判定にしたがって、前記候補メディア項目を前記第1の個人に関連付けることと、
前記個人確認ユーザインタフェースに関連付けられた前記ユーザ入力が拒否入力を表すという判定にしたがって、前記候補メディア項目を前記第1の個人に関連付けることを見合わせることと、
を更に含む、請求項59に記載の方法。 - 前記複数のアフォーダンスのうちの前記アフォーダンスの選択に対応する前記ユーザ入力は、タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、前記方法は、
前記ユーザ入力の第1の特性強度を判定することと、
前記ユーザ入力が強度依存基準を満たすという判定にしたがって、コンテキストメニューユーザインタフェースを表示することであって、前記強度依存基準は、前記強度依存基準が満たされるために前記タッチユーザ入力の第1の特性強度が強度閾値を超えることを要求する、ことと、
を更に含む、請求項57に記載の方法。 - 前記コンテキストメニューユーザインタフェースは、第1のコンテキストアフォーダンスを含み、前記方法は、
前記第1のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第1のコンテキストアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人の識別子として使用される名前を編集するための名前編集ユーザインタフェースを前記ディスプレイ上に表示することと、
前記名前編集ユーザインタフェースを表示しながら、前記第1の個人の更新された名前を受信することと、
前記第1の個人の前記更新された名前を受信することに応答して、メモリに記憶された前記第1の個人に関連付けられた既存の名前を前記更新された名前に更新することと、
を更に含む、請求項61に記載の方法。 - 提示された個人に対応するアフォーダンスを前記ディスプレイ上に表示することであって、前記提示された個人は、前記デバイスにアクセス可能なコンタクトリスト内のコンタクトに対応する、ことと、
前記提示された個人に対応する前記アフォーダンスの選択に対応するユーザ入力を受信することと、
前記提示された個人に対応する前記アフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、メモリに記憶された前記第1の個人に関連付けられた前記既存の名前を前記提案された個人の名前に更新することと、
を更に含む、請求項62に記載の方法。 - 前記コンテキストメニューユーザインタフェースは、第2のコンテキストアフォーダンスを含み、前記方法は、
前記第2のコンテキストアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第2のコンテキストアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第1の個人の識別子を選択された個人の識別子のリストに関連付けることと、
識別された個人の第3のアフォーダンス及び表現を含むユーザインタフェースを前記ディスプレイ上に表示することであって、識別された個人の前記表現は、選択された個人の前記リストのうちの前記個人を含む、ことと、
前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、選択された個人の識別子の前記リストに関連付けられた識別子に対応しない個人の表現の表示を停止することと、
を更に含む、請求項61に記載の方法。 - 前記第2の詳細ユーザインタフェースは、第4のアフォーダンスを含み、前記方法は、
前記第4のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第4のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2の詳細ユーザインタフェースを、前記ユーザによって保存された1組の詳細ユーザインタフェースに追加することと、
前記第2の詳細ユーザインタフェースの表示を停止することと、
前記第2の詳細ユーザインタフェースの表示を停止した後、前記第2の詳細ユーザインタフェースを表示する要求に対応するユーザ入力を受信することと、
前記第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
を更に含む、請求項47又は48に記載の方法。 - ディスプレイを有するデバイスにおいて、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示することと、
前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信することと、
前記第1のユーザ入力を受信することに応答して、
視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得することと、
前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加することと、
前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信することと、
前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示することと、
を含む、方法。 - 視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの前記自動生成された第1のコレクションを取得することは、前記第1のユーザ入力に応答してメディア項目の前記第1のコレクションを生成することを含む、請求項66に記載の方法。
- 前記第1のユーザ入力に応答してメディア項目の前記第1のコレクションを生成することは、
1組の共通の特性を共有するメディア項目のコレクションを判定することと、
前記1組の共通の特性を共有するメディア項目の前記1組のコレクションのより小さいサブセットを選択して、キュレートされた1組のメディア項目を作成することと、
を含む、請求項67に記載の方法。 - 前記第2のユーザ入力を受信する前に、第3のユーザ入力を受信することと、
前記第3のユーザ入力を受信することに応答して、視覚的メディアの前記複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスをスクロールすることと、
を更に含む、請求項66又は67に記載の方法。 - 視覚的メディアの前記複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスをスクロールすることは、
前記表示された複数のアフォーダンスをスクロールして、視覚的メディアの自動生成された第2のコレクションに対応する第2のアフォーダンスを明瞭化することであって、前記第2のアフォーダンスは、前記表示された複数のアフォーダンスに以前含まれておらず、前記第1のアフォーダンスは、第1の日付に関連付けられ、前記第2のアフォーダンスは、前記第1とは異なる第2の日付に関連付けられる、ことを含む、請求項69に記載の方法。 - 前記詳細ユーザインタフェースは、第1の詳細ユーザインタフェースであり、前記表示された複数のアフォーダンスをスクロールすることは、前記複数のアフォーダンスを第1のビューから第2のビューにスクロールすることを含み、前記方法は、
前記第2のビュー内に前記複数のアフォーダンスを表示しながら、前記第1のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することと、
前記第1のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することに応答して、前記第1の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の詳細ユーザインタフェースは、視覚的メディアの第3のコレクションに対応する第2のアフォーダンスを含み、前記第1の詳細ユーザインタフェースは、第3のアフォーダンスを含む、ことと、
前記第1の詳細なユーザインタフェースを表示しながら、前記第2のアフォーダンスの選択に対応する前記第2のユーザ入力を受信することと、
前記第2のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第3のアフォーダンスに対応する視覚的メディアのコレクションの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示することであって、前記詳細ユーザインタフェースは、前記第3のアフォーダンスを含む、ことと、
前記第2の詳細ユーザインタフェースを表示しながら、前記第3のアフォーダンスの選択に対応するユーザ入力を受信することと、
前記第3のアフォーダンスの選択に対応する前記ユーザ入力を受信することに応答して、前記第2のビュー内の前記複数のアフォーダンスを前記ディスプレイ上に表示することと、
を更に含む、請求項70に記載の方法。 - 視覚的メディアの複数の自動生成されたコレクションに対応する前記表示された複数のアフォーダンスは、前記自動生成されたコレクションのうちのそれぞれの自動生成されたコレクションが取得された日付に基づいて時間順に配置される、請求項66又は67に記載の方法。
- 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、
現在の期間に対応する複数のアフォーダンスを前記ディスプレイ上に表示することを含む、請求項66又は67に記載の方法。 - 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、
複数の異なる期間のそれぞれについて期間に対応する複数のアフォーダンスを前記ディスプレイ上に表示することであって、前記複数のアフォーダンスは、所定数のアフォーダンスである、ことを含む、請求項66又は67に記載の方法。 - 視覚的メディアの前記自動生成されたコレクションは、前記デバイスの一般的なコンテキストに文脈的に関連すると判定された、請求項66又は67に記載の方法。
- 視覚的メディアの前記第1のコレクションは、前記デバイスの特定のコンテキストに文脈的に関連する、請求項66又は67に記載の方法。
- コンテキストは、前記デバイスの現在位置の近くに現在あると識別された個人の記念日、誕生日、最近の旅行、先週、視覚的メディア、前記デバイスの前記現在位置の近くに現在ある対象地点の視覚的メディア、及び前記デバイスによってアクセス可能なカレンダ上のイベントのうちの1つ以上を含む、請求項75に記載の方法。
- 視覚的メディアの複数の自動生成されたコレクションに対応する前記複数のアフォーダンスを表示することは、前記複数のアフォーダンスのそれぞれと共にコンテキスト情報を前記ディスプレイ上に表示することを含む、請求項66又は67に記載の方法。
- 前記デバイスは、タッチ感知面を含み、前記第2のユーザ入力は、前記タッチ感知面上で検出された第1の特性強度を有するタッチユーザ入力であり、前記方法は、
前記タッチユーザ入力の第1の特性強度を判定することと、
前記タッチユーザ入力が選択基準を満たしているという判定にしたがって、前記複数のアフォーダンスの表示を前記詳細ユーザインタフェースの表示に置き換えることであって、前記選択基準は、前記選択基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が第1の強度閾値又は第2の強度閾値を超えることを要求しない、ことと、
前記タッチユーザ入力が第1の強度依存基準を満たしているという判定にしたがって、前記複数のアフォーダンスの一部を表示し続けながら、視覚的メディアの前記第2のコレクションの表現を含むプレビューユーザインタフェースを前記ディスプレイ上に表示することであって、前記第1の強度依存基準は、前記第1の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第1の強度閾値を超えることを要求し、前記第1の強度依存基準は、前記第1の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第2の強度閾値を超えることを要求しない、ことと、
前記タッチユーザ入力が第2の強度依存基準を満たしているという判定にしたがって、前記複数のアフォーダンスの表示を前記詳細ユーザインタフェースの表示に置き換えることであって、前記第2の強度依存基準は、前記第2の強度依存基準が満たされるために、前記タッチユーザ入力の前記第1の特性強度が前記第1の強度閾値及び前記第2の強度閾値を超えることを要求する、ことと、
を更に含む、請求項66又は67に記載の方法。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
文脈的関連メディアを表示する要求を受信し、
前記要求に応答して、
前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示し、
前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示する命令を含み、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
文脈的関連メディアを表示する要求を受信させ、
前記要求に応答して、
前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示させ、
前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示させ、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、非一時的コンピュータ可読記憶媒体。 - ディスプレイと、
文脈的関連メディアを表示する要求を受信する手段と、
前記要求に応答して、
前記デバイスが第1のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第1のコンテキストに関連するメディア項目の第1のコレクションの表現を前記ディスプレイ上に表示する手段と、
前記デバイスが第2のコンテキストにあるという判定にしたがって、1組の共通の特性を共有し、かつ前記第2のコンテキストに関連するメディア項目の第2のコレクションの表現を前記ディスプレイ上に表示する手段であって、メディア項目の前記第2のコレクションは、メディア項目の前記第1のコレクションとは異なる、手段と、
を備える、システム。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備える電子デバイスであって、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項1から26のいずれか一項に記載の方法を実行する命令を含む電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項1から26のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
- ディスプレイと、請求項1から26のいずれか一項に記載の方法を実行する手段と、
を備える、システム。 - ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示し、
前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信し、
前記ユーザ入力を受信することに応答して、
前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定し、
前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含み、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、前記デバイスに、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示させ、
前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信させ、
前記ユーザ入力を受信することに応答して、
前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定させ、
前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示させ、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、非一時的コンピュータ可読記憶媒体。 - ディスプレイと、
タッチ感知面と、
視覚的メディア項目のシーケンスの第1の視覚的メディア項目を前記ディスプレイ上に表示する手段と、
前記第1の視覚的メディア項目を表示しながら、それぞれの方向の移動を含むユーザ入力を受信する手段と、
前記ユーザ入力を受信することに応答して、
前記ユーザ入力が第1の方向のスワイプジェスチャに対応するかどうかを判定する手段と、
前記ユーザ入力が前記第1の方向のスワイプジェスチャに対応するという判定にしたがって、前記第1の視覚的メディア項目に関連すると判定された前記第1の視覚的メディア項目に対する関連コンテンツを含む詳細ユーザインタフェースを前記ディスプレイ上に表示する手段であって、前記第1の視覚的メディア項目に対する前記関連コンテンツは、第1のカテゴリによって編成された関連コンテンツの1つ以上の表現と、第2のカテゴリによって編成された関連コンテンツの1つ以上の表現とを含み、前記第1のカテゴリは前記第2のカテゴリとは異なる、手段と、
を備える、システム。 - ディスプレイと、
タッチ感知面と、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項27から46のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイ及びタッチ感知面を備える電子デバイスによって実行されたときに、前記デバイスに、請求項27から46のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
- ディスプレイと、
タッチ感知面と、請求項27から46のいずれか一項に記載の方法を実行する手段と、
を備える、システム。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示し、
前記第1の詳細ユーザインタフェースを表示しながら、
前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示し、
前記アフォーダンスの選択に対応するユーザ入力を受信し、
前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含み、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示させ、
前記第1の詳細ユーザインタフェースを表示しながら、
前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示させ、
前記アフォーダンスの選択に対応するユーザ入力を受信させ、
前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示させ、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、非一時的コンピュータ可読記憶媒体。 - ディスプレイと、
第1のイベントに対応する第1の視覚的メディアの表現を含む第1の詳細ユーザインタフェースを前記ディスプレイ上に表示する手段と、
前記第1の詳細ユーザインタフェースを表示しながら、
前記第1のイベントに出席したと識別された複数の個人に対応するアフォーダンスを前記ディスプレイ上に表示し、
前記アフォーダンスの選択に対応するユーザ入力を受信する手段と、
前記ユーザ入力を受信することに応答して、第2の視覚的メディアの表現を含む第2の詳細ユーザインタフェースを前記ディスプレイ上に表示する手段であって、前記第2の視覚的メディアは、前記複数の個人が出席したと識別された第2のイベントに対応する第1の複数のメディア項目と、前記複数の個人が出席したと識別された第3のイベントに対応する第2の複数のメディア項目とを含み、前記第2のイベントと前記第3のイベントは異なる、手段と、
を備える、システム。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項47から65のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項47から65のいずれか一項に記載の方法を実行させる、
非一時的コンピュータ可読記憶媒体。 - ディスプレイと、請求項47から65のいずれか一項に記載の方法を実行する手段と、
を備える、システム。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示し、
前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信し、
前記第1のユーザ入力を受信することに応答して、
視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加し、
前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信し、
前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示する、命令を含む、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示させ、
前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信させ、
前記第1のユーザ入力を受信することに応答して、
視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得させ、
前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加させ、
前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信させ、
前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示させる、非一時的コンピュータ可読記憶媒体。 - ディスプレイと、
視覚的メディアの複数の自動生成されたコレクションに対応する複数のアフォーダンスを前記ディスプレイ上に表示する手段と、
前記複数のアフォーダンスを表示しながら、第1のユーザ入力を受信する手段と、
前記第1のユーザ入力を受信することに応答して、
視覚的メディアの前記自動生成されたコレクションのうちのコレクションのそれぞれとは異なる、視覚的メディアの前記複数のコレクションに以前含まれていなかった視覚的メディアの自動生成された第1のコレクションを取得し、
前記ディスプレイ上に表示された前記複数のアフォーダンスに視覚的メディアの前記第1のコレクションに対応する第1のアフォーダンスを追加する手段と、
前記第1のアフォーダンスの選択に対応する第2のユーザ入力を受信する手段と、
前記第2のユーザ入力を受信することに応答して、視覚的メディアの前記第2のコレクションの表現を含む詳細ユーザインタフェースを前記ディスプレイ上に表示する手段と、
を備える、システム。 - ディスプレイと、
1つ以上のプロセッサと、
メモリと、
1つ以上のプログラムと、を備え、前記1つ以上のプログラムは前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成されており、前記1つ以上のプログラムは請求項66から79のいずれか一項に記載の方法を実行する命令を含む、電子デバイス。 - 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムが、命令を含み、前記命令が、ディスプレイを備える電子デバイスによって実行されたときに、前記デバイスに、請求項66から79のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
- ディスプレイと、請求項66から79のいずれか一項に記載の方法を実行する手段と、
を備える、システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021000224A JP6895028B2 (ja) | 2016-06-12 | 2021-01-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662349109P | 2016-06-12 | 2016-06-12 | |
US62/349,109 | 2016-06-12 | ||
DKPA201670608A DK201670608A1 (en) | 2016-06-12 | 2016-08-10 | User interfaces for retrieving contextually relevant media content |
DKPA201670609A DK201670609A1 (en) | 2016-06-12 | 2016-08-10 | User interfaces for retrieving contextually relevant media content |
DKPA201670608 | 2016-08-10 | ||
DKPA201670609 | 2016-08-10 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018562937A Division JP6550545B1 (ja) | 2016-06-12 | 2017-05-31 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021000224A Division JP6895028B2 (ja) | 2016-06-12 | 2021-01-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215874A true JP2019215874A (ja) | 2019-12-19 |
JP6820381B2 JP6820381B2 (ja) | 2021-01-27 |
Family
ID=60572656
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018562937A Active JP6550545B1 (ja) | 2016-06-12 | 2017-05-31 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
JP2019123115A Active JP6820381B2 (ja) | 2016-06-12 | 2019-07-01 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
JP2021000224A Active JP6895028B2 (ja) | 2016-06-12 | 2021-01-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
JP2021094529A Active JP6956910B2 (ja) | 2016-06-12 | 2021-06-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018562937A Active JP6550545B1 (ja) | 2016-06-12 | 2017-05-31 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021000224A Active JP6895028B2 (ja) | 2016-06-12 | 2021-01-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
JP2021094529A Active JP6956910B2 (ja) | 2016-06-12 | 2021-06-04 | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
Country Status (7)
Country | Link |
---|---|
US (2) | US10073584B2 (ja) |
EP (2) | EP3472731A4 (ja) |
JP (4) | JP6550545B1 (ja) |
KR (4) | KR101959328B1 (ja) |
CN (5) | CN118245620A (ja) |
AU (6) | AU2017284958B2 (ja) |
DK (2) | DK201670608A1 (ja) |
Families Citing this family (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
EP3260969B1 (en) | 2009-09-22 | 2021-03-03 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US9552376B2 (en) | 2011-06-09 | 2017-01-24 | MemoryWeb, LLC | Method and apparatus for managing digital files |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
KR102111769B1 (ko) * | 2013-02-08 | 2020-06-08 | 삼성전자주식회사 | 추천 패널 제공 방법 및 이를 위한 디바이스, 추천 아이템 제공 방법 및 이를 위한 서버 |
EP3937002A1 (en) | 2013-06-09 | 2022-01-12 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
CN106415475A (zh) | 2014-06-24 | 2017-02-15 | 苹果公司 | 用于在用户界面中导航的列界面 |
CN111078110B (zh) | 2014-06-24 | 2023-10-24 | 苹果公司 | 输入设备和用户界面交互 |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US9916075B2 (en) | 2015-06-05 | 2018-03-13 | Apple Inc. | Formatting content for a reduced-size user interface |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
USD778942S1 (en) * | 2016-01-11 | 2017-02-14 | Apple Inc. | Display screen or portion thereof with graphical user interface |
CN107015998A (zh) * | 2016-01-28 | 2017-08-04 | 阿里巴巴集团控股有限公司 | 一种图片处理方法、装置和智能终端 |
US10534503B1 (en) | 2016-06-06 | 2020-01-14 | Google Llc | Motion stills experience |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK201670608A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | User interfaces for retrieving contextually relevant media content |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
KR20180003884A (ko) * | 2016-07-01 | 2018-01-10 | 삼성전자주식회사 | 전자 장치 및 그의 정보 제공 방법 |
EP3654290A1 (en) | 2016-09-23 | 2020-05-20 | Apple Inc. | Avatar creation and editing |
US10817895B2 (en) | 2016-12-30 | 2020-10-27 | Adobe Inc. | Marketing campaign system and method |
USD845974S1 (en) * | 2016-12-30 | 2019-04-16 | Adobe Inc. | Graphical user interface for displaying a marketing campaign on a screen |
USD849029S1 (en) * | 2016-12-30 | 2019-05-21 | Adobe Inc. | Display screen with graphical user interface for a marketing campaign |
US10158828B2 (en) | 2017-04-05 | 2018-12-18 | Facebook, Inc. | Customized graphics for video conversations |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
US11323398B1 (en) * | 2017-07-31 | 2022-05-03 | Snap Inc. | Systems, devices, and methods for progressive attachments |
USD880493S1 (en) * | 2017-08-14 | 2020-04-07 | Hong Kong Liveme Corporation Limited | Mobile communication terminal display screen with a transitional graphical user interface |
US10372298B2 (en) | 2017-09-29 | 2019-08-06 | Apple Inc. | User interface for multi-user communication session |
US10524010B2 (en) * | 2017-11-07 | 2019-12-31 | Facebook, Inc. | Social interaction user interface for videos |
USD861025S1 (en) * | 2018-01-23 | 2019-09-24 | Whatsapp Inc. | Display screen with an animated graphical user interface |
USD870742S1 (en) | 2018-01-26 | 2019-12-24 | Facebook, Inc. | Display screen or portion thereof with animated user interface |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK201870364A1 (en) | 2018-05-07 | 2019-12-03 | Apple Inc. | MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
WO2020028870A1 (en) * | 2018-08-03 | 2020-02-06 | Panoramiq Markets Inc. | Location-based verification of user requests, identification of matching users based on image analysis, and generation of notifications on mobile devices |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
EP3864528A1 (en) * | 2018-10-08 | 2021-08-18 | Google LLC | Systems and methods for displaying media files |
US10936178B2 (en) | 2019-01-07 | 2021-03-02 | MemoryWeb, LLC | Systems and methods for analyzing and organizing digital photos and videos |
CN109905772B (zh) * | 2019-03-12 | 2022-07-22 | 腾讯科技(深圳)有限公司 | 视频片段查询方法、装置、计算机设备及存储介质 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
EP3928526A1 (en) * | 2019-03-24 | 2021-12-29 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
WO2020227273A1 (en) * | 2019-05-06 | 2020-11-12 | Apple Inc. | Media browsing user interface with intelligently selected representative media items |
DK201970535A1 (en) * | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK180129B1 (en) * | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US12015732B2 (en) * | 2019-05-31 | 2024-06-18 | Apple Inc. | Device, method, and graphical user interface for updating a background for home and wake screen user interfaces |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
USD970516S1 (en) * | 2019-06-20 | 2022-11-22 | Yandex Europe Ag | Display screen or portion thereof with graphical user interface |
US11237716B2 (en) | 2019-10-14 | 2022-02-01 | Sling TV L.L.C. | Devices, systems and processes for facilitating user adaptive progressions through content |
DK202070612A1 (en) | 2020-02-14 | 2021-10-26 | Apple Inc | User interfaces for workout content |
CN111294656B (zh) * | 2020-03-12 | 2021-09-14 | 北京字节跳动网络技术有限公司 | 用于调节视频播放的方法、装置和电子设备 |
CN111580718A (zh) * | 2020-04-30 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 应用程序的页面切换方法、装置、电子设备及存储介质 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11038934B1 (en) | 2020-05-11 | 2021-06-15 | Apple Inc. | Digital assistant hardware abstraction |
US11843574B2 (en) | 2020-05-21 | 2023-12-12 | Snap Inc. | Featured content collection interface |
US11294538B2 (en) * | 2020-06-03 | 2022-04-05 | Snap Inc. | Timeline media content navigation system |
CN111813303B (zh) * | 2020-06-10 | 2022-01-28 | 维沃移动通信有限公司 | 文本处理方法、装置、电子设备及可读存储介质 |
US11539647B1 (en) * | 2020-06-17 | 2022-12-27 | Meta Platforms, Inc. | Message thread media gallery |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11416917B2 (en) * | 2020-08-04 | 2022-08-16 | Contextlogic, Inc. | Content carousel |
CN114095905B (zh) * | 2020-08-05 | 2024-08-09 | 华为技术有限公司 | 设备交互方法和电子设备 |
CN112087661B (zh) * | 2020-08-25 | 2022-07-22 | 腾讯科技(上海)有限公司 | 视频集锦生成方法、装置、设备及存储介质 |
USD962279S1 (en) * | 2020-10-14 | 2022-08-30 | Kwai Games Pte, Ltd. | Display screen or portion thereof with graphical user interface |
US11431891B2 (en) | 2021-01-31 | 2022-08-30 | Apple Inc. | User interfaces for wide angle video conference |
USD1013716S1 (en) * | 2021-04-01 | 2024-02-06 | Instasize, Inc. | Display screen or portion thereof with a graphical user interface |
USD1013715S1 (en) * | 2021-04-01 | 2024-02-06 | Instasize, Inc. | Display screen or portion thereof with a graphical user interface |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11893214B2 (en) | 2021-05-15 | 2024-02-06 | Apple Inc. | Real-time communication user interface |
US20220368548A1 (en) | 2021-05-15 | 2022-11-17 | Apple Inc. | Shared-content session user interfaces |
USD1012099S1 (en) * | 2021-05-25 | 2024-01-23 | Beijing Kuaimajiabian Technology Co., Ltd. | Display screen or portion thereof with a graphical user interface |
US20220382811A1 (en) * | 2021-06-01 | 2022-12-01 | Apple Inc. | Inclusive Holidays |
US11770600B2 (en) | 2021-09-24 | 2023-09-26 | Apple Inc. | Wide angle video conference |
CN116861019A (zh) * | 2022-01-14 | 2023-10-10 | 荣耀终端有限公司 | 图片显示方法及电子设备 |
JP1738171S (ja) * | 2022-02-22 | 2023-03-03 | X線ct装置 | |
JP1738170S (ja) * | 2022-02-22 | 2023-03-03 | X線ct装置 | |
US11893204B2 (en) | 2022-05-23 | 2024-02-06 | Snap Inc. | Context cards for media supplementation |
US12101289B2 (en) * | 2023-02-13 | 2024-09-24 | Steven Gray | Systems and method for creating event profiles, sending notifications to remind of events, and enabling sending related messages |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010503130A (ja) * | 2006-09-11 | 2010-01-28 | アップル インコーポレイテッド | 画像ベースブラウジングを備えたメディアプレーヤ |
JP2014093003A (ja) * | 2012-11-05 | 2014-05-19 | Robot:Kk | 書籍作成システム及び書籍印刷システム |
WO2014162659A1 (ja) * | 2013-04-01 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
US20150309698A1 (en) * | 2014-04-25 | 2015-10-29 | Dropbox, Inc. | Browsing and selecting content items based on user gestures |
JP2016035776A (ja) * | 2015-11-11 | 2016-03-17 | ヤフー株式会社 | 情報表示装置、情報表示方法および情報表示プログラム |
Family Cites Families (383)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3859005A (en) | 1973-08-13 | 1975-01-07 | Albert L Huebner | Erosion reduction in wet turbines |
US4826405A (en) | 1985-10-15 | 1989-05-02 | Aeroquip Corporation | Fan blade fabrication system |
JPH03217976A (ja) | 1990-01-23 | 1991-09-25 | Canon Inc | 画像処理システム |
US5196838A (en) | 1990-12-28 | 1993-03-23 | Apple Computer, Inc. | Intelligent scrolling |
US5416895A (en) | 1992-04-08 | 1995-05-16 | Borland International, Inc. | System and methods for improved spreadsheet interface with user-familiar objects |
US5583542A (en) | 1992-05-26 | 1996-12-10 | Apple Computer, Incorporated | Method for deleting objects on a computer display |
US5604861A (en) | 1992-12-28 | 1997-02-18 | International Business Machines Corporation | Method and apparatus for improved notebook control in a data procesing system |
JPH06309138A (ja) | 1993-04-26 | 1994-11-04 | Toshiba Corp | タッチパネルを使用した画面制御方法 |
JP3337798B2 (ja) | 1993-12-24 | 2002-10-21 | キヤノン株式会社 | 画像データ及び音声データを処理する装置、データ処理装置並びにデータ処理方法 |
JP3974948B2 (ja) | 1994-10-07 | 2007-09-12 | 株式会社日立製作所 | ページめくり表示方法および装置 |
US5565888A (en) | 1995-02-17 | 1996-10-15 | International Business Machines Corporation | Method and apparatus for improving visibility and selectability of icons |
US5757368A (en) | 1995-03-27 | 1998-05-26 | Cirque Corporation | System and method for extending the drag function of a computer pointing device |
US5677708A (en) | 1995-05-05 | 1997-10-14 | Microsoft Corporation | System for displaying a list on a display screen |
US5973694A (en) | 1995-06-02 | 1999-10-26 | Chatham Telecommunications, Inc., | Method of communication using sized icons, text, and audio |
JPH099072A (ja) | 1995-06-26 | 1997-01-10 | Aibitsukusu Kk | 情報通信システム |
US5784061A (en) | 1996-06-26 | 1998-07-21 | Xerox Corporation | Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system |
JPH1093848A (ja) | 1996-09-17 | 1998-04-10 | Nikon Corp | 電子カメラ |
US6128012A (en) | 1996-09-19 | 2000-10-03 | Microsoft Corporation | User interface for a portable data management device with limited size and processing capability |
US6073036A (en) | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
US5956035A (en) | 1997-05-15 | 1999-09-21 | Sony Corporation | Menu selection with menu stem and submenu size enlargement |
US6233015B1 (en) | 1997-06-27 | 2001-05-15 | Eastman Kodak Company | Camera with user compliant browse and display modes |
US6920619B1 (en) | 1997-08-28 | 2005-07-19 | Slavoljub Milekic | User interface for removing an object from a display |
US6237010B1 (en) | 1997-10-06 | 2001-05-22 | Canon Kabushiki Kaisha | Multimedia application using flashpix file format |
US6301586B1 (en) | 1997-10-06 | 2001-10-09 | Canon Kabushiki Kaisha | System for managing multimedia objects |
JP4280314B2 (ja) | 1997-11-27 | 2009-06-17 | 富士フイルム株式会社 | 画面表示部を有する機器の操作装置 |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
EP1717679B1 (en) | 1998-01-26 | 2016-09-21 | Apple Inc. | Method for integrating manual input |
US6784925B1 (en) | 1998-03-24 | 2004-08-31 | Canon Kabushiki Kaisha | System to manage digital camera images |
US6252596B1 (en) | 1998-03-31 | 2001-06-26 | Canon Kabushiki Kaisha | Command entry highlight editing for a menu selection system and method |
US6167469A (en) | 1998-05-18 | 2000-12-26 | Agilent Technologies, Inc. | Digital camera having display device for displaying graphical representation of user input and method for transporting the selected digital images thereof |
US6292273B1 (en) | 1998-08-07 | 2001-09-18 | Hewlett-Packard Company | Appliance and method of using same having a delete capability for saved data |
US6972792B2 (en) | 1998-08-07 | 2005-12-06 | Hewlett-Packard Development Company, L.P. | Appliance and method for capturing images having a user error interface |
US6453078B2 (en) | 1998-08-28 | 2002-09-17 | Eastman Kodak Company | Selecting, arranging, and printing digital images from thumbnail images |
US6606411B1 (en) | 1998-09-30 | 2003-08-12 | Eastman Kodak Company | Method for automatically classifying images into events |
JP2000138883A (ja) | 1998-11-02 | 2000-05-16 | Olympus Optical Co Ltd | 画像取り扱い装置 |
US6351556B1 (en) | 1998-11-20 | 2002-02-26 | Eastman Kodak Company | Method for automatically comparing content of images for classification into events |
JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
US6279018B1 (en) | 1998-12-21 | 2001-08-21 | Kudrollis Software Inventions Pvt. Ltd. | Abbreviating and compacting text to cope with display space constraint in computer software |
US6441824B2 (en) | 1999-01-25 | 2002-08-27 | Datarover Mobile Systems, Inc. | Method and apparatus for dynamic text resizing |
JP3519007B2 (ja) | 1999-01-29 | 2004-04-12 | シャープ株式会社 | 地図情報表示機能を有する情報機器及び地図情報表示方法並びに地図情報表示プログラムを記録した記録媒体 |
JP2000244637A (ja) * | 1999-02-23 | 2000-09-08 | Hitachi Telecom Technol Ltd | 連接回線障害時における接続方法 |
JP2000244673A (ja) | 1999-02-24 | 2000-09-08 | Matsushita Electric Ind Co Ltd | 携帯電話装置及び方法 |
JP2000350134A (ja) | 1999-06-08 | 2000-12-15 | Sony Corp | デジタルカメラ |
JP3941292B2 (ja) | 1999-07-26 | 2007-07-04 | 日本電気株式会社 | ページ情報表示方法及び装置並びにページ情報表示用のプログラム又はデータを記憶した記憶媒体 |
US6452597B1 (en) | 1999-08-24 | 2002-09-17 | Microsoft Corporation | Displaying text on a limited-area display surface |
US7152210B1 (en) | 1999-10-20 | 2006-12-19 | Koninklijke Philips Electronics N.V. | Device and method of browsing an image collection |
JP4264170B2 (ja) | 1999-11-02 | 2009-05-13 | 富士フイルム株式会社 | 撮像装置およびその制御方法 |
US7434177B1 (en) | 1999-12-20 | 2008-10-07 | Apple Inc. | User interface for providing consolidation and access |
US6686938B1 (en) | 2000-01-05 | 2004-02-03 | Apple Computer, Inc. | Method and system for providing an embedded application toolbar |
US7415662B2 (en) | 2000-01-31 | 2008-08-19 | Adobe Systems Incorporated | Digital media management apparatus and methods |
GB2359177A (en) | 2000-02-08 | 2001-08-15 | Nokia Corp | Orientation sensitive display and selection mechanism |
US20020021758A1 (en) | 2000-03-15 | 2002-02-21 | Chui Charles K. | System and method for efficient transmission and display of image details by re-usage of compressed data |
JP2001265481A (ja) | 2000-03-21 | 2001-09-28 | Nec Corp | ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体 |
JP4325075B2 (ja) | 2000-04-21 | 2009-09-02 | ソニー株式会社 | データオブジェクト管理装置 |
JP3396718B2 (ja) | 2000-04-24 | 2003-04-14 | 株式会社ヘリオス | 通信端末装置、画像情報記憶方法および情報記憶媒体 |
US6477117B1 (en) | 2000-06-30 | 2002-11-05 | International Business Machines Corporation | Alarm interface for a smart watch |
US7657916B2 (en) | 2000-07-31 | 2010-02-02 | Cisco Technology, Inc. | Digital subscriber television networks with local physical storage devices and virtual storage |
JP2004506349A (ja) | 2000-08-04 | 2004-02-26 | コパン インコーポレイテッド | デジタルメディアを表示する方法およびシステム |
US8701022B2 (en) * | 2000-09-26 | 2014-04-15 | 6S Limited | Method and system for archiving and retrieving items based on episodic memory of groups of people |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
JP2002152559A (ja) | 2000-11-07 | 2002-05-24 | Olympus Optical Co Ltd | 電子カメラ装置および画像処理装置 |
KR100377936B1 (ko) | 2000-12-16 | 2003-03-29 | 삼성전자주식회사 | 이동통신 단말기의 감정 아이콘 입력방법 |
US6950989B2 (en) | 2000-12-20 | 2005-09-27 | Eastman Kodak Company | Timeline-based graphical user interface for efficient image database browsing and retrieval |
US7139982B2 (en) | 2000-12-21 | 2006-11-21 | Xerox Corporation | Navigation methods, systems, and computer program products for virtual three-dimensional books |
US7015910B2 (en) | 2000-12-21 | 2006-03-21 | Xerox Corporation | Methods, systems, and computer program products for the display and operation of virtual three-dimensional books |
EP1223757B1 (en) | 2001-01-09 | 2006-03-22 | Metabyte Networks, Inc. | System, method, and software application for targeted advertising via behavioral model clustering, and preference programming based on behavioral model clusters |
US20020093531A1 (en) | 2001-01-17 | 2002-07-18 | John Barile | Adaptive display for video conferences |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US6964025B2 (en) | 2001-03-20 | 2005-11-08 | Microsoft Corporation | Auto thumbnail gallery |
US6915011B2 (en) | 2001-03-28 | 2005-07-05 | Eastman Kodak Company | Event clustering of images using foreground/background segmentation |
US7930624B2 (en) | 2001-04-20 | 2011-04-19 | Avid Technology, Inc. | Editing time-based media with enhanced content |
US6996782B2 (en) | 2001-05-23 | 2006-02-07 | Eastman Kodak Company | Using digital objects organized according to a histogram timeline |
US8028249B2 (en) | 2001-05-23 | 2011-09-27 | Eastman Kodak Company | Method and system for browsing large digital multimedia object collections |
JP2003076647A (ja) | 2001-08-31 | 2003-03-14 | Hitachi Ltd | メール送受信方法およびそれを用いる装置 |
FI114175B (fi) | 2001-09-10 | 2004-08-31 | Myorigo Oy | Navigointimenetelmä, ohjelmatuote ja laite tiedon esittämiseksi käyttöliittymässä |
US7299418B2 (en) | 2001-09-10 | 2007-11-20 | International Business Machines Corporation | Navigation method for visual presentations |
JP2003091347A (ja) | 2001-09-18 | 2003-03-28 | Sony Corp | 情報処理装置、並びに画面表示方法、画面表示プログラム及び画面表示プログラムが記録された記録媒体 |
FR2830093A3 (fr) | 2001-09-25 | 2003-03-28 | Bahia 21 Corp | Procede de navigation par ecran tactile |
US7480864B2 (en) | 2001-10-12 | 2009-01-20 | Canon Kabushiki Kaisha | Zoom editor |
US6970200B2 (en) | 2001-10-26 | 2005-11-29 | Hewlett-Packard Development Company, L.P. | System and method for a simplified digital camera interface for viewing images and controlling camera operation |
US6961908B2 (en) | 2001-12-05 | 2005-11-01 | International Business Machines Corporation | System and method for navigating graphical images |
US7970240B1 (en) * | 2001-12-17 | 2011-06-28 | Google Inc. | Method and apparatus for archiving and visualizing digital images |
US6690387B2 (en) | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
US7266836B2 (en) | 2002-02-04 | 2007-09-04 | Nokia Corporation | Tune alerts for remotely adjusting a tuner |
WO2003081458A1 (en) | 2002-03-19 | 2003-10-02 | America Online, Inc. | Controlling content display |
US7433546B2 (en) | 2004-10-25 | 2008-10-07 | Apple Inc. | Image scaling arrangement |
US6882337B2 (en) | 2002-04-18 | 2005-04-19 | Microsoft Corporation | Virtual keyboard for touch-typing using audio feedback |
JP3977684B2 (ja) | 2002-05-21 | 2007-09-19 | 株式会社東芝 | デジタルスチルカメラ |
JP2003345491A (ja) | 2002-05-24 | 2003-12-05 | Sharp Corp | 表示入力装置、表示入力方法、プログラムおよび記録媒体 |
JP2004032346A (ja) | 2002-06-26 | 2004-01-29 | Toshiba Corp | 画像撮影装置 |
US20040019640A1 (en) | 2002-07-25 | 2004-01-29 | Bartram Linda Ruth | System and method for distributing shared storage for collaboration across multiple devices |
JP2004145291A (ja) | 2002-10-03 | 2004-05-20 | Casio Comput Co Ltd | 画像表示装置、画像表示方法及びプログラム |
US7515903B1 (en) | 2002-10-28 | 2009-04-07 | At&T Mobility Ii Llc | Speech to message processing |
US20040085457A1 (en) | 2002-10-31 | 2004-05-06 | Thorland Miles K. | Reviewing stored images |
KR100471594B1 (ko) | 2002-11-26 | 2005-03-10 | 엔에이치엔(주) | 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체 |
US7360172B2 (en) | 2002-12-19 | 2008-04-15 | Microsoft Corporation | Contact controls |
JP2004213129A (ja) | 2002-12-27 | 2004-07-29 | Fuji Photo Film Co Ltd | 画像分類方法および装置並びにプログラム |
US7325198B2 (en) | 2002-12-31 | 2008-01-29 | Fuji Xerox Co., Ltd. | Calendar-based interfaces for browsing and manipulation of digital images |
US7895536B2 (en) | 2003-01-08 | 2011-02-22 | Autodesk, Inc. | Layer editor system for a pen-based computer |
US7509321B2 (en) | 2003-01-21 | 2009-03-24 | Microsoft Corporation | Selection bins for browsing, annotating, sorting, clustering, and filtering media objects |
US20040158555A1 (en) | 2003-02-11 | 2004-08-12 | Terradigtal Systems Llc. | Method for managing a collection of media objects |
US7478096B2 (en) | 2003-02-26 | 2009-01-13 | Burnside Acquisition, Llc | History preservation in a computer storage system |
US7380212B2 (en) | 2003-03-18 | 2008-05-27 | Microsoft Corporation | Dynamic-template incorporation of digital images in an electronic mail message |
CN100370799C (zh) | 2003-04-18 | 2008-02-20 | 卡西欧计算机株式会社 | 具有通信功能的成像设备和图像数据存储方法 |
JP4374610B2 (ja) | 2003-04-18 | 2009-12-02 | カシオ計算機株式会社 | 撮像装置、画像データ記憶方法、及び、プログラム |
JP4236986B2 (ja) | 2003-05-09 | 2009-03-11 | 富士フイルム株式会社 | 撮影装置および方法並びにプログラム |
JP2004363892A (ja) | 2003-06-04 | 2004-12-24 | Canon Inc | 携帯機器 |
JP4145746B2 (ja) | 2003-07-17 | 2008-09-03 | シャープ株式会社 | 情報出力装置、情報出力方法、情報出力プログラム、および該プログラムを記録した記録媒体 |
US7164410B2 (en) | 2003-07-28 | 2007-01-16 | Sig G. Kupka | Manipulating an on-screen object using zones surrounding the object |
US7747625B2 (en) | 2003-07-31 | 2010-06-29 | Hewlett-Packard Development Company, L.P. | Organizing a collection of objects |
US7398479B2 (en) | 2003-08-20 | 2008-07-08 | Acd Systems, Ltd. | Method and system for calendar-based image asset organization |
JP2005102126A (ja) | 2003-08-21 | 2005-04-14 | Casio Comput Co Ltd | 通信機能付撮像装置および表示処理方法 |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
JP2005092386A (ja) | 2003-09-16 | 2005-04-07 | Sony Corp | 画像選択装置および画像選択方法 |
US7078785B2 (en) | 2003-09-23 | 2006-07-18 | Freescale Semiconductor, Inc. | Semiconductor device and making thereof |
JP2005100084A (ja) | 2003-09-25 | 2005-04-14 | Toshiba Corp | 画像処理装置及び方法 |
US20050071736A1 (en) | 2003-09-26 | 2005-03-31 | Fuji Xerox Co., Ltd. | Comprehensive and intuitive media collection and management tool |
US7484175B2 (en) | 2003-09-30 | 2009-01-27 | International Business Machines Corporation | Method and apparatus for increasing personability of instant messaging with user images |
US7545428B2 (en) | 2003-10-02 | 2009-06-09 | Hewlett-Packard Development Company, L.P. | System and method for managing digital images |
US7313574B2 (en) | 2003-10-02 | 2007-12-25 | Nokia Corporation | Method for clustering and querying media items |
US7636733B1 (en) | 2003-10-03 | 2009-12-22 | Adobe Systems Incorporated | Time-based image management |
US7343568B2 (en) | 2003-11-10 | 2008-03-11 | Yahoo! Inc. | Navigation pattern on a directory tree |
JP2005150836A (ja) | 2003-11-11 | 2005-06-09 | Canon Inc | 撮影装置 |
US7680340B2 (en) | 2003-11-13 | 2010-03-16 | Eastman Kodak Company | Method of using temporal context for image classification |
JP4292399B2 (ja) | 2003-12-12 | 2009-07-08 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP4457660B2 (ja) | 2003-12-12 | 2010-04-28 | パナソニック株式会社 | 画像分類装置、画像分類システム、画像分類に関するプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP4373199B2 (ja) | 2003-12-17 | 2009-11-25 | 株式会社エヌ・ティ・ティ・ドコモ | 電子メール作成装置および通信端末 |
US20050134945A1 (en) | 2003-12-17 | 2005-06-23 | Canon Information Systems Research Australia Pty. Ltd. | 3D view for digital photograph management |
JP2005202483A (ja) | 2004-01-13 | 2005-07-28 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP2005202651A (ja) | 2004-01-15 | 2005-07-28 | Canon Inc | 情報処理装置、情報処理方法、プログラムを記録した記録媒体及び制御プログラム |
US20050195221A1 (en) * | 2004-03-04 | 2005-09-08 | Adam Berger | System and method for facilitating the presentation of content via device displays |
JP2007531113A (ja) | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
JP2005303728A (ja) | 2004-04-13 | 2005-10-27 | Fuji Photo Film Co Ltd | デジタルカメラ |
JP2005321516A (ja) | 2004-05-07 | 2005-11-17 | Mitsubishi Electric Corp | 携帯機器 |
JP4063246B2 (ja) | 2004-05-11 | 2008-03-19 | 日本電気株式会社 | ページ情報表示装置 |
JP5055684B2 (ja) | 2004-05-13 | 2012-10-24 | ソニー株式会社 | 画像フォルダ切替装置 |
JP4855654B2 (ja) | 2004-05-31 | 2012-01-18 | ソニー株式会社 | 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体 |
US7358962B2 (en) | 2004-06-15 | 2008-04-15 | Microsoft Corporation | Manipulating association of data with a physical object |
US7464110B2 (en) | 2004-06-30 | 2008-12-09 | Nokia Corporation | Automated grouping of image and other user data |
TWI248576B (en) | 2004-07-05 | 2006-02-01 | Elan Microelectronics Corp | Method for controlling rolling of scroll bar on a touch panel |
JP4903371B2 (ja) | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
US7178111B2 (en) | 2004-08-03 | 2007-02-13 | Microsoft Corporation | Multi-planar three-dimensional user interface |
JP2006067344A (ja) | 2004-08-27 | 2006-03-09 | Mitsubishi Electric Corp | 画像付きメールの送信方法および通信端末装置 |
CN1756273A (zh) | 2004-09-27 | 2006-04-05 | 华为技术有限公司 | 一种在手持设备电话簿中增加联系人信息的方法 |
KR101058011B1 (ko) | 2004-10-01 | 2011-08-19 | 삼성전자주식회사 | 터치 스크린을 이용한 디지털 카메라 조작 방법 |
US7778671B2 (en) | 2004-10-08 | 2010-08-17 | Nokia Corporation | Mobile communications terminal having an improved user interface and method therefor |
US20060077266A1 (en) | 2004-10-08 | 2006-04-13 | Nokia Corporation | Image processing in a communication device having a camera |
KR101058013B1 (ko) | 2004-10-13 | 2011-08-19 | 삼성전자주식회사 | 터치 스크린을 갖는 디지털 저장 장치의 섬네일 이미지검색 방법 |
JP4565495B2 (ja) | 2004-11-10 | 2010-10-20 | 富士通株式会社 | 端末装置、端末装置のメール処理方法及びメール処理プログラム |
JP4306592B2 (ja) | 2004-11-15 | 2009-08-05 | ソニー株式会社 | 再生装置、表示制御方法 |
US20060136839A1 (en) | 2004-12-22 | 2006-06-22 | Nokia Corporation | Indicating related content outside a display area |
US7865215B2 (en) | 2005-01-07 | 2011-01-04 | Research In Motion Limited | Magnification of currently selected menu item |
US8024658B1 (en) | 2005-01-09 | 2011-09-20 | Apple Inc. | Application for designing photo albums |
US7606437B2 (en) | 2005-01-11 | 2009-10-20 | Eastman Kodak Company | Image processing based on ambient air attributes |
JP4932159B2 (ja) | 2005-01-11 | 2012-05-16 | Necカシオモバイルコミュニケーションズ株式会社 | 通信端末、通信端末の表示方法、及び、コンピュータプログラム |
US7788592B2 (en) | 2005-01-12 | 2010-08-31 | Microsoft Corporation | Architecture and engine for time line based visualization of data |
US7796116B2 (en) * | 2005-01-12 | 2010-09-14 | Thinkoptics, Inc. | Electronic equipment for handheld vision based absolute pointing system |
US7716194B2 (en) | 2005-01-12 | 2010-05-11 | Microsoft Corporation | File management system employing time line based representation of data |
US20060156237A1 (en) | 2005-01-12 | 2006-07-13 | Microsoft Corporation | Time line based user interface for visualization of data |
US7421449B2 (en) | 2005-01-12 | 2008-09-02 | Microsoft Corporation | Systems and methods for managing a life journal |
JP4481842B2 (ja) | 2005-01-24 | 2010-06-16 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP2006236249A (ja) | 2005-02-28 | 2006-09-07 | Fuji Photo Film Co Ltd | 電子メールの添付画像ファイル生成装置ならびにその方法およびその制御プログラム |
US7403642B2 (en) * | 2005-04-21 | 2008-07-22 | Microsoft Corporation | Efficient propagation for face annotation |
US7587671B2 (en) | 2005-05-17 | 2009-09-08 | Palm, Inc. | Image repositioning, storage and retrieval |
US8085318B2 (en) | 2005-10-11 | 2011-12-27 | Apple Inc. | Real-time image capture and manipulation based on streaming data |
FI20055369A0 (fi) | 2005-06-30 | 2005-06-30 | Nokia Corp | Menetelmä ja laite digitaalisten mediatiedostojen käsittelemiseksi |
JP4782105B2 (ja) | 2005-06-30 | 2011-09-28 | パナソニック株式会社 | 画像処理装置及び画像処理方法 |
US20070008321A1 (en) | 2005-07-11 | 2007-01-11 | Eastman Kodak Company | Identifying collection images with special events |
JP4600203B2 (ja) | 2005-08-08 | 2010-12-15 | 株式会社日立製作所 | 映像再生示装置 |
US7697040B2 (en) | 2005-10-31 | 2010-04-13 | Lightbox Network, Inc. | Method for digital photo management and distribution |
US7663671B2 (en) | 2005-11-22 | 2010-02-16 | Eastman Kodak Company | Location based image classification with map segmentation |
US20070136778A1 (en) | 2005-12-09 | 2007-06-14 | Ari Birger | Controller and control method for media retrieval, routing and playback |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
WO2007079425A2 (en) | 2005-12-30 | 2007-07-12 | Apple Inc. | Portable electronic device with multi-touch input |
US7978936B1 (en) * | 2006-01-26 | 2011-07-12 | Adobe Systems Incorporated | Indicating a correspondence between an image and an object |
US7864978B2 (en) | 2006-02-06 | 2011-01-04 | Microsoft Corporation | Smart arrangement and cropping for photo views |
US7559027B2 (en) | 2006-02-28 | 2009-07-07 | Palm, Inc. | Master multimedia software controls |
US20070229678A1 (en) | 2006-03-31 | 2007-10-04 | Ricoh Company, Ltd. | Camera for generating and sharing media keys |
US7627828B1 (en) | 2006-04-12 | 2009-12-01 | Google Inc | Systems and methods for graphically representing users of a messaging system |
KR20070102346A (ko) * | 2006-04-13 | 2007-10-18 | 삼성전자주식회사 | 디바이스의 XHTML-Print 데이터 생성 방법 및장치 |
JP2007287014A (ja) * | 2006-04-19 | 2007-11-01 | Seiko Epson Corp | 画像処理装置、画像処理方法 |
US20090278806A1 (en) | 2008-05-06 | 2009-11-12 | Matias Gonzalo Duarte | Extended touch-sensitive control area for electronic device |
EP2010999A4 (en) | 2006-04-21 | 2012-11-21 | Google Inc | SYSTEM FOR ORGANIZING AND VISUALIZING DISPLAY OBJECTS |
US7503007B2 (en) | 2006-05-16 | 2009-03-10 | International Business Machines Corporation | Context enhanced messaging and collaboration system |
CN101196786B (zh) | 2006-06-12 | 2010-04-14 | 左莉 | 光学鼠标的可更换部件和重复使用部件 |
US20080030456A1 (en) | 2006-07-19 | 2008-02-07 | Sony Ericsson Mobile Communications Ab | Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device |
US7791594B2 (en) | 2006-08-30 | 2010-09-07 | Sony Ericsson Mobile Communications Ab | Orientation based multiple mode mechanically vibrated touch screen display |
US7855714B2 (en) | 2006-09-01 | 2010-12-21 | Research In Motion Limited | Method and apparatus for controlling a display in an electronic device |
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
US20080091637A1 (en) | 2006-10-17 | 2008-04-17 | Terry Dwain Escamilla | Temporal association between assets in a knowledge system |
JP5156217B2 (ja) | 2006-10-24 | 2013-03-06 | 株式会社E−マテリアル | 耐火被覆材、耐火被覆材の塗工方法、及び耐火被覆の被膜 |
US7779358B1 (en) | 2006-11-30 | 2010-08-17 | Adobe Systems Incorporated | Intelligent content organization based on time gap analysis |
KR100912877B1 (ko) | 2006-12-02 | 2009-08-18 | 한국전자통신연구원 | 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법 |
US20080133697A1 (en) | 2006-12-05 | 2008-06-05 | Palm, Inc. | Auto-blog from a mobile device |
US8689132B2 (en) | 2007-01-07 | 2014-04-01 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying electronic documents and lists |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
JPWO2008111115A1 (ja) | 2007-03-09 | 2010-06-17 | パイオニア株式会社 | Av処理装置およびプログラム |
EP2138939A4 (en) | 2007-04-13 | 2012-02-29 | Nec Corp | PHOTOGRAPHY DEVICE, PHOTOGRAPHIC PROCESSING AND PHOTOGRAPHING PROGRAM |
JP4564512B2 (ja) | 2007-04-16 | 2010-10-20 | 富士通株式会社 | 表示装置、表示プログラム、および表示方法 |
US7843454B1 (en) | 2007-04-25 | 2010-11-30 | Adobe Systems Incorporated | Animated preview of images |
US8732161B2 (en) * | 2007-04-27 | 2014-05-20 | The Regents Of The University Of California | Event based organization and access of digital photos |
US7979809B2 (en) | 2007-05-11 | 2011-07-12 | Microsoft Corporation | Gestured movement of object to display edge |
US8934717B2 (en) | 2007-06-05 | 2015-01-13 | Intellectual Ventures Fund 83 Llc | Automatic story creation using semantic classifiers for digital assets and associated metadata |
US8681104B2 (en) | 2007-06-13 | 2014-03-25 | Apple Inc. | Pinch-throw and translation gestures |
US20090006965A1 (en) | 2007-06-26 | 2009-01-01 | Bodin William K | Assisting A User In Editing A Motion Picture With Audio Recast Of A Legacy Web Page |
US8717412B2 (en) | 2007-07-18 | 2014-05-06 | Samsung Electronics Co., Ltd. | Panoramic image production |
JP5128880B2 (ja) * | 2007-08-30 | 2013-01-23 | オリンパスイメージング株式会社 | 画像取扱装置 |
US20090063542A1 (en) | 2007-09-04 | 2009-03-05 | Bull William E | Cluster Presentation of Digital Assets for Electronic Devices |
US9335912B2 (en) * | 2007-09-07 | 2016-05-10 | Apple Inc. | GUI applications for use with 3D remote controller |
US20090113315A1 (en) | 2007-10-26 | 2009-04-30 | Yahoo! Inc. | Multimedia Enhanced Instant Messaging Engine |
US20090113350A1 (en) | 2007-10-26 | 2009-04-30 | Stacie Lynn Hibino | System and method for visually summarizing and interactively browsing hierarchically structured digital objects |
KR20090050577A (ko) | 2007-11-16 | 2009-05-20 | 삼성전자주식회사 | 멀티미디어 컨텐츠를 표시 및 재생하는 사용자인터페이스및 그 장치와 제어방법 |
JP4709199B2 (ja) | 2007-11-19 | 2011-06-22 | デジタル・アドバタイジング・コンソーシアム株式会社 | 広告評価システム及び広告評価方法 |
US8150098B2 (en) | 2007-12-20 | 2012-04-03 | Eastman Kodak Company | Grouping images by location |
CN104866553A (zh) * | 2007-12-31 | 2015-08-26 | 应用识别公司 | 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序 |
US8099679B2 (en) * | 2008-02-14 | 2012-01-17 | Palo Alto Research Center Incorporated | Method and system for traversing digital records with multiple dimensional attributes |
US20090216806A1 (en) * | 2008-02-24 | 2009-08-27 | Allofme Ltd. | Digital assets internet timeline aggregation and sharing platform |
US8132116B1 (en) | 2008-02-28 | 2012-03-06 | Adobe Systems Incorporated | Configurable iconic image representation |
WO2009122684A1 (ja) | 2008-04-01 | 2009-10-08 | Yanase Takatoshi | 表示システム、表示方法、プログラム、及び記録媒体 |
US8788967B2 (en) | 2008-04-10 | 2014-07-22 | Perceptive Pixel, Inc. | Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques |
JP5383668B2 (ja) | 2008-04-30 | 2014-01-08 | 株式会社アクロディア | キャラクタ表示用データの生成装置および方法 |
US20090282371A1 (en) | 2008-05-07 | 2009-11-12 | Carrot Medical Llc | Integration system for medical instruments with remote control |
US8620641B2 (en) | 2008-05-16 | 2013-12-31 | Blackberry Limited | Intelligent elision |
KR101488726B1 (ko) | 2008-05-27 | 2015-02-06 | 삼성전자주식회사 | 위젯 창을 표시하는 디스플레이 장치 및 이를 포함하는디스플레이 시스템과 그 디스플레이 방법 |
GB2460844B (en) | 2008-06-10 | 2012-06-06 | Half Minute Media Ltd | Automatic detection of repeating video sequences |
WO2009155991A1 (en) * | 2008-06-27 | 2009-12-30 | Nokia Corporation | Image retrieval based on similarity search |
WO2010000300A1 (en) | 2008-06-30 | 2010-01-07 | Accenture Global Services Gmbh | Gaming system |
WO2010000074A1 (en) | 2008-07-03 | 2010-01-07 | Germann Stephen R | Method and system for applying metadata to data sets of file objects |
US8520979B2 (en) | 2008-08-19 | 2013-08-27 | Digimarc Corporation | Methods and systems for content processing |
US8200669B1 (en) | 2008-08-21 | 2012-06-12 | Adobe Systems Incorporated | Management of smart tags via hierarchy |
US20100076976A1 (en) | 2008-09-06 | 2010-03-25 | Zlatko Manolov Sotirov | Method of Automatically Tagging Image Data |
JP4752897B2 (ja) | 2008-10-31 | 2011-08-17 | ソニー株式会社 | 画像処理装置、画像表示方法および画像表示プログラム |
KR20100052676A (ko) | 2008-11-11 | 2010-05-20 | 삼성전자주식회사 | 컨텐츠 앨범화 장치 및 그 방법 |
US8611677B2 (en) | 2008-11-19 | 2013-12-17 | Intellectual Ventures Fund 83 Llc | Method for event-based semantic classification |
JP4752900B2 (ja) | 2008-11-19 | 2011-08-17 | ソニー株式会社 | 画像処理装置、画像表示方法および画像表示プログラム |
JP5289022B2 (ja) | 2008-12-11 | 2013-09-11 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
US8122024B2 (en) * | 2008-12-12 | 2012-02-21 | Research In Motion Limited | Method and system for storing multiple geo-tagged media files and rendering the same |
US8566403B2 (en) | 2008-12-23 | 2013-10-22 | At&T Mobility Ii Llc | Message content management system |
TWM361674U (en) | 2009-02-19 | 2009-07-21 | Sentelic Corp | Touch control module |
US8698920B2 (en) | 2009-02-24 | 2014-04-15 | Olympus Imaging Corp. | Image display apparatus and image display method |
CN101854278A (zh) * | 2009-04-01 | 2010-10-06 | 升东网络科技发展(上海)有限公司 | 即时通讯中的多媒体传输系统和方法 |
JP2010259064A (ja) | 2009-04-03 | 2010-11-11 | Olympus Imaging Corp | 表示装置及び撮像装置 |
US8745139B2 (en) | 2009-05-22 | 2014-06-03 | Cisco Technology, Inc. | Configuring channels for sharing media |
KR101560718B1 (ko) | 2009-05-29 | 2015-10-15 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기에서의 정보 표시 방법 |
US20110145275A1 (en) * | 2009-06-19 | 2011-06-16 | Moment Usa, Inc. | Systems and methods of contextual user interfaces for display of media items |
US20110035700A1 (en) | 2009-08-05 | 2011-02-10 | Brian Meaney | Multi-Operation User Interface Tool |
US8670597B2 (en) * | 2009-08-07 | 2014-03-11 | Google Inc. | Facial recognition with social network aiding |
US20110044563A1 (en) * | 2009-08-24 | 2011-02-24 | Blose Andrew C | Processing geo-location information associated with digital image files |
US20110050564A1 (en) | 2009-09-01 | 2011-03-03 | Motorola, Inc. | Dynamic Picture Frame in Electronic Handset |
US20110050640A1 (en) | 2009-09-03 | 2011-03-03 | Niklas Lundback | Calibration for a Large Scale Multi-User, Multi-Touch System |
US20110099199A1 (en) * | 2009-10-27 | 2011-04-28 | Thijs Stalenhoef | Method and System of Detecting Events in Image Collections |
US9152318B2 (en) * | 2009-11-25 | 2015-10-06 | Yahoo! Inc. | Gallery application for content viewing |
US8571331B2 (en) | 2009-11-30 | 2013-10-29 | Xerox Corporation | Content based image selection for automatic photo album generation |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
US8736561B2 (en) * | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
JP2011209887A (ja) | 2010-03-29 | 2011-10-20 | Sannetto:Kk | アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム |
US8326880B2 (en) | 2010-04-05 | 2012-12-04 | Microsoft Corporation | Summarizing streams of information |
US8495057B2 (en) * | 2010-05-17 | 2013-07-23 | Microsoft Corporation | Image searching with recognition suggestion |
US8694899B2 (en) | 2010-06-01 | 2014-04-08 | Apple Inc. | Avatars reflecting user states |
US8484562B2 (en) | 2010-06-25 | 2013-07-09 | Apple Inc. | Dynamic text adjustment in a user interface element |
US9727128B2 (en) * | 2010-09-02 | 2017-08-08 | Nokia Technologies Oy | Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode |
EP2614426A2 (en) * | 2010-09-08 | 2013-07-17 | Telefonaktiebolaget L M Ericsson (publ) | Gesture-based control of iptv system |
US9195637B2 (en) | 2010-11-03 | 2015-11-24 | Microsoft Technology Licensing, Llc | Proportional font scaling |
US9477311B2 (en) * | 2011-01-06 | 2016-10-25 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US8612441B2 (en) | 2011-02-04 | 2013-12-17 | Kodak Alaris Inc. | Identifying particular images from a collection |
CN104765801A (zh) | 2011-03-07 | 2015-07-08 | 科宝2股份有限公司 | 用于从事件或地理位置处的图像提供者进行分析数据采集的系统及方法 |
TW201239869A (en) | 2011-03-24 | 2012-10-01 | Hon Hai Prec Ind Co Ltd | System and method for adjusting font size on screen |
JP5735330B2 (ja) | 2011-04-08 | 2015-06-17 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置および画像処理方法 |
US20120311444A1 (en) * | 2011-06-05 | 2012-12-06 | Apple Inc. | Portable multifunction device, method, and graphical user interface for controlling media playback using gestures |
US9013489B2 (en) | 2011-06-06 | 2015-04-21 | Microsoft Technology Licensing, Llc | Generation of avatar reflecting player appearance |
US9552376B2 (en) * | 2011-06-09 | 2017-01-24 | MemoryWeb, LLC | Method and apparatus for managing digital files |
US8582828B2 (en) * | 2011-06-24 | 2013-11-12 | Google Inc. | Using photographs to manage groups |
US9411506B1 (en) | 2011-06-28 | 2016-08-09 | Google Inc. | Providing additional functionality for a group messaging application |
US20130022282A1 (en) | 2011-07-19 | 2013-01-24 | Fuji Xerox Co., Ltd. | Methods for clustering collections of geo-tagged photographs |
KR101552194B1 (ko) | 2011-07-20 | 2015-09-11 | 네이버 주식회사 | 영상을 앨범 단위로 관리 및 공유하는 시스템 및 방법 |
KR101832959B1 (ko) | 2011-08-10 | 2018-02-28 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
US8625904B2 (en) | 2011-08-30 | 2014-01-07 | Intellectual Ventures Fund 83 Llc | Detecting recurring themes in consumer image collections |
CN102271241A (zh) | 2011-09-02 | 2011-12-07 | 北京邮电大学 | 一种基于面部表情/动作识别的图像通信方法及系统 |
US20140198234A1 (en) * | 2011-09-21 | 2014-07-17 | Nikon Corporation | Image processing apparatus, program, image processing method, and imaging apparatus |
JP5983983B2 (ja) | 2011-10-03 | 2016-09-06 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP5967794B2 (ja) * | 2011-10-06 | 2016-08-10 | Kddi株式会社 | 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法 |
US9143601B2 (en) | 2011-11-09 | 2015-09-22 | Microsoft Technology Licensing, Llc | Event-based media grouping, playback, and sharing |
US9230223B2 (en) | 2011-12-05 | 2016-01-05 | Houzz, Inc. | Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system |
US9256620B2 (en) * | 2011-12-20 | 2016-02-09 | Amazon Technologies, Inc. | Techniques for grouping images |
US9292195B2 (en) | 2011-12-29 | 2016-03-22 | Apple Inc. | Device, method, and graphical user interface for configuring and implementing restricted interactions for applications |
KR101303166B1 (ko) * | 2012-01-26 | 2013-09-09 | 엘지전자 주식회사 | 이동 단말기 및 그의 사진 검색방법 |
KR101907136B1 (ko) | 2012-01-27 | 2018-10-11 | 라인 가부시키가이샤 | 유무선 웹을 통한 아바타 서비스 시스템 및 방법 |
KR102024587B1 (ko) | 2012-02-02 | 2019-09-24 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
WO2013120851A1 (en) | 2012-02-13 | 2013-08-22 | Mach-3D Sàrl | Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform |
WO2013123646A1 (en) | 2012-02-22 | 2013-08-29 | Nokia Corporation | Method and apparatus for determining significant places |
US20130239049A1 (en) | 2012-03-06 | 2013-09-12 | Apple Inc. | Application for creating journals |
US9411875B2 (en) | 2012-03-31 | 2016-08-09 | Peking University | Tag refinement strategies for social tagging systems |
CN102681847B (zh) * | 2012-04-28 | 2015-06-03 | 华为终端有限公司 | 触屏终端对象处理方法及触屏终端 |
US20130293686A1 (en) | 2012-05-03 | 2013-11-07 | Qualcomm Incorporated | 3d reconstruction of human subject using a mobile device |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
CN102693311B (zh) * | 2012-05-28 | 2014-07-23 | 中国人民解放军信息工程大学 | 基于随机化视觉词典组和上下文语义信息的目标检索方法 |
US9021034B2 (en) | 2012-07-09 | 2015-04-28 | Facebook, Inc. | Incorporating external event information into a social networking system |
US9092455B2 (en) * | 2012-07-17 | 2015-07-28 | Microsoft Technology Licensing, Llc | Image curation |
KR101648318B1 (ko) | 2012-07-19 | 2016-08-23 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 통신 네트워크 상에 포스팅하기 위한 컨텐츠 제안 |
US20140055495A1 (en) | 2012-08-22 | 2014-02-27 | Lg Cns Co., Ltd. | Responsive user interface engine for display devices |
US9147008B2 (en) | 2012-09-13 | 2015-09-29 | Cisco Technology, Inc. | Activity based recommendations within a social networking environment based upon graph activation |
US20140082533A1 (en) | 2012-09-20 | 2014-03-20 | Adobe Systems Incorporated | Navigation Interface for Electronic Content |
JP5925655B2 (ja) | 2012-09-28 | 2016-05-25 | 富士フイルム株式会社 | 画像表示制御装置、画像表示装置、プログラム及び画像表示方法 |
KR102004287B1 (ko) | 2012-10-17 | 2019-07-26 | 에스케이플래닛 주식회사 | 이모티콘 생성 장치 및 이모티콘 생성 방법 |
US9870554B1 (en) | 2012-10-23 | 2018-01-16 | Google Inc. | Managing documents based on a user's calendar |
JP2014095979A (ja) * | 2012-11-08 | 2014-05-22 | Sony Corp | 電子機器、画像データ処理方法およびプログラム |
KR102083209B1 (ko) | 2012-11-22 | 2020-03-02 | 삼성전자 주식회사 | 데이터 제공 방법 및 휴대 단말 |
JP2014109881A (ja) | 2012-11-30 | 2014-06-12 | Toshiba Corp | 情報処理装置、情報処理方法及びプログラム |
US9778819B2 (en) * | 2012-12-07 | 2017-10-03 | Google Inc. | Displaying a stream of content |
US20140172622A1 (en) * | 2012-12-14 | 2014-06-19 | Rawllin International Inc. | Selecting and scrolling media content associated with media content items |
CN104782120B (zh) | 2012-12-17 | 2018-08-10 | 英特尔公司 | 化身动画制作方法、计算设备和存储介质 |
WO2014105916A2 (en) | 2012-12-26 | 2014-07-03 | Google Inc. | Promoting sharing in a social network system |
US20140189584A1 (en) | 2012-12-27 | 2014-07-03 | Compal Communications, Inc. | Method for switching applications in user interface and electronic apparatus using the same |
EP2939098B1 (en) | 2012-12-29 | 2018-10-10 | Apple Inc. | Device, method, and graphical user interface for transitioning between touch input to display output relationships |
US10051103B1 (en) | 2013-01-10 | 2018-08-14 | Majen Tech, LLC | Screen interface for a mobile device apparatus |
CN103927190A (zh) | 2013-01-11 | 2014-07-16 | 腾讯科技(深圳)有限公司 | 网络表情下载方法与装置 |
US9380431B1 (en) | 2013-01-31 | 2016-06-28 | Palantir Technologies, Inc. | Use of teams in a mobile application |
US9323855B2 (en) | 2013-02-05 | 2016-04-26 | Facebook, Inc. | Processing media items in location-based groups |
JP2014157390A (ja) | 2013-02-14 | 2014-08-28 | Sony Corp | 情報処理装置及び記憶媒体 |
US10191945B2 (en) | 2013-02-20 | 2019-01-29 | The Florida International University Board Of Trustees | Geolocating social media |
JP5697058B2 (ja) | 2013-02-27 | 2015-04-08 | 株式会社ユピテル | ナビゲーション装置及びプログラム |
US9411831B2 (en) | 2013-03-01 | 2016-08-09 | Facebook, Inc. | Photo clustering into moments |
US10296739B2 (en) | 2013-03-11 | 2019-05-21 | Entit Software Llc | Event correlation based on confidence factor |
US9317188B2 (en) | 2013-03-15 | 2016-04-19 | Arris Enterprises, Inc. | Devices and methods for providing navigation images associated with adaptive bit rate video content |
US9471200B2 (en) * | 2013-03-15 | 2016-10-18 | Apple Inc. | Device, method, and graphical user interface for organizing and presenting a collection of media items |
CN110837329B (zh) * | 2013-03-15 | 2023-10-24 | 苹果公司 | 用于管理用户界面的方法和电子设备 |
US9654761B1 (en) | 2013-03-15 | 2017-05-16 | Google Inc. | Computer vision algorithm for capturing and refocusing imagery |
US9286546B2 (en) | 2013-03-15 | 2016-03-15 | Google Inc. | Identifying labels for image collections |
CN103279261B (zh) | 2013-04-23 | 2016-06-29 | 惠州Tcl移动通信有限公司 | 无线通讯设备及其窗口小部件的添加方法 |
US10341421B2 (en) | 2013-05-10 | 2019-07-02 | Samsung Electronics Co., Ltd. | On-device social grouping for automated responses |
US9760803B2 (en) | 2013-05-15 | 2017-09-12 | Google Inc. | Associating classifications with images |
CN104184760B (zh) | 2013-05-22 | 2018-08-07 | 阿里巴巴集团控股有限公司 | 通讯过程中的信息交互方法、客户端及服务器 |
US9449027B2 (en) * | 2013-06-04 | 2016-09-20 | Nokia Technologies Oy | Apparatus and method for representing and manipulating metadata |
WO2014194439A1 (en) | 2013-06-04 | 2014-12-11 | Intel Corporation | Avatar-based video encoding |
US10168882B2 (en) * | 2013-06-09 | 2019-01-01 | Apple Inc. | Device, method, and graphical user interface for switching between camera interfaces |
US9325783B2 (en) | 2013-08-07 | 2016-04-26 | Google Inc. | Systems and methods for inferential sharing of photos |
US9338242B1 (en) | 2013-09-09 | 2016-05-10 | Amazon Technologies, Inc. | Processes for generating content sharing recommendations |
CN104462113B (zh) * | 2013-09-17 | 2018-10-23 | 腾讯科技(深圳)有限公司 | 搜索方法、装置及电子设备 |
US9652475B2 (en) * | 2013-09-17 | 2017-05-16 | Google Technology Holdings LLC | Highlight reels |
US20150143234A1 (en) | 2013-10-22 | 2015-05-21 | Forbes Holten Norris, III | Ergonomic micro user interface display and editing |
US10417588B1 (en) * | 2013-12-06 | 2019-09-17 | Guidewire Software, Inc. | Processing insurance related address information |
WO2015092489A1 (en) | 2013-12-20 | 2015-06-25 | Sony Corporation | Method of controlling a graphical user interface for a mobile electronic device |
US9423922B2 (en) | 2013-12-24 | 2016-08-23 | Dropbox, Inc. | Systems and methods for creating shared virtual spaces |
US9811245B2 (en) * | 2013-12-24 | 2017-11-07 | Dropbox, Inc. | Systems and methods for displaying an image capturing mode and a content viewing mode |
US9519408B2 (en) | 2013-12-31 | 2016-12-13 | Google Inc. | Systems and methods for guided user actions |
JP6323465B2 (ja) | 2014-01-15 | 2018-05-16 | 富士通株式会社 | アルバム作成プログラム、アルバム作成方法およびアルバム作成装置 |
US20150227166A1 (en) * | 2014-02-13 | 2015-08-13 | Samsung Electronics Co., Ltd. | User terminal device and displaying method thereof |
US9462054B2 (en) | 2014-02-27 | 2016-10-04 | Dropbox, Inc. | Systems and methods for providing a user with a set of interactivity features locally on a user device |
US20150256491A1 (en) | 2014-03-04 | 2015-09-10 | Microsoft Corporation | Recipient suggestion system |
US20150262062A1 (en) * | 2014-03-17 | 2015-09-17 | Microsoft Corporation | Decision tree threshold coding |
US11170037B2 (en) | 2014-06-11 | 2021-11-09 | Kodak Alaris Inc. | Method for creating view-based representations from multimedia collections |
US9589362B2 (en) | 2014-07-01 | 2017-03-07 | Qualcomm Incorporated | System and method of three-dimensional model generation |
KR20160017954A (ko) | 2014-08-07 | 2016-02-17 | 삼성전자주식회사 | 전자장치 및 전자장치의 전송 제어 방법 |
KR101540544B1 (ko) | 2014-09-05 | 2015-07-30 | 서용창 | 캐릭터를 이용한 메시지 서비스 방법, 상기 방법을 수행하는 사용자 단말, 상기 방법을 포함하는 메시지 애플리케이션 |
KR102188267B1 (ko) | 2014-10-02 | 2020-12-08 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US10318575B2 (en) | 2014-11-14 | 2019-06-11 | Zorroa Corporation | Systems and methods of building and using an image catalog |
US9906772B2 (en) | 2014-11-24 | 2018-02-27 | Mediatek Inc. | Method for performing multi-camera capturing control of an electronic device, and associated apparatus |
KR20160087640A (ko) | 2015-01-14 | 2016-07-22 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
JP6152125B2 (ja) | 2015-01-23 | 2017-06-21 | 任天堂株式会社 | プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法 |
US10284537B2 (en) | 2015-02-11 | 2019-05-07 | Google Llc | Methods, systems, and media for presenting information related to an event based on metadata |
US9852543B2 (en) | 2015-03-27 | 2017-12-26 | Snap Inc. | Automated three dimensional model generation |
WO2016160629A1 (en) | 2015-03-27 | 2016-10-06 | Google Inc. | Providing selected images from a set of images |
US9916075B2 (en) | 2015-06-05 | 2018-03-13 | Apple Inc. | Formatting content for a reduced-size user interface |
KR101611895B1 (ko) * | 2015-07-23 | 2016-04-12 | 연세대학교 산학협력단 | 감정 기반의 자동 문구 디자인 장치 및 그 방법 |
US20170063753A1 (en) | 2015-08-27 | 2017-03-02 | Pinterest, Inc. | Suggesting object identifiers to include in a communication |
US9781392B2 (en) | 2015-09-16 | 2017-10-03 | Intel Corporation | Facilitating personal assistance for curation of multimedia and generation of stories at computing devices |
CN107710197B (zh) | 2015-09-28 | 2021-08-17 | 谷歌有限责任公司 | 在通信网络上共享图像和图像相册 |
US10122674B2 (en) | 2015-11-03 | 2018-11-06 | Ipxlu, Llc | Method of creating a PXLgram |
JP2017097407A (ja) | 2015-11-18 | 2017-06-01 | 株式会社東芝 | 電子機器及び表示制御方法 |
US20170192625A1 (en) | 2015-12-31 | 2017-07-06 | Young Kim | Data managing and providing method and system for the same |
US10976923B2 (en) | 2016-02-11 | 2021-04-13 | Hyperkey, Inc. | Enhanced virtual keyboard |
EP3207823A1 (en) | 2016-02-16 | 2017-08-23 | Braun GmbH | Interactive system setup concept |
US20170244959A1 (en) * | 2016-02-19 | 2017-08-24 | Adobe Systems Incorporated | Selecting a View of a Multi-View Video |
US11227017B2 (en) | 2016-05-17 | 2022-01-18 | Google Llc | Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread |
DK201670608A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | User interfaces for retrieving contextually relevant media content |
US10664157B2 (en) | 2016-08-03 | 2020-05-26 | Google Llc | Image search query predictions by a keyboard |
EP3654290A1 (en) | 2016-09-23 | 2020-05-20 | Apple Inc. | Avatar creation and editing |
KR20180057366A (ko) | 2016-11-22 | 2018-05-30 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US10903964B2 (en) | 2017-03-24 | 2021-01-26 | Apple Inc. | Techniques to enable physical downlink control channel communications |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
CN110932673A (zh) | 2018-09-19 | 2020-03-27 | 恩智浦美国有限公司 | 一种包含并联陷波滤波器的斩波稳定放大器 |
-
2016
- 2016-08-10 DK DKPA201670608A patent/DK201670608A1/en not_active Application Discontinuation
- 2016-08-10 DK DKPA201670609A patent/DK201670609A1/en not_active Application Discontinuation
- 2016-09-23 US US15/275,294 patent/US10073584B2/en active Active
-
2017
- 2017-05-31 EP EP17813778.2A patent/EP3472731A4/en not_active Ceased
- 2017-05-31 AU AU2017284958A patent/AU2017284958B2/en active Active
- 2017-05-31 EP EP22164099.8A patent/EP4064064A1/en active Pending
- 2017-05-31 JP JP2018562937A patent/JP6550545B1/ja active Active
- 2017-05-31 KR KR1020187034875A patent/KR101959328B1/ko active IP Right Grant
- 2017-05-31 KR KR1020197007053A patent/KR102124285B1/ko active IP Right Grant
- 2017-05-31 CN CN202410345903.7A patent/CN118245620A/zh active Pending
- 2017-05-31 CN CN202011127969.7A patent/CN112231496A/zh active Pending
- 2017-05-31 KR KR1020207005314A patent/KR102128388B1/ko active IP Right Grant
- 2017-05-31 CN CN202410764245.5A patent/CN118606496A/zh active Pending
- 2017-05-31 CN CN201780033901.2A patent/CN109313651B/zh active Active
- 2017-05-31 KR KR1020207018255A patent/KR102257131B1/ko active IP Right Grant
- 2017-05-31 CN CN201811616429.8A patent/CN109684491B/zh active Active
-
2018
- 2018-08-22 US US16/109,487 patent/US10891013B2/en active Active
-
2019
- 2019-07-01 JP JP2019123115A patent/JP6820381B2/ja active Active
- 2019-11-25 AU AU2019271873A patent/AU2019271873B2/en active Active
-
2020
- 2020-11-13 AU AU2020267310A patent/AU2020267310B2/en active Active
-
2021
- 2021-01-04 JP JP2021000224A patent/JP6895028B2/ja active Active
- 2021-06-04 JP JP2021094529A patent/JP6956910B2/ja active Active
-
2022
- 2022-03-07 AU AU2022201561A patent/AU2022201561B2/en active Active
- 2022-11-04 AU AU2022263576A patent/AU2022263576B2/en active Active
-
2024
- 2024-03-21 AU AU2024201844A patent/AU2024201844A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010503130A (ja) * | 2006-09-11 | 2010-01-28 | アップル インコーポレイテッド | 画像ベースブラウジングを備えたメディアプレーヤ |
JP2014093003A (ja) * | 2012-11-05 | 2014-05-19 | Robot:Kk | 書籍作成システム及び書籍印刷システム |
WO2014162659A1 (ja) * | 2013-04-01 | 2014-10-09 | ソニー株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
US20150309698A1 (en) * | 2014-04-25 | 2015-10-29 | Dropbox, Inc. | Browsing and selecting content items based on user gestures |
JP2016035776A (ja) * | 2015-11-11 | 2016-03-17 | ヤフー株式会社 | 情報表示装置、情報表示方法および情報表示プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6895028B2 (ja) | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース | |
US11334209B2 (en) | User interfaces for retrieving contextually relevant media content | |
WO2017218194A1 (en) | User interfaces for retrieving contextually relevant media content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190819 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6820381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |