CN109684491B - 用于检索上下文相关媒体内容的用户界面 - Google Patents

用于检索上下文相关媒体内容的用户界面 Download PDF

Info

Publication number
CN109684491B
CN109684491B CN201811616429.8A CN201811616429A CN109684491B CN 109684491 B CN109684491 B CN 109684491B CN 201811616429 A CN201811616429 A CN 201811616429A CN 109684491 B CN109684491 B CN 109684491B
Authority
CN
China
Prior art keywords
media items
display
media
displaying
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811616429.8A
Other languages
English (en)
Other versions
CN109684491A (zh
Inventor
B·S·穆拉
S·博威特
G·I·布彻
E·希尔克雷斯
A·C·戴伊
D·E·戈贝拉鲁瓦尔卡瓦
C·D·伊拉尼
S·O·勒梅
B·J·兰格兰特
P·M·洛佩兹
R·奥鲁克
H·彭哈
J·S·蒂蒂
C·威尔逊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN109684491A publication Critical patent/CN109684491A/zh
Application granted granted Critical
Publication of CN109684491B publication Critical patent/CN109684491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/178Techniques for file synchronisation in file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/44Browsing; Visualisation therefor
    • G06F16/447Temporal browsing, e.g. timeline
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Liquid Crystal Substances (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开整体涉及检索和显示上下文相关媒体内容。在一些实施方案中,设备接收显示上下文相关媒体的请求,并且作为响应,显示与所述设备的上下文相关的媒体项目集合的表示。在一些实施方案中,设备显示一系列项目中的视觉媒体项目,并且响应于接收到轻扫手势,显示包括所述媒体项目的相关内容的详细用户界面。在一些实施方案中,设备在显示第一详细用户界面时,显示与被识别为已参加第一事件的多个个体相对应的示能表示,所述示能表示被选择时,使显示与所述个体参加的多个事件相对应的视觉媒体。在一些实施方案中,设备响应于用户输入,获得自动生成的视觉媒体集合并显示对应的示能表示。

Description

用于检索上下文相关媒体内容的用户界面
本申请是国际申请日为2017年5月31日,申请号为201780033901.2,发明名称为“用于检索上下文相关媒体内容的用户界面”的发明专利申请的分案申请。
相关申请的交叉引用
本申请要求于2016年6月12日提交的名称为“USER INTERFACES FOR RETRIEVINGCONTEXTUALLY RELEVANT MEDIA CONTENT”的美国临时专利申请62/349,109的优先权,该专利申请的内容据此全文以引用方式并入。本申请要求于2016年8月10日提交的名称为“USERINTERFACES FOR RETRIEVING CONTEXTUALLY RELEVANT MEDIA CONTENT”的丹麦专利申请PA 2016 70608以及于2016年8月10日提交的名称为“USER INTERFACES FOR RETRIEVINGCONTEXTUALLY RELEVANT MEDIA CONTENT”的丹麦专利申请PA 2016 70609的优先权,这些专利申请中的每一者的内容据此全文以引用方式并入。
本申请涉及于2016年6月12日提交的名称为“NOTABLE MOMENTS IN A COLLECTIONOF DIGITAL ASSETS”的美国专利申请(代理人案卷号P31270USP1(119-1249USP1)),涉及于2016年6月12日提交的名称为“KNOWLEDGE BASE BASED ON NOTABLE MOMENTS”的美国专利申请(代理人案卷号P31270USP2(119-11249USP2)),并且涉及于2016年6月12日提交的名称为“RELATING DIGITAL ASSETS USING NOTABLE MOMENTS”的美国专利申请(代理人案卷号P31270USP3(119-11249USP3))。这些申请的内容据此全文以引用方式并入。
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于检索上下文相关媒体内容的技术。
背景技术
随着设备的存储容量和处理能力不断增加,加上在互连设备之间轻松共享媒体的增加,普通用户的媒体项目库(例如,照片和视频)的大小每天也在增加。
发明内容
然而,随着内容库不断增长,在创建用户生活和体验的存档的同时,使得管理变得更加困难并且导航变得比较麻烦。例如,许多库默认以大致的时间顺序布置媒体项目。浏览特定类型照片的用户可能希望在整个库中看到与该照片相关的内容,但不记得与所需相关内容相关联的特定日期,因此将被迫仔细查看大量媒体目录,直到找到他们寻求的内容。这很低效,浪费用户的时间和设备资源。因此,期望的是促进上下文相关媒体内容的检索和呈现,从而提供用于与媒体内容进行交互的改进界面。
然而,使用电子设备检索和查看上下文相关内容的一些技术通常比较麻烦且低效。例如,一些现有技术使用复杂且耗时的用户界面,该用户界面可包括多次按键或击键。现有技术需要比所需更多的时间,这导致浪费用户的时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备提供了用于检索和查看上下文相关内容的更快、更有效的方法和界面。此类方法和界面任选地补充或替换用于检索和查看上下文相关内容的其他方法。此类方法和界面减少对用户所造成的认知负担,并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率,并且增大电池充电之间的时间间隔。例如,用于检索和查看上下文相关内容的直观界面减少设备所接收的不必要、无关或重复输入的数量,从而使得显示器和一个或多个处理器的电池使用减少。
在一些实施方案中,执行一种方法,该方法包括:在具有显示器的设备处:接收显示上下文相关媒体的请求;并且响应于该请求:根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,一种电子设备包括:显示器;一个或多个处理器;存储器;以及一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:接收显示上下文相关媒体的请求;并且响应于该请求:根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,一种非暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:接收显示上下文相关媒体的请求;并且响应于该请求:根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,一种暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:接收显示上下文相关媒体的请求;并且响应于该请求:根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,一种系统包括:显示器;用于以下操作的装置:接收显示上下文相关媒体的请求;以及用于以下操作的装置:响应于该请求:根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,一种设备包括:显示单元;以及耦接到显示单元的处理单元,该处理单元包括:接收单元,该接收单元被配置为接收显示上下文相关媒体的请求;以及显示使能单元,该显示使能单元被配置为响应于该请求:根据确定设备处于第一上下文,使能在显示单元上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,使能在显示单元上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,执行一种方法,该方法包括:在具有显示器和触敏表面的设备处:在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;响应于接收到用户输入:确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,一种电子设备包括:显示器;触敏表面;一个或多个处理器;存储器;以及一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;响应于接收到用户输入:确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,一种非暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器和触敏表面的电子设备执行时,使得该设备:在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;响应于接收到用户输入:确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,一种暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器和触敏表面的电子设备执行时,使得该设备:在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;响应于接收到用户输入:确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,一种系统包括:显示器;触敏表面;用于以下操作的装置:在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;用于以下操作的装置:在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;用于以下操作的装置:响应于接收到用户输入:确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,一种设备包括:显示单元;触敏表面单元;以及耦接到显示单元和触敏表面单元的处理单元,该处理单元包括:显示使能单元,该显示使能单元被配置为使能在显示单元上显示一系列视觉媒体项目中的第一视觉媒体项目;接收单元,该接收单元被配置为在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;响应于接收到用户输入:确定单元被配置为确定用户输入是否对应于第一方向上的轻扫手势;并且其中显示使能单元被进一步配置为根据确定用户输入对应于第一方向上的轻扫手势,使能在显示单元上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,执行一种方法,该方法包括:在具有显示器的设备处:在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且接收与示能表示的选择相对应的用户输入;并且响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,一种电子设备包括:显示器;一个或多个处理器;存储器;以及一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且接收与示能表示的选择相对应的用户输入;并且响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,一种非暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且接收与示能表示的选择相对应的用户输入;并且响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,一种暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且接收与示能表示的选择相对应的用户输入;并且响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,一种系统包括:显示器;用于以下操作的装置:在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;用于以下操作的装置:在显示第一详细用户界面时:在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且接收与示能表示的选择相对应的用户输入;以及用于以下操作的装置:响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,一种设备包括:显示单元;以及耦接到显示单元的处理单元,该处理单元包括:显示使能单元,该显示使能单元被配置为使能在显示单元上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:其中显示使能单元被进一步配置为使能在显示单元上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及接收单元,该接收单元被配置为接收与示能表示的选择相对应的用户输入;并且其中显示使能单元被进一步配置为响应于接收到用户输入,使能在显示单元上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,执行一种方法,该方法包括:在具有显示器的设备处:在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;在显示多个示能表示时,接收第一用户输入;响应于接收到第一用户输入:获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;接收与第一示能表示的选择相对应的第二用户输入;并且响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,一种电子设备包括:显示器;一个或多个处理器;存储器;以及一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;在显示多个示能表示时,接收第一用户输入;响应于接收到第一用户输入:获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;接收与第一示能表示的选择相对应的第二用户输入;并且响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,一种非暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;在显示多个示能表示时,接收第一用户输入;响应于接收到第一用户输入:获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;接收与第一示能表示的选择相对应的第二用户输入;并且响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,一种暂态计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;在显示多个示能表示时,接收第一用户输入;响应于接收到第一用户输入:获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;接收与第一示能表示的选择相对应的第二用户输入;并且响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,一种系统包括:显示器;用于以下操作的装置:在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;用于以下操作的装置:在显示多个示能表示时,接收第一用户输入;用于以下操作的装置:响应于接收到第一用户输入:获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;用于以下操作的装置:接收与第一示能表示的选择相对应的第二用户输入;以及用于以下操作的装置:响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,一种设备包括:显示单元;耦接到显示单元的处理单元,该处理单元包括:显示使能单元,该显示使能单元被配置为使能在显示单元上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;接收单元,该接收单元被配置为在显示多个示能表示时,接收第一用户输入;响应于接收到第一用户输入:获得单元被配置为获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;以及添加单元,该添加单元被配置为在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;其中接收单元被进一步配置为接收与第一示能表示的选择相对应的第二用户输入;并且其中显示使能单元被进一步配置为响应于接收到第二用户输入,使能在显示单元上显示包括第二视觉媒体集合的表示的详细用户界面。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供了用于查看共享一组共同特征的媒体项目集合以及与其相关的内容的更快、更有效的方法和界面,从而利用此类设备增加了有效性、效率和用户满意度。此类方法和界面可补充或替换用于查看共享一组共同特征的媒体项目集合以及与其相关的内容的其他方法。
附图说明
为了更好地理解各种所述实施方案,应结合以下附图参考下面的具体实施方式,其中类似的附图标号在所有附图中指示对应的部分。
图1A是示出了根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出了根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出了根据一些实施方案的针对便携式多功能设备上应用程序的菜单的示例性用户界面。
图4B示出了根据一些实施方案的针对具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出了根据一些实施方案的个人电子设备。
图5B是示出了根据一些实施方案的个人电子设备的框图。
图5C-图5D示出了根据一些实施方案具有触敏显示器和强度传感器的个人电子设备的示例性部件。
图5E-图5H示出了根据一些实施方案的个人电子设备的示例性部件和用户界面。
图6A-图6R示出了用于查看上下文相关媒体集合的示例性用户界面。
图7A-图7E是示出用于进行查看上下文相关媒体和相关内容的示例性过程的流程图。
图8示出了根据一些实施方案的电子设备的功能性框图。
图9A-图9L示出了用于查看相关内容的示例性用户界面。
图10A-图10D是示出用于查看相关内容的示例性过程的流程图。
图11示出了根据一些实施方案的电子设备的功能性框图。
图12A-图12K示出了用于查看与所识别个体相关的内容的示例性用户界面。
图13A-图13D是示出用于查看与所识别个体相关的内容的示例性过程的流程图。
图14示出了根据一些实施方案的电子设备的功能性框图。
图15A-图15E示出了用于获得自动生成的媒体集合的示例性用户界面。
图16A-图16D是示出用于获得自动生成的媒体集合的示例性过程的流程图。
图17示出了根据一些实施方案的电子设备的功能性框图。
具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
电子设备需要提供用于检索和查看上下文相关内容的更有效的方法和界面。例如,消除用户导航界面的大量手动努力以便基于一个或多个上下文属性检索相关的内容的技术。此类技术可减少对访问上下文相关媒体内容的用户所造成的认知负担,从而提高生产率。此外,此类技术可减少以其他方式浪费在冗余用户输入上的处理器功率和电池功率。
下面图1A-图1B、图2、图3、图4A-图4B和图5A-图5H提供了对用于执行管理事件通知的技术的示例性设备的描述。图6A-图6R示出了用于查看上下文相关媒体集合的示例性用户界面。图7A-图7E是示出用于进行查看上下文相关媒体和相关内容的示例性过程的流程图。图6A-图6R中的用户界面用于示出下文描述的过程,包括图7A-图7E中的过程。图9A-图9L示出了用于查看相关内容的示例性用户界面。图10A-图10D是示出用于查看相关内容的示例性过程的流程图。图9A-图9L中的用户界面用于示出下文描述的过程,包括图10A-图10D中的过程。图12A-图12K示出了用于查看与所识别个体相关的内容的示例性用户界面。图13A-图13D是示出用于查看与所识别个体相关的内容的示例性过程的流程图。图12A-图12K中的用户界面用于示出下文描述的过程,包括图13A-图13D中的过程。图15A-图15E示出了用于获得自动生成的媒体集合的示例性用户界面。图16A-图16D是示出用于获得自动生成的媒体集合的示例性过程的流程图。图15A-图15E中的用户界面用于示出下文描述的过程,包括图16A-图16D中的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受术语的限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”、“包含”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意指“当......时”、“在......时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的
Figure BDA0001925911250000131
设备、iPod
Figure BDA0001925911250000132
设备、和
Figure BDA0001925911250000133
设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触摸板)的膝上型电脑或平板电脑。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下中的一者或多者:绘图应用程序、呈现应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字视频摄像机应用程序、网页浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个通用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做触敏显示器系统。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示器系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面诸如设备100的触敏显示器系统112或设备300的触摸板355上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的,术语触敏表面上的接触的“强度”是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量值被组合(例如,加权平均)以确定所估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在实地面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的,术语“触觉输出”是指将由用户利用用户的触感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移、或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“按下点击”、“松开点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。
应当理解,设备100仅仅是便携式多功能设备的一个示例,并且设备100任选地具有比所示出的部件更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件以硬件、软件、或硬件与软件两者的组合来实现,包括一个或多个信号处理和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且还任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备、或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。所述一个或多个处理器120运行或执行存储器102中所存储的各种软件程序和/或指令集以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU 120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被叫做电磁信号的RF信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信与网络以及其他设备进行通信,该网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于检测近场通信(NFC)场的熟知的电路,诸如通过近程通信无线电部件来进行检测。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗(BTLE)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户和设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人耳可听见的声波。音频电路110还接收由麦克风113根据声波转换来的电信号。音频电路110将电信号转换为音频数据,并将音频数据传输到外围设备接口118以进行处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接至外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、强度传感器控制器159、触觉反馈控制器161、和用于其他输入或控制设备的一个或多个输入控制器160。所述一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到所述其他输入控制设备。其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击轮等。在一些另选实施方案中,一个或多个输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口以及指针设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113的音量控制的增大/减小按钮。一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
快速按压下压按钮任选地解除对触摸屏112的锁定或者任选地开始使用触摸屏上的手势来对设备进行解锁的过程,如于2005年12月23日提交的名称为“Unlocking aDevice by Performing Gestures on an Unlock Image”的美国专利申请11/322,549(即美国专利7,657,849)中所述,该专利据此全文以引用方式并入。长按下压按钮(例如206)任选地使设备100开机或关机。一个或多个按钮的功能任选地为用户可定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备和用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送至该触摸屏。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地与用户界面对象对应。
触摸屏112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将所检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施方案中,触摸屏112和用户之间的接触点与用户的手指对应。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在一个示例性实施方案中,使用投射式互电容感测技术,诸如在来自Apple Inc.(Cupertino,California)的
Figure BDA0001925911250000181
和iPod
Figure BDA0001925911250000182
中使用的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于以下美国专利中描述的多点触敏触控板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman等人)和/或美国专利公开2002/0015024A1,该每个专利据此全文以引用方式并入。然而,触摸屏112显示来自设备100的视觉输出,而触敏触控板不提供视觉输出。
在一些实施方案中,触摸屏112的触敏显示器在以下申请中描述:(1)于2006年5月2日提交的名称为“Multipoint Touch Surface Controller”的美国专利申请11/381,313;(2)于2004年5月6日提交的名称为“Multipoint Touchscreen”的美国专利申请10/840,862;(3)于2004年7月30日提交的名称为“Gestures For Touch Sensitive InputDevices”的美国专利申请10/903,964;(4)于2005年1月31日提交的名称为“Gestures ForTouch Sensitive Input Devices”的美国专利申请11/048,264;(5)于2005年1月18日提交的名称为“Mode-Based Graphical User Interfaces For Touch Sensitive InputDevices”的美国专利申请11/038,590;(6)于2005年9月16日提交的名称为“Virtual InputDevice Placement On A Touch Screen User Interface”的美国专利申请11/228,758;(7)于2005年9月16日提交的名称为“Operation Of A Computer With A Touch ScreenInterface”的美国专利申请11/228,700;(8)于2005年9月16日提交的名称为“ActivatingVirtual Keys Of A Touch-Screen Virtual Keyboard”的美国专利申请11/228,737;以及(9)于2006年3月3日提交的名称为“Multi-Functional Hand-Held Device”的美国专利申请11/367,749。所有这些申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触摸板(未示出)。在一些实施方案中,触控板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触摸板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接到I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取该用户的图像,以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接到I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的与位于设备100的前部上的触摸屏显示器112相背对的后部上。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接到外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接到I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:11/241,839,名称为“Proximity Detector In Handheld Device”;11/240,788,名称为“Proximity DetectorIn Handheld Device”(手持设备中的接近检测器);11/620,702,名称为“Using AmbientLight Sensor To Augment Proximity Sensor Output”(使用环境光线传感器增强接近传感器输出);11/586,862,名称为“Automated Response To And Sensing Of UserActivity In Portable Devices”(自动响应和感测便携式设备中的用户活动);以及11/638,251,名称为“Methods And Systems For Automatic Configuration OfPeripherals”(用于外围设备的自动配置的方法和系统),这些美国专利申请据此全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接到I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相对。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到外围设备接口118的加速度计168。另选地,加速度计168任选地耦接到I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:美国专利公开20050190059,名称为“Acceleration-based Theft Detection System for Portable ElectronicDevices”和美国专利公开20060017692,名称为“Methods And Apparatuses ForOperating A Portable Device Based On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,基于对从一个或多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图显示信息。设备100任选地除了一个或多个加速度计168之外还包括磁力仪(未示出)和GPS(或GLONASS或其他全球导航系统)接收器(未示出),以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,存储于存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A、和图3中所示。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,其指示什么应用、视图或其他信息占据触摸屏显示器112的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116获取的信息;以及关于设备的位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件组件和/或驱动器,并且促进各种硬件部件和软件组件之间的通信。
通信模块128通过一个或多个外部端口124来促进与其他设备的通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件组件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与
Figure BDA0001925911250000221
(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156)和其他触敏设备(例如,触摸板或物理点击式转盘)的接触。接触/运动模块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已经停止(例如,检测手指抬起事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触控板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子组(例如,强度阈值不由特定物理致动器的激活阈值来确定,并且可在不改变设备100的物理硬件的情况下调整)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测用户的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,所检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上展示和显示图形的各种已知的软件组件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉特征)的组件。如本文所用,术语“图形”包括可被显示给用户的任何对象,其非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储用于表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件部件,该指令由一个或多个触觉输出发生器167使用,以便响应于用户与设备100的交互而在设备100上的一个或多个位置处产生触觉输出。
任选地为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、IM 141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置并提供该信息以用于各种应用(例如,提供至用于基于位置的拨号的电话138;提供至相机143作为图片/视频元数据;以及提供给提供基于位置的服务的应用,诸如天气桌面小程序、本地黄页桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时称作通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5和由用户获得的其他桌面小程序,以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·记事本模块153;
·地图模块154;和/或
·在线视频模块155。
任选地存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、呈现应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:向通讯录添加一个或多个姓名;从地址簿删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或即时消息141的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话,以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、执行和终止用户与一个或多个其他参与者之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列,修改先前输入的字符,传输相应即时消息(例如,使用用于基于电话的即时消息的短消息服务(SMS)或多媒体消息服务(MMS)协议或者使用用于基于互联网的即时消息的XMPP、SIMPLE或IMPS),接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括创建健身(例如,具有时间、距离和/或卡路里燃烧目标)的可执行指令;与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触摸屏112、显示控制器156、一个或多个光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括用于以下操作的可执行指令:捕获静态图像或视频(包括视频流)并且将它们存储到存储器102中、修改静态图像或视频的特征,或从存储器102删除静态图像或视频。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和相机模块143,图像管理模块144包括用于以下操作的可执行指令:排列、修改(例如,编辑)或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或相册中),以及存储静态图像和/或视频图像。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括根据用户指令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分,以及链接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示系统控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149是任选地由用户下载和使用的微型应用(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4和词典桌面小程序149-5)或由用户创建的微型应用(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部分转到桌面小程序中)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括根据用户指令在存储器102中搜索匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词)的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式(诸如MP3或AAC文件)存储的所记录的音乐和其他声音文件的可执行指令,以及用于显示、呈现或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器,诸如iPod(Apple Inc.的商标)的功能性。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,记事本模块153包括根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令接收、显示、修改和存储地图以及与地图相关联的数据(例如,驾驶方向、与特定位置处或附近的商店及其他兴趣点有关的数据,以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括用于进行以下操作的指令:允许用户访问、浏览、接收(例如,通过流式传输和/或下载)、回放(例如在触摸屏上或在经由外部端口124所连接的外部显示器上)、发送具有至特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送至特定在线视频的链接。在线视频应用程序的其他描述可在于2007年6月20日提交的名称为“Portable Multifunction Device,Method,and Graphical User Interfacefor Playing Online Videos”的美国临时专利申请60/936,562和于2007年12月31日提交的名称为“Portable Multifunction Device,Method,and Graphical User Interfacefor Playing Online Videos”的美国专利申请11/968,067中找到,这两个专利申请的内容据此全文以引用方式并入本文。
上述每个模块和应用程序对应于用于执行上述一种或多种功能以及在本专利申请中所述的方法(例如,本文所述的计算机实现的方法和其他信息处理方法)的可执行指令集。这些模块(例如,指令集)不必以独立的软件程序、过程或模块实现,并因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上面未描述的另外的模块和数据结构。
在一些实施方案中,设备100是该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触控板来执行的设备。通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触控板来执行的预定义的一组功能任选地包括在用户界面之间的导航。在一些实施方案中,该触摸板在被用户触摸时将设备100从被显示在设备100上的任何用户界面导航到主菜单、home菜单、或根菜单。在此类实施方案中,使用触摸板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触摸板。
图1B是示出了根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或370(图3)包括事件分类器170(例如,在操作系统126中)以及相应的应用程序136-1(例如,前述应用程序137-151、155、380-390中的任一个应用程序)。
事件分类器170接收事件信息并且确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用于确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用于确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下各项中的一者或多者:当应用程序136-1恢复执行时将被使用的恢复信息、指示正被应用程序136-1显示的信息或准备好用于被应用程序显示的信息的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,作为多点触摸手势的一部分的触敏显示器112上的用户触摸)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送至外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的什么地方发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面是一组视图,本文中有时也称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有在分级结构中组织的多个视图时,命中视图确定模块172将命中视图识别为应对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与被识别为命中视图的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应接收特定子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图才应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图都是活跃参与的视图,并且由此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在另一个实施方案中,事件分类器170为独立模块,或者为被存储在存储器102中的另一个模块(诸如接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中每个应用程序视图包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包(未示出)或应用程序136-1从中继承方法和其他属性的较高级别的对象。在一些实施方案中,相应事件处理程序190包括以下一者或多者:数据更新器176、对象更新器177、GUI更新器178和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应的事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一个或多个包括在相应的应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且从事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182接收来自事件分类器170的事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件187中的子事件包括例如,触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是在显示的对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一次触摸(触摸开始)、预先确定时长的第一次抬离(触摸结束)、被显示对象上的预先确定时长的第二次触摸(触摸开始)以及预先确定时长的第二次抬离(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括用于相应用程序户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试,以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试,以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示的对象与相应的事件处理程序190相关联,则事件比较器使用该命中测试的结果,以确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件187的定义还包括延迟动作,所述延迟动作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件系列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括元数据183,所述元数据具有指示事件递送系统应该如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当识别事件的一个或多个特定子事件时,相应事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180发出与所识别的事件相关联的标志,并且与该标志相关联的事件处理程序190获取该标志并执行预定义的过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而无需激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建并更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,一个或多个事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或具有对该数据更新器、该对象更新器和该GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,上述关于触敏显示器上的用户触摸的事件处理的讨论还适用于利用输入设备操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触控板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施方案中以及在下文中描述的其他实施方案中,用户能够通过例如利用一个或多个手指202(在附图中没有按比例绘制)或者利用一个或多个触笔203(在附图中没有按比例绘制)在图形上做出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用中的任何应用136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备开机/关机和用于锁定设备的下压按钮206、一个或多个音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必为便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的一个或多个通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时被叫做芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他针对设备)350和触控板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于以上参考图1A所述的一个或多个触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似于以上参考图1A所述的一个或多个接触强度传感器165))。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离一个或多个CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中的上述元素中的每个元素任选地存储于先前提到的存储器设备的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子集。此外,存储器370任选地存储上文未描述的另外的模块和数据结构。
现在将注意力转到任选地在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序的菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信(诸如蜂窝信号和Wi-Fi信号)的信号强度指示器402;
·时间404;
·蓝牙指示器405;
·电池状态指示符406;
·具有常用应用程序图标的托盘408,诸如:
○电话模块138的被标记为“电话”的图标416,该图标任选地包括未接来电或语音留言的数量的指示符414;
○电子邮件客户端模块140的被标记为“邮件”的图标418,该图标任选地包括未读电子邮件的数量的指示符410;
○浏览器模块147的标记为“浏览器”的图标420;以及
○视频和音乐播放器模块152(也称为iPod(Apple Inc.的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用程序的图标,诸如:
○IM模块141的被标记为“消息”的图标424;
○日历模块148的被标记为“日历”的图标426;
○图像管理模块144的被标记为“照片”的图标428;
○相机模块143的被标记为“相机”的图标430;
○在线视频模块155的被标记为“在线视频”的图标432;
○股市桌面小程序149-2的被标记为“股市”的图标434;
○地图模块154的被标记为“地图”的图标436;
○天气桌面小程序149-1的被标记为“天气”的图标438;
○闹钟桌面小程序149-4的被标记为“时钟”的图标440;
○健身支持模块142的被标记为“健身支持”的图标442;
○记事本模块153的标记为“记事本”的图标444;以及
○用于设置应用程序或模块的被标记为“设置”的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
需注意,图4A中示出的图标标签仅是示例性的。例如,视频和音乐播放器模块152的图标422被标记“音乐”或“音乐播放器”。对于各种应用程序图标任选地使用其他标签。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触摸板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器)、和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入给出以下示例中的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,当触敏表面(例如,图4B中的451)与多功能设备的显示器(图4B中的450)分开时,设备在触敏表面上检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操控显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、单指轻击手势、手指轻扫手势)来给出下面的示例,但是应当理解的是,在一些实施方案中,这些手指输入中的一个或多个手指输入由来自另一输入设备的输入(例如,基于鼠标的输入或触笔输入)替代。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。在一些实施方案中,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同用户界面操作。
用于检测和处理触摸强度的示例性技术见于例如以下相关专利申请中:2013年5月8日提交的名称为“Device,Method,and Graphical User Interface for DisplayingUser Interface Objects Corresponding to an Application”的国际专利申请序列号PCT/US2013/040061,发布为WIPO专利公开号WO/2013/169849;以及2013年11月11日提交的名称为“Device,Method,and Graphical User Interface for Transitioning BetweenTouch Input to Display Output Relationships”的国际专利申请序列号PCT/US2013/069483,发布为WIPO专利公开号WO/2014/105276,该每个专利申请据此全文以引用方式并入。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B示出了示例性个人电子设备500。在一些实施方案中,设备500可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有总线512,该总线将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地是麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作性连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,该可执行指令在由一个或多个计算机处理器516执行时例如可使得计算机处理器执行下述技术,包括过程700、1000、1300和1600(图7、图10、图13和图16)。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500(图1、图3和图5)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指用于指示用户正与之进行交互的用户界面的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据所检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏112)的一些具体实施中,触摸屏上的所检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据所检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触摸板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触的强度的最大值、接触的强度的均值、接触的强度的平均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于确定执行第一操作还是第二操作。
图5C示出了利用多个强度传感器524A-524D检测触敏显示屏504上的多个接触552A-552E。图5C另外包括强度图,其相对于强度单位示出了强度传感器524A-524D的当前强度测量值。在该示例中,强度传感器524A和524D的强度测量值均是9个强度单位,并且强度传感器524B和524C的强度测量值均是7个强度单位。在一些具体实施中,累积强度是多个强度传感器524A-524D的强度测量值之和,在该示例中是32个强度单位。在一些实施方案中,每个接触都被分配了相应强度,即累积强度的一部分。图5D示出了基于其与力554中心的距离而向接触552A-552E分配累积强度。在该示例中,接触552A、552B和552E中的每个接触都被分配以累积强度的8个强度单位的接触的强度,并且接触552C和552D的中每个接触都被分配以累积强度的4个强度单位的接触的强度。更一般地讲,在一些具体实施中,每个接触j都根据预定义的数学函数Ij=A·(Dj/ΣDi)被分配相应强度Ij,其为累积强度A的一部分,其中Dj是相应接触j距力中心的距离,并且ΣDi是所有相应接触(例如,i=1到最后)距力中心的距离之和。可以利用类似于或等同于设备100、300或500的电子设备执行参考图5C-图5D所述的操作。在一些实施方案中,接触的特征强度基于接触的一个或多个强度。在一些实施方案中,强度传感器用于确定单个特征强度(例如,单个接触的单个特征强度)。应当指出,强度图不是所显示用户界面的部分,而是包括在图5C-图5D中以帮助读者。
在一些实施方案中,识别手势的一部分以用于确定特征强度。例如,触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置,在该结束位置处,接触强度增加。在该示例中,接触在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的部分)。在一些实施方案中,在确定接触的特征强度之前任选地向轻扫接触的强度应用平滑化算法。例如,平滑化算法任选地包括以下各项中的一种或多种:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上的接触强度。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标或触摸板的按钮相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
接触特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有时被称为“深按压”输入。接触特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。接触特征强度从高于接触检测强度阈值的强度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬离。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测强度阈值大于零。
在本文中所述的一些实施方案中,响应于检测到包括相应按压输入的手势或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增大到高于按压输入强度阈值而检测到相应按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
图5E-图5H示出了对手势的检测,手势包括与接触562的强度从低于图5E中的轻按压强度阈值(例如,“ITL”)的强度增大到高于图5H中的深按压强度阈值(例如,“ITD”)的强度对应的按压输入。在所显示的包括预定义区域574中显示的应用程序图标572A-572D的用户界面570上,在与应用程序2对应的应用程序图标572B上方显示光标576的同时,在触敏表面560上检测利用接触562执行的手势。在一些实施方案中,在触敏显示器504上检测手势。强度传感器检测触敏表面560上的接触的强度。该设备确定,接触562的强度在深按压强度阈值(例如,“ITD”)以上达到峰值。在触敏表面560上保持接触562。响应于检测到手势,并且根据在手势期间强度升高到深按压强度阈值(例如,“ITD”)以上的接触562,显示最近为应用程序2打开的文档的尺度减小的表示578A-578C(例如,缩略图),如图5F-图5H所示。在一些实施方案中,与一个或多个强度阈值相比,强度是接触的特征强度。应当指出,针对接触562的强度图不是所显示用户界面的部分,而是包括在图5E-图5H中以帮助读者。
在一些实施方案中,表示578A-578C的显示包括动画。例如,表示578A一开始显示于应用程序图标572B的附近,如图5F所示。随着动画的进行,表示578A向上移动,并在应用程序图标572B附近显示表示578B,如图5G中所示。然后,表示578A向上移动,578B向着表示578A向上移动,并且在应用程序图标572B附近显示表示578C,如图5H中所示。表示578A-578C形成图标572B上方的阵列。在一些实施方案中,动画根据接触562的强度进展,如图5F-图5G中所示,其中表示578A-578C出现并随着接触562的强度向深按压强度阈值(例如,“ITD”)增大而向上移动。在一些实施方案中,动画进展所依据的强度是接触的特征强度。可以利用类似于或等同于设备100、300或500的电子设备执行参考图5E-图5H所述的操作。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或滞后强度阈值是按压输入强度阈值的75%、90%或某个合理比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了容易解释,任选地,响应于检测到以下各种情况中的任一种情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触强度增大到高于按压输入强度阈值、接触强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触强度减小到低于按压输入强度阈值、和/或接触强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。
示例性方法、非暂态计算机可读存储介质、系统和电子设备在以下各项中给出:
1.一种方法,包括:
在具有显示器的设备处:
接收显示上下文相关媒体的请求;并且
响应于该请求:
根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;以及
根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
2.根据项目1所述的方法,还包括:
根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第三媒体项目集合的表示,其中第一媒体项目集合基于第一上下文属性与第一上下文相关,并且第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中第二上下文属性与第一上下文属性不同。
3.根据项目1或2中任一项所述的方法,其中第一媒体项目集合的表示是第一示能表示,该方法还包括:
接收与第一示能表示的选择相对应的用户输入;以及
响应于接收到用户输入,在显示器上显示包括第一媒体项目集合的至少一部分的详细用户界面。
4.根据项目1至3中任一项所述的方法,其中第一媒体项目集合的表示包括选自第一媒体项目集合中的媒体项目的缩小比例版本。
5.根据项目1至4中任一项所述的方法,还包括:
生成与第一媒体项目集合相关联的文本标识符;
识别所选媒体项目中的面部,其中所选媒体项目是图像;
在显示器上显示覆盖在第一媒体项目集合的表示上的文本标识符,其中覆盖文本标识符不与显示为第一媒体项目集合的表示的所选媒体项目中的所识别面部重叠。
6.根据项目5所述的方法,其中与第一媒体项目集合相关联的文本标识符基于第一媒体项目集合与第一上下文的相关性来选择,并且包括解释第一媒体项目集合与第一上下文的相关性的一个或多个字词。
7.根据项目3至6中任一项所述的方法,还包括:
在显示详细用户界面之前,在显示器上显示视觉上占据显示器的第一部分的第一媒体项目集合的表示;
在接收到与第一示能表示的选择相对应的用户输入之后,并且在显示详细用户界面时,在显示器上显示视觉上占据显示器的第二部分的第一媒体项目集合的关键媒体项目,该显示器的第二部分不同于显示器的第一部分;以及
进一步响应于接收到与第一示能表示的选择相对应的用户输入,在显示器上显示第一媒体项目集合的表示过渡到关键媒体项目的动画过渡。
8.根据项目3至7中任一项所述的方法,还包括:
在显示详细用户界面时,在显示器上显示包括第一媒体项目集合中的多个媒体项目的幻灯片;
接收与幻灯片的选择相对应的用户输入;以及
响应于接收到与幻灯片的选择相对应的用户输入,在显示器上显示包括第一媒体项目集合中的多个媒体项目的视频,其中幻灯片和视频是不同的。
9.根据项目8所述的方法,还包括:
接收与编辑幻灯片的请求相对应的用户输入;并且
响应于接收到与编辑幻灯片的请求相对应的用户输入,在显示器上显示幻灯片编辑用户界面。
10.根据项目3至9中任一项所述的方法,其中详细用户界面包括第一区域,其中第一区域包括策展视图,该策展视图包括第一媒体项目集合的媒体项目子集,其中选择媒体项目子集以便排除较低质量照片。
11.根据项目10所述的方法,其中第一区域还包括第二示能表示,该方法还包括:
接收与第二示能表示的选择相对应的用户输入;并且
响应于接收到与第二示能表示的选择相对应的用户输入,在显示器上显示扩展视图,该扩展视图包括第一媒体项目集合中在接收到与第二示能表示的选择相对应的输入之前未显示的附加媒体项目的表示。
12.根据项目10或11中任一项所述的方法,其中策展视图中的媒体项子集基于与媒体项目子集的媒体项目相关联的时间来按时间顺序布置。
13.根据项目10至12中任一项所述的方法,其中包括在策展视图中的媒体项目子集以策展布置结构来布置,并且其中包括在媒体项目的策展布置中的媒体项目子集被布置成使得媒体项目的边缘对齐以便在策展布置的顶部和底部处产生基本笔直的边界。
14.根据项目13所述的方法,其中策展布置的底部处的基本笔直的边界由包括在策展视图中的第一多个媒体项目子集形成。
15.根据项目14所述的方法,其中第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中第一尺寸和第二尺寸是不同的,其中第一纵横比和第二纵横比是不同的,并且其中策展布置的底部处的基本笔直的边界由第一多个媒体项目中的相邻媒体项目的边缘形成。
16.根据项目10至15中任一项所述的方法,还包括:
部分地基于媒体项目的尺寸从第一媒体项目集合中的媒体项目中选择媒体项目的策展子集。
17.根据项目10至14中任一项所述的方法,还包括:
接收与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入;
响应于接收到与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入,在显示器上显示第三媒体项目和搓擦示能表示;
接收与搓擦示能表示相对应的用户输入;以及
响应于接收到与搓擦示能表示相对应的用户输入,用媒体项目的策展子集中的第四媒体项目的显示替换第三媒体项目的显示,同时继续显示搓擦示能表示。
18.根据项目3至17中任一项所述的方法,其中详细用户界面包括第二区域,该第二区域包括地理地图,并且其中显示详细用户界面还包括:
在显示器上显示地理地图上的位置指示符,该位置指示符对应于与第一媒体项目集合中的第五媒体项目相关联的位置。
19.根据项目18所述的方法,还包括:
在显示地理地图时,在显示器上显示第三示能表示;
接收与第三示能表示的选择相对应的用户输入;以及
响应于接收到与第三示能表示的选择相对应的用户输入,在显示器上显示地理地图视图中与未包括在第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
20.根据项目19所述的方法,还包括:
在显示附加位置指示符之后:
在显示器上显示第四示能表示;
接收与第四示能表示的选择相对应的用户输入;以及
响应于接收到与第四示能表示的选择相对应的用户输入,停止显示地理地图视图中的附加位置指示符。
21.根据项目18至20中任一项所述的方法,还包括:
接收与位置指示符的选择相对应的用户输入;以及
响应于接收到与位置指示符的选择相对应的用户输入,用第五媒体项目的显示替换地理地图视图的显示。
22.根据项目3至21中任一项所述的方法,其中详细用户界面包括第三区域,该第三区域包括与第一媒体项目集合中的媒体项目中的所识别面部相对应的指示符;该方法还包括:
接收与对应于所识别面部的指示符的选择相对应的用户输入;以及
响应于接收到与对应于所识别面部的指示符的选择相对应的用户输入,在显示器上显示第四媒体项目集合,其中第四媒体项目集合中的媒体项目各自包括所识别面部。
23.根据项目3至22中任一项所述的方法,其中详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第五媒体项目集合的表示,并且其中第五媒体项目集合中的媒体项目与第一媒体项目集合中的媒体项目共享第一特征,该方法还包括:
接收与第五媒体项目集合的表示的选择相对应的用户输入;并且
响应于接收到与第五媒体项目集合的表示的选择相对应的用户输入,在显示器上显示包括第五媒体项目集合的详细用户界面。
24.根据项目23所述的方法,还包括:
在显示包括第一媒体项目集合的详细用户界面之后:
接收表示共享一组共同特征的第六媒体项目集合的数据,其中第六媒体项目集合不同于第一媒体项目集合;
接收与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入;以及
响应于接收到与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入,在显示器上显示详细用户界面以及第四区域中的第六媒体项目集合的表示。
25.根据项目3至24中任一项所述的方法,还包括:
在显示包括第一媒体项目集合的详细用户界面时:
在显示器上显示第五示能表示;
接收与第五示能表示的选择相对应的用户输入;以及
响应于接收到与第五示能表示的选择相对应的用户输入,将第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
26.根据项目25所述的方法,还包括:
接收与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入;以及
响应于接收到与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入,在显示器上显示第一媒体项目集合的表示。
27.一种方法,包括:
在具有显示器和触敏表面的设备处:
在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;
在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;
响应于接收到用户输入:
确定用户输入是否对应于第一方向上的轻扫手势;
根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
28.根据项目27所述的方法,其中在触敏表面上与第一视觉媒体项目相对应的位置处检测到用户输入。
29.根据项目27或28中任一项所述的方法,其中包括相应方向上的移动的用户输入是第一用户输入,该方法还包括:
在显示第一视觉媒体项目时,接收包括相应方向上的移动的第二用户输入;
确定第二用户输入是否对应于不同于第一方向的第二方向上的轻扫手势;
根据确定用户输入对应于第二方向上的轻扫手势,用一系列视觉媒体项目中的第二视觉媒体项目的显示替换第一视觉媒体项目的显示。
30.根据项目29所述的方法,其中详细用户界面是第一详细用户界面,该方法还包括:
在显示第二视觉媒体项目时,接收包括相应方向上的移动的第二用户输入;
确定第二用户输入是否对应于第一方向上的轻扫手势;
根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第二视觉媒体项目相关的第二视觉媒体项目的相关内容的第二详细用户界面,其中第二视觉媒体项目的相关内容与第一媒体项目的相关内容不同。
31.根据项目27至30中任一项所述的方法,还包括:
在显示第一视觉媒体项目时,接收包括相应方向上的移动的第三用户输入;
确定第三用户输入是否对应于不同于第一方向和第二方向的第三方向上的轻扫手势;
根据确定第三用户输入对应于第三方向上的轻扫手势,在显示器上显示一系列视觉媒体项目中的媒体项目的缩小比例版本。
32.根据项目31所述的方法,其中一系列视觉媒体项目中的媒体项目的缩小比例版本按时间顺序布置。
33.根据项目31至32中任一项所述的方法,其中一系列视觉媒体项目中的媒体项目的缩小比例版本通过与每个相应视觉媒体项目相关联的地理位置来在视觉上分组。
34.根据项目31至33中任一项所述的方法,还包括:
在显示第二视觉媒体项目时,接收包括相应方向上的移动的第四用户输入;
确定第四用户输入是否对应于第三方向上的轻扫手势;
根据确定用户输入对应于第三方向上的轻扫手势,在显示器上显示一系列视觉媒体项目中的媒体项目的缩小比例版本。
35.根据项目27至34中任一项所述的方法,其中第一视觉媒体项目的相关内容的表示不按时间顺序布置。
36.根据项目27至35中任一项所述的方法,还包括:
在显示第一视觉媒体项目时,接收包括第一方向上的移动的第五用户输入;
响应于接收到第五用户输入:
根据确定第一视觉媒体项目被放大超过预先确定的阈值,根据第五用户输入在显示器上移动第一视觉媒体项目而不显示详细用户界面;以及
根据确定第一视觉媒体项目未被放大超过预先确定的阈值,根据第五用户输入在显示器上移动第一视觉媒体项目并且在显示器上显示详细用户界面。
37.根据项目27至36中任一项所述的方法,其中详细用户界面包括第一区域,该第一区域包括由第一类别组织的相关内容,其中第一类别是在第一视觉媒体项目中识别的面部,并且其中第一区域包括来自第一视觉媒体项目的所识别面部,该方法还包括:
接收与所识别面部的选择相对应的用户输入;以及
响应于接收到与所识别面部的选择相对应的用户输入,在显示器上显示第一媒体项目集合,其中选择第一媒体项目集合中的每个项目以便包括所识别面部。
38.根据项目27至37中任一项所述的方法,其中详细用户界面包括第二区域,该第二区域包括由第二类别组织的相关内容,其中第二类别是位置,并且其中第二区域包括地理地图,该地理地图包括对应于与第一视觉媒体项目相关联的位置的位置指示符。
39.根据项目38所述的方法,还包括:
接收与第二区域的选择相对应的用户输入;以及
响应于与第二区域的选择相对应的用户输入,在显示器上显示地图用户界面,该地图用户界面包括与第一视觉媒体相关联的位置的视觉表示。
40.根据项目39所述的方法,还包括:
接收与地址的选择相对应的用户输入;以及
响应于与地址的选择相对应的用户输入,在显示器上显示地图应用程序的用户界面。
41.根据项目27至40中任一项所述的方法,其中详细用户界面包括第三区域,该第三区域包括由第三类别组织的相关内容,其中第三类别是共享一组共同特征的视觉媒体项目集合,其中第三类别包括共享一组共同特征的第二视觉媒体项目集合的表示,其中第二视觉媒体项目集合的视觉媒体项目与第一视觉媒体项目共享第一特征,该方法还包括:
接收与第二视觉媒体项目集合的表示的选择相对应的用户输入;以及
响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,在显示器上显示第二视觉媒体项目集合的视觉媒体项目的表示。
42.根据项目41所述的方法,其中第二视觉媒体项目集合排除第一视觉媒体项目。
43.根据项目27至42中任一项所述的方法,其中显示包括第一视觉媒体项目的相关内容的详细用户界面包括:
在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面。
44.根据项目43所述的方法,其中在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面包括:
在第一方向上滚动显示的第一视觉媒体项目,直到第一视觉媒体项目的仍然显示的部分是第一视觉媒体项目的预先确定的部分;以及
在滚动直到预先确定的部分是显示的部分之后:
停止滚动第一视觉媒体项目;以及
继续滚动以显示出详细用户界面,同时第一媒体项目的预先确定的部分保持静止。
45.根据项目27至44中任一项所述的方法,其中第一视觉媒体项目是图像或视频。
46.根据项目27至45中任一项所述的方法,其中详细用户界面是安装在设备上的应用程序的界面,并且其中能够在显示使用应用程序显示的任何视觉媒体项目时访问详细用户界面。
47.一种方法,包括:
在具有显示器的设备处:
在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;
在显示第一详细用户界面时:
在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及
接收与示能表示的选择相对应的用户输入;并且
响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
48.根据项目47所述的方法,其中基于在与特定事件相对应的至少一个媒体项目中识别多个个体中的个体的面部来识别多个个体对特定事件的参加。
49.根据项目47或48中任一项所述的方法,其中基于与多个个体相关联的位置数据来识别多个个体对特定事件的参加,其中位置数据包括将与多个个体中的个体相对应的设备识别为在发生特定事件时已经处于特定事件的位置处的数据。
50.根据项目47至49中任一项所述的方法,其中第二视觉媒体包括描绘少于多个个体中的所有个体的第一媒体项目。
51.根据项目47至50中任一项所述的方法,其中第二详细用户界面包括第一区域,该第一区域包括幻灯片,该幻灯片包括第二视觉媒体的媒体项目,该方法还包括:
接收与幻灯片的选择相对应的用户输入;
响应于与幻灯片的选择相对应的用户输入,在显示器上显示包括第二视觉媒体的媒体项目的视频,其中幻灯片和视频是不同的。
52.根据项目47至51中任一项所述的方法,其中第二详细用户界面包括第二区域,其中第二区域包括策展视图,该策展视图包括第二视觉媒体的媒体项目子集。
53.根据项目52所述的方法,其中第二区域还包括第一示能表示,该方法还包括:
接收与第一示能表示的选择相对应的用户输入;以及
响应于接收到与第一示能表示的选择相对应的用户输入,在显示器上显示第二视觉媒体的媒体项目的扩展视图。
54.根据项目47至53中任一项所述的方法,其中第二详细用户界面包括第三区域,该第三区域包括地理地图,并且其中显示详细用户界面还包括:
在显示器上显示地理地图上的位置指示符,该位置指示符对应于与第二视觉媒体的第二媒体项目相关联的位置。
55.根据项目47至54中任一项所述的方法,其中第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,其中第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征,该方法还包括:
接收与第一视觉媒体项目集合的表示的选择相对应的用户输入;以及
响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,在显示器上显示第一视觉媒体项目集合的视觉媒体项目的表示。
56.根据项目55所述的方法,其中第一视觉媒体项目集合排除第二视觉媒体的媒体项目。
57.根据项目47至56中任一项所述的方法,还包括:
在显示第二详细用户界面时,在显示器上显示包括多个示能表示的第五区域,每个示能表示与多个个体中的单个不同个体相对应;
接收与第五区域中的多个示能表示中的示能表示的选择相对应的用户输入,其中示能表示对应于第一个体;以及
响应于接收到与对应于第一个体的示能表示的选择相对应的用户输入,在显示器上显示包括第三视觉媒体的表示的第三详细用户界面,其中第三视觉媒体包括第三多个媒体项目,其中第三多个媒体项目中的每一个被识别为描绘第一个体,其中第三多个媒体项目包括与被识别为第一个体已参加的第四事件相对应的媒体项目,并且其中第二事件、第三事件和第四事件是不同的。
58.根据项目57所述的方法,还包括:
接收与滚动第五区域的请求相对应的用户输入;
响应于接收到与滚动第五区域的请求相对应的用户输入,滚动包括在第五区域中的多个示能表示,同时第五区域保持静止,其中滚动多个示能表示使得先前未显示的示能表示被显示在第五区域中,并且其中先前未显示的示能表示与未包括在多个个体中的第二个体相对应。
59.根据项目57或58中任一项所述的方法,还包括:
在显示第三详细用户界面时,在显示器上显示第二示能表示;
接收与第二示能表示的选择相对应的用户输入;
响应于接收到与第二示能表示的选择相对应的用户输入,在显示器上显示包括已被识别为可能描绘第一个体的候选视觉媒体项目的个体确认用户界面,其中候选视觉媒体项目不包括在第三视觉媒体中。
60.根据项目59中任一项所述的方法,还包括:
接收与个体确认用户界面相关联的用户输入;以及
响应于接收到与个体确认用户界面相关联的用户输入:
确定与个体确认用户界面相关联的用户输入是表示确认输入还是拒绝输入;
根据确定与个体确认用户界面相关联的用户输入表示确认输入,将候选媒体项目与第一个体相关联;以及
根据确定与个体确认用户界面相关联的用户输入表示拒绝输入,放弃将候选媒体项目与第一个体相关联。
61.根据项目57至60中任一项所述的方法,其中与多个示能表示中的示能表示的选择相对应的用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入,该方法还包括:
确定用户输入的第一特征强度;
根据确定用户输入满足强度依赖标准,其中强度依赖标准要求触摸用户输入的第一特征强度超过强度阈值以便满足强度依赖标准,显示上下文菜单用户界面。
62.根据项目61所述的方法,其中上下文菜单用户界面包括第一上下文示能表示,该方法还包括:
接收与第一上下文示能表示的选择相对应的用户输入;
响应于接收到与第一上下文示能表示的选择相对应的用户输入,在显示器上显示用于编辑用作第一个体的标识符的名称的名称编辑用户界面;
在显示名称编辑用户界面时,接收第一个体的更新名称;并且
响应于接收到第一个体的更新名称,将存储在回忆中的与第一个体相关联的现有名称更新为更新名称。
63.根据项目62所述的方法,还包括:
在显示器上显示对应于建议个体的示能表示,其中建议个体与设备可访问的联系人列表中的联系人相对应;
接收与对应于建议个体的示能表示的选择相对应的用户输入;以及
响应于接收到与对应于建议个体的示能表示的选择相对应的用户输入,将存储在回忆中的与第一个体相关联的现有名称更新为建议个体的名称。
64.根据项目61至63所述的方法,其中上下文菜单用户界面包括第二上下文示能表示,该方法还包括:
接收与第二上下文示能表示的选择相对应的用户输入;
响应于接收到与第二上下文示能表示的选择相对应的用户输入,将第一个体的标识符与所选个体的标识符列表相关联;
在显示器上显示包括第三示能表示和所识别个体的表示的用户界面,其中所识别个体的表示包括所选个体列表中的个体;
接收与第三示能表示的选择相对应的用户输入;以及
响应于接收到与第三示能表示的选择相对应的用户输入,停止显示不对应于与所选个体的标识符列表相关联的标识符的个体的表示。
65.根据项目47至64所述的方法,其中第二详细用户界面包括第四示能表示,该方法还包括:
接收与第四示能表示的选择相对应的用户输入;
响应于接收到与第四示能表示的选择相对应的用户输入,将第二详细用户界面添加到用户保存的一组详细用户界面;
停止显示第二详细用户界面;
在停止显示第二详细用户界面之后,接收与显示第二详细用户界面的请求相对应的用户输入;并且
在显示器上显示第二详细用户界面。
66.一种方法,包括:
在具有显示器的设备处:
在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;
在显示多个示能表示时,接收第一用户输入;
响应于接收到第一用户输入:
获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;以及
在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;
接收与第一示能表示的选择相对应的第二用户输入;以及
响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
67.根据项目66所述的方法,其中获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合包括:响应于第一用户输入生成第一媒体项目集合。
68.根据项目67所述的方法,响应于第一用户输入生成第一媒体项目集合包括:
确定共享一组共同特征的媒体项目集合;以及
选择共享该组共同特征的媒体项目集合中的集的较小子集以创建媒体项目的策展集。
69.根据项目66至68中任一项所述的方法,还包括:
在接收第二用户输入之前,接收第三用户输入;
响应于接收到第三用户输入,滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示。
70.根据项目69所述的方法,其中滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示包括:
滚动显示的多个示能表示以显示出与自动生成的第二视觉媒体集合相对应的第二示能表示,其中第二示能表示先前未包括在显示的多个示能表示中,其中第一示能表示与第一日期相关联,并且其中第二示能表示与不同于第一日期的第二日期相关联。
71.根据项目70所述的方法,其中详细用户界面是第一详细用户界面,其中滚动显示的多个示能表示包括将多个示能表示从第一视图滚动到第二视图,该方法还包括:
在显示第二视图中的多个示能表示时,接收与第一示能表示的选择相对应的第二用户输入;
响应于接收到与第一示能表示的选择相对应的第二用户输入,在显示器上显示第一详细用户界面,其中第一详细用户界面包括与第三视觉媒体集合相对应的第二示能表示,并且其中第一详细用户界面包括第三示能表示;
在显示第一详细用户界面时,接收与第二示能表示的选择相对应的第二用户输入;
响应于接收到与第二示能表示的选择相对应的用户输入,在显示器上显示第二详细用户界面,该第二详细用户界面包括与第三示能表示相对应的视觉媒体集合的表示,并且其中该详细用户界面包括第三示能表示;
在显示第二详细用户界面时,接收与第三示能表示的选择相对应的用户输入;
响应于接收到与第三示能表示的选择相对应的用户输入,在显示器上显示第二视图中的多个示能表示。
72.根据项目66至71中任一项所述的方法,其中与多个自动生成的视觉媒体集合相对应的显示的多个示能表示基于获得自动生成的集合中的每个相应的自动生成的集合的日期按时间顺序布置。
73.根据项目66至72中任一项所述的方法,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括:
在显示器上显示与当前时间段相对应的多个示能表示。
74.根据项目66至73中任一项所述的方法,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括:
在显示器上显示针对多个不同时间段中的每一个不同时间段的与时间段相对应的多个示能表示,其中多个示能表示是预先确定数量的示能表示。
75.根据项目66至74中任一项所述的方法,其中自动生成的视觉媒体集合被确定为与设备的一般上下文上下文相关。
76.根据项目66至75中任一项所述的方法,其中第一视觉媒体集合与设备的特定上下文上下文相关。
77.根据项目75至76中任一项所述的方法,其中上下文包括周年纪念日、生日、最近旅行、上周、被识别为当前在设备的当前位置附近的个体的视觉媒体、当前在设备的当前位置附近的兴趣点的视觉媒体以及设备可访问的日历上的事件中的一者或多者。
78.根据项目66至77中任一项所述的方法,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括在显示器上显示具有多个示能表示中的每一个的上下文信息。
79.根据项目66至78中任一项所述的方法,其中设备包括触敏表面,并且其中第二用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入,该方法还包括:
确定触摸用户输入的第一特征强度;
根据确定触摸用户输入满足选择标准,其中选择标准不要求触摸用户输入的第一特征强度超过第一强度阈值或第二强度阈值以便满足选择标准,用详细用户界面的显示替换多个示能表示的显示;
根据确定触摸用户输入满足第一强度依赖标准,在继续显示多个示能表示的一部分时,在显示器上显示包括第二视觉媒体集合的表示的预览用户界面,其中第一强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值以便满足第一强度依赖标准,并且其中第一强度依赖标准不要求触摸用户输入的第一特征强度超过第二强度阈值以便满足第一强度依赖标准;以及
根据确定触摸用户输入满足第二强度依赖标准,用详细用户界面的显示替换多个示能表示的显示,其中第二强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值和第二强度阈值以便满足第二强度依赖标准。
80.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:
接收显示上下文相关媒体的请求;以及
响应于该请求:
根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;以及
根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
81.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使得该设备:
接收显示上下文相关媒体的请求;以及
响应于该请求:
根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;以及
根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
82.一种系统,包括:
显示器;
用于接收显示上下文相关媒体的请求的装置;和
用于响应于该请求进行以下操作的装置:
根据确定设备处于第一上下文,在显示器上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;以及
根据确定设备处于第二上下文,在显示器上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
83.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,该一个或多个程序包括用于执行根据项目1至26中任一项所述的方法的指令。
84.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备执行根据项目1至26中任一项所述的方法。
85.一种系统,包括:
显示器;和
用于执行根据项目1至26中任一项所述的方法的装置。
86.一种电子设备,包括:
显示器;
触敏表面;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:
在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;
在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;
响应于接收到用户输入:
确定用户输入是否对应于第一方向上的轻扫手势;
根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
87.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器和触敏表面的电子设备执行时,使该设备:
在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目;
在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;
响应于接收到用户输入:
确定用户输入是否对应于第一方向上的轻扫手势;
根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
88.一种系统,包括:
显示器;
触敏表面;
用于在显示器上显示一系列视觉媒体项目中的第一视觉媒体项目的装置;
用于在显示第一视觉媒体项目时接收包括相应方向上的移动的用户输入的装置;
用于响应于接收到用户输入进行以下操作的装置:
确定用户输入是否对应于第一方向上的轻扫手势;
根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
89.一种电子设备,包括:
显示器;
触敏表面;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于执行根据项目27至46中任一项所述的方法的指令。
90.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器和触敏表面的电子设备执行时,使该设备执行根据项目27至46中任一项所述的方法。
91.一种系统,包括:
显示器;
触敏表面;和
用于执行根据项目27至46中任一项所述的方法的装置。
92.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:
在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;
在显示第一详细用户界面时:
在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及
接收与示能表示的选择相对应的用户输入;以及
响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
93.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备:
在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;
在显示第一详细用户界面时:
在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及
接收与示能表示的选择相对应的用户输入;并且
响应于接收到用户输入,在显示器上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
94.一种系统,包括:
显示器;
用于在显示器上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面的装置;
用于在显示第一详细用户界面时进行以下操作的装置:
在显示器上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及
接收与示能表示的选择相对应的用户输入;和
用于响应于接收到用户输入在显示器上显示包括第二视觉媒体的表示的第二详细用户界面的装置,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
95.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并且被配置为由一个或多个处理器执行,该一个或多个程序包括用于执行根据项目47至65中任一项所述的方法的指令。
96.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备执行根据项目47至65中任一项所述的方法。
97.一种系统,包括:
显示器;和
用于执行根据项目47至65中任一项所述的方法的装置。
98.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,该一个或多个程序包括用于以下操作的指令:
在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;
在显示多个示能表示时,接收第一用户输入;
响应于接收到第一用户输入:
获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;以及
在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;
接收与第一示能表示的选择相对应的第二用户输入;以及
响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
99.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备:
在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;
在显示多个示能表示时,接收第一用户输入;
响应于接收到第一用户输入:
获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;以及
在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;
接收与第一示能表示的选择相对应的第二用户输入;以及
响应于接收到第二用户输入,在显示器上显示包括第二视觉媒体集合的表示的详细用户界面。
100.一种系统,包括:
显示器;
用于在显示器上显示与多个自动生成的视觉媒体集合相对应的多个示能表示的装置;
用于在显示多个示能表示时接收第一用户输入的装置;
用于响应于接收到第一用户输入进行以下操作的装置:
获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;以及
在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;
用于接收与第一示能表示的选择相对应的第二用户输入的装置;和
用于响应于接收到第二用户输入在显示器上显示包括第二视觉媒体集合的表示的详细用户界面的装置。
101.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中该一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,该一个或多个程序包括用于执行根据项目66至79中任一项所述的方法的指令。
102.一种存储一个或多个程序的非暂态计算机可读存储介质,该一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备执行根据项目66至79中任一项所述的方法。
103.一种系统,包括:
显示器;和
用于执行根据项目66至79中任一项所述的方法的装置。
104.一种设备,包括:
显示单元;和
耦接到显示单元的处理单元,该处理单元包括:
接收单元,该接收单元被配置为接收显示上下文相关媒体的请求;和
显示使能单元,该显示使能单元被配置为响应于该请求:
根据确定设备处于第一上下文,使能在显示单元上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;以及
根据确定设备处于第二上下文,使能在显示单元上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
105.根据项目104所述的设备,还包括:
根据确定设备处于第一上下文,使能在显示单元上显示共享一组共同特征并且与第一上下文相关的第三媒体项目集合的表示,其中第一媒体项目集合基于第一上下文属性与第一上下文相关,并且第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中第二上下文属性与第一上下文属性不同。
106.根据项目104或105中任一项所述的设备,其中第一媒体项目集合的表示是第一示能表示;:
其中接收单元被进一步配置为接收与第一示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到用户输入,使能在显示单元上显示包括第一媒体项目集合的至少一部分的详细用户界面。
107.根据项目104至106中任一项所述的设备,其中第一媒体项目集合的表示包括选自第一媒体项目集合中的媒体项目的缩小比例版本。
108.根据项目104至107中任一项所述的设备,其中处理单元还包括:
生成单元,该生成单元被配置为生成与第一媒体项目集合相关联的文本标识符;
识别单元,该识别单元被配置为识别所选媒体项目中的面部,其中所选媒体项目是图像;并且
其中显示使能单元被进一步配置为使能在显示单元上显示覆盖在第一媒体项目集合的表示上的文本标识符,其中覆盖文本标识符不与显示为第一媒体项目集合的表示的所选媒体项目中的所识别面部重叠。
109.根据项目108所述的设备,其中与第一媒体项目集合相关联的文本标识符是基于第一媒体项目集合与第一上下文的相关性来选择的并包括解释第一媒体项目集合与第一上下文的相关性的一个或多个字词。
110.根据项目106至109中任一项所述的设备,其中显示使能单元被进一步配置为:
在显示详细用户界面之前,使能在显示单元上显示视觉上占据显示器的第一部分的第一媒体项目集合的表示;
在接收到与第一示能表示的选择相对应的用户输入之后,并且在显示详细用户界面时,使能在显示单元上显示视觉上占据显示器的第二部分的第一媒体项目集合的关键媒体项目,该显示器的第二部分不同于显示器的第一部分;以及
进一步响应于接收到与第一示能表示的选择相对应的用户输入,使能在显示单元上显示第一媒体项目集合的表示过渡到关键媒体项目的动画过渡。
111.根据项目106至110中任一项所述的设备:
其中显示使能单元被进一步配置为在显示详细用户界面时,使能在显示单元上显示包括第一媒体项目集合中的多个媒体项目的幻灯片;
其中接收单元被进一步配置为接收与幻灯片的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与幻灯片的选择相对应的用户输入,使能在显示单元上显示包括第一媒体项目集合中的多个媒体项目的视频,其中幻灯片和视频是不同的。
112.根据项目111所述的设备,
其中接收单元被进一步配置为接收与编辑幻灯片的请求相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与编辑幻灯片的请求相对应的用户输入,使能在显示单元上显示幻灯片编辑用户界面。
113.根据项目106至112中任一项所述的设备,其中详细用户界面包括第一区域,其中第一区域包括策展视图,该策展视图包括第一媒体项目集合的媒体项目子集,其中选择媒体项目子集以便排除较低质量照片。
114.根据项目113所述的设备,其中第一区域还包括第二示能表示;
其中接收单元被进一步配置为接收与第二示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第二示能表示的选择相对应的用户输入,使能在显示单元上显示扩展视图,该扩展视图包括第一媒体项目集合中在接收到与第二示能表示的选择相对应的输入之前未显示的附加媒体项目的表示。
115.根据项目113或114中任一项所述的设备,其中策展视图中的媒体项子集基于与媒体项目子集的媒体项目相关联的时间来按时间顺序布置。
116.根据项目113至115中任一项所述的设备,其中包括在策展视图中的媒体项目子集以策展布置结构来布置,并且其中包括在媒体项目的策展布置中的媒体项目子集被布置成使得媒体项目的边缘对齐以便在策展布置的顶部和底部处产生基本笔直的边界。
117.根据项目116所述的设备,其中策展布置的底部处的基本笔直的边界由包括在策展视图中的第一多个媒体项目子集形成。
118.根据项目117所述的设备,其中第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中第一尺寸和第二尺寸是不同的,其中第一纵横比和第二纵横比是不同的,并且其中策展布置的底部处的基本笔直的边界由第一多个媒体项目中的相邻媒体项目的边缘形成。
119.根据项目113至118中任一项所述的设备,其中处理单元还包括:
选择单元,该选择单元被配置为部分地基于媒体项目的尺寸从第一媒体项目集合中的媒体项目中选择媒体项目的策展子集。
120.根据项目113至117中任一项所述的设备:
其中接收单元被进一步配置为接收与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入;
其中显示使能单元被进一步配置为响应于接收到与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入,使能在显示单元上显示第三媒体项目和搓擦示能表示;
其中接收单元被进一步配置为接收与搓擦示能表示相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与搓擦示能表示相对应的用户输入,用媒体项目的策展子集中的第四媒体项目的显示替换第三媒体项目在显示单元上的显示,同时继续显示搓擦示能表示。
121.根据项目106至120中任一项所述的设备,其中详细用户界面包括第二区域,该第二区域包括地理地图;并且其中显示详细用户界面还包括:
其中显示使能单元被进一步配置为使能在显示单元上显示地理地图上的位置指示符,该位置指示符对应于与第一媒体项目集合中的第五媒体项目相关联的位置。
122.根据项目121所述的设备,
其中显示使能单元被进一步配置为在显示地理地图时,使能在显示单元上显示第三示能表示;
其中接收单元被进一步配置为接收与第三示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第三示能表示的选择相对应的用户输入,使能在显示单元上显示地理地图视图中与未包括在第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
123.根据项目122所述的设备,
在显示附加位置指示符之后:
其中显示使能单元被进一步配置为使能在显示单元上显示第四示能表示;
其中接收单元被进一步配置为接收与第四示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第四示能表示的选择相对应的用户输入,停止在显示单元上显示地理地图视图中的附加位置指示符。
124.根据项目121至123中任一项所述的设备:
其中接收单元被进一步配置为接收与位置指示符的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与位置指示符的选择相对应的用户输入,用第五媒体项目的显示替换地理地图视图在显示单元上的显示。
125.根据项目106至124中任一项所述的设备,其中详细用户界面包括第三区域,该第三区域包括与第一媒体项目集合中的媒体项目中的所识别面部相对应的指示符;
其中接收单元被进一步配置为接收与对应于所识别面部的指示符的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与对应于所识别面部的指示符的选择相对应的用户输入,使能在显示单元上显示第四媒体项目集合,其中第四媒体项目集合中的媒体项目各自包括所识别面部。
126.根据项目106至125中任一项所述的设备,其中详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第五媒体项目集合的表示,并且其中第五媒体项目集合中的媒体项目与第一媒体项目集合中的媒体项目共享第一特征;
其中接收单元被进一步配置为接收与第五媒体项目集合的表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第五媒体项目集合的表示的选择相对应的用户输入,使能在显示单元上显示包括第五媒体项目集合的详细用户界面。
127.根据项目126所述的设备,
在显示包括第一媒体项目集合的详细用户界面之后:
其中接收单元被进一步配置为接收表示共享一组共同特征的第六媒体项目集合的数据,其中第六媒体项目集合不同于第一媒体项目集合;
其中接收单元被进一步配置为接收与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入,使能在显示单元上显示详细用户界面以及第四区域中的第六媒体项目集合的表示。
128.根据项目106至127中任一项所述的设备,其中处理单元还包括关联单元;
在显示包括第一媒体项目集合的详细用户界面时:
其中显示使能单元被进一步配置为使能在显示单元上显示第五示能表示;
其中接收单元被进一步配置为接收与第五示能表示的选择相对应的用户输入;并且
其中关联单元被配置为响应于接收到与第五示能表示的选择相对应的用户输入,将第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
129.根据项目128所述的设备,
其中接收单元被进一步配置为接收与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入,使能在显示单元上显示第一媒体项目集合的表示。
130.一种设备,包括:
显示单元;
触敏表面单元;和
耦接到显示单元和触敏表面单元的处理单元,该处理单元包括:
显示使能单元,该显示使能单元被配置为使能在显示单元上显示一系列视觉媒体项目中的第一视觉媒体项目;
接收单元,该接收单元被配置为在显示第一视觉媒体项目时,接收包括相应方向上的移动的用户输入;
响应于接收到用户输入:
确定单元被配置为确定用户输入是否对应于第一方向上的轻扫手势;并且
其中显示使能单元被进一步配置为根据确定用户输入对应于第一方向上的轻扫手势,使能在显示单元上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
131.根据项目130所述的设备,其中在触敏表面上与第一视觉媒体项目相对应的位置处检测到用户输入。
132.根据项目130或131中任一项所述的设备,其中包括相应方向上的移动的用户输入是第一用户输入:
其中接收单元被进一步配置为在显示第一视觉媒体项目时,接收包括相应方向上的移动的第二用户输入;
其中确定单元被进一步配置为确定第二用户输入是否对应于不同于第一方向的第二方向上的轻扫手势;
其中显示使能单元被进一步配置为根据确定用户输入对应于第二方向上的轻扫手势,用一系列视觉媒体项目中的第二视觉媒体项目的显示替换第一视觉媒体项目在显示单元上的显示。
133.根据项目132所述的设备,其中详细用户界面是第一详细用户界面;
其中接收单元被进一步配置为在显示第二视觉媒体项目时,接收包括相应方向上的移动的第二用户输入;
其中确定单元被进一步配置为确定第二用户输入是否对应于第一方向上的轻扫手势;并且
其中显示使能单元被进一步配置为根据确定用户输入对应于第一方向上的轻扫手势,使能在显示器上显示包括已被确定为与第二视觉媒体项目相关的第二视觉媒体项目的相关内容的第二详细用户界面,其中第二视觉媒体项目的相关内容与第一媒体项目的相关内容不同。
134.根据项目130至133中任一项所述的设备,
其中接收单元被进一步配置为在显示第一视觉媒体项目时,接收包括相应方向上的移动的第三用户输入;
其中确定单元被进一步配置为确定第三用户输入是否对应于不同于第一方向和第二方向的第三方向上的轻扫手势;
其中显示使能单元被进一步配置为根据确定第三用户输入对应于第三方向上的轻扫手势,使能在显示单元上显示一系列视觉媒体项目中的媒体项目的缩小比例版本。
135.根据项目134所述的设备,其中一系列视觉媒体项目中的媒体项目的缩小比例版本按时间顺序布置。
136.根据项目134或135中任一项所述的设备,其中一系列视觉媒体项目中的媒体项目的缩小比例版本通过与每个相应视觉媒体项目相关联的地理位置来在视觉上分组。
137.根据项目134至136中任一项所述的设备,
其中接收单元被进一步配置为在显示第二视觉媒体项目时,接收包括相应方向上的移动的第四用户输入;
其中确定单元被进一步配置为确定第四用户输入是否对应于第三方向上的轻扫手势;
其中显示使能单元被进一步配置为根据确定用户输入对应于第三方向上的轻扫手势,使能在显示单元上显示一系列视觉媒体项目中的媒体项目的缩小比例版本。
138.根据项目130至137中任一项所述的设备,其中第一视觉媒体项目的相关内容的表示不按时间顺序布置。
139.根据项目130至138中任一项所述的设备,
其中接收单元被进一步配置为在显示第一视觉媒体项目时,接收包括第一方向上的移动的第五用户输入;
其中显示使能单元被进一步配置为响应于接收到第五用户输入:
根据确定第一视觉媒体项目被放大超过预先确定的阈值,根据第五用户输入在显示单元上移动第一视觉媒体项目而不显示详细用户界面;并且
根据确定第一视觉媒体项目未被放大超过预先确定的阈值,根据第五用户输入在显示单元上移动第一视觉媒体项目并且使能在显示单元上显示详细用户界面。
140.根据项目130至139中任一项所述的设备,其中详细用户界面包括第一区域,该第一区域包括由第一类别组织的相关内容,其中第一类别是在第一视觉媒体项目中识别的面部,并且其中第一区域包括来自第一视觉媒体项目的所识别面部;
其中接收单元被进一步配置为接收与所识别面部的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与所识别面部的选择相对应的用户输入,使能在显示单元上显示第一媒体项目集合,其中选择第一媒体项目集合中的每个项目以便包括所识别面部。
141.根据项目130至140中任一项所述的设备,其中详细用户界面包括第二区域,该第二区域包括由第二类别组织的相关内容,其中第二类别是位置,并且其中第二区域包括地理地图,该地理地图包括对应于与第一视觉媒体项目相关联的位置的位置指示符。
142.根据项目141所述的设备,
其中接收单元被进一步配置为接收与第二区域的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于与第二区域的选择相对应的用户输入,使能在显示单元上显示地图用户界面,该地图用户界面包括与第一视觉媒体相关联的位置的视觉表示。
143.根据项目142所述的设备,
其中接收单元被进一步配置为接收与地址的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于与地址的选择相对应的用户输入,使能在显示单元上显示地图应用程序的用户界面。
144.根据项目130至143中任一项所述的设备,其中详细用户界面包括第三区域,该第三区域包括由第三类别组织的相关内容,其中第三类别是共享一组共同特征的视觉媒体项目集合,其中第三类别包括共享一组共同特征的第二视觉媒体项目集合的表示,其中第二视觉媒体项目集合的视觉媒体项目与第一视觉媒体项目共享第一特征;
其中接收单元被进一步配置为接收与第二视觉媒体项目集合的表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,使能在显示单元上显示第二视觉媒体项目集合的视觉媒体项目的表示。
145.根据项目144所述的设备,其中第二视觉媒体项目集合排除第一视觉媒体项目。
146.根据项目130至145中任一项所述的设备,其中显示包括第一视觉媒体项目的相关内容的详细用户界面包括:
其中显示使能单元被进一步配置为在显示单元上在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面。
147.根据项目146所述的设备,其中在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面包括:
其中显示使能单元被进一步配置为在显示单元上在第一方向上滚动显示的第一视觉媒体项目,直到第一视觉媒体项目的仍然显示的部分是第一视觉媒体项目的预先确定的部分;并且
其中显示使能单元被进一步配置为在滚动直到预先确定的部分是显示的部分之后:
停止在显示单元上滚动第一视觉媒体项目;并且
继续在显示单元上滚动以显示出详细用户界面,同时第一媒体项目的预先确定的部分保持静止。
148.根据项目130至147中任一项所述的设备,其中第一视觉媒体项目是图像或视频。
149.根据项目130至148中任一项所述的设备,其中详细用户界面是安装在设备上的应用程序的界面,并且其中能够在显示使用应用程序显示的任何视觉媒体项目时访问详细用户界面。
150.一种设备,包括:
显示单元;和
耦接到显示单元的处理单元,该处理单元包括:
显示使能单元,该显示使能单元该被配置为使能在显示单元上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;
在显示第一详细用户界面时:
其中显示使能单元被进一步配置为使能在显示单元上显示与被识别为已参加第一事件的多个个体相对应的示能表示;以及
接收单元,该接收单元被配置为接收与示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到用户输入,使能在显示单元上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
151.根据项目150所述的设备,其中基于在与特定事件相对应的至少一个媒体项目中识别多个个体中的个体的面部来识别多个个体对特定事件的参加。
152.根据项目150或151中任一项所述的设备,其中基于与多个个体相关联的位置数据来识别多个个体对特定事件的参加,其中位置数据包括将与多个个体中的个体相对应的设备识别为在发生特定事件时已经处于特定事件的位置处的数据。
153.根据项目150至152中任一项所述的设备,其中第二视觉媒体包括描绘少于多个个体中的所有个体的第一媒体项目。
154.根据项目150至153中任一项所述的设备,其中第二详细用户界面包括第一区域,该第一区域包括幻灯片,该幻灯片包括第二视觉媒体的媒体项目;
其中接收单元被进一步配置为接收与幻灯片的选择相对应的用户输入;
其中显示使能单元被进一步配置为响应于与幻灯片的选择相对应的用户输入,使能在显示单元上显示包括第二视觉媒体的媒体项目的视频,其中幻灯片和视频是不同的。
155.根据项目150至154中任一项所述的设备,其中第二详细用户界面包括第二区域,其中第二区域包括策展视图,该策展视图包括第二视觉媒体的媒体项目子集。
156.根据项目155所述的设备,其中第二区域还包括第一示能表示;
其中接收单元被进一步配置为接收与第一示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第一示能表示的选择相对应的用户输入,使能在显示单元上显示第二视觉媒体的媒体项目的扩展视图。
157.根据项目150至156中任一项所述的设备,其中第二详细用户界面包括第三区域,该第三区域包括地理地图,并且其中显示详细用户界面还包括:
其中显示使能单元被进一步配置为使能在显示单元上显示地理地图上的位置指示符,该位置指示符对应于与第二视觉媒体的第二媒体项目相关联的位置。
158.根据项目150至157中任一项所述的设备,其中第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,其中第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征;
其中接收单元被进一步配置为接收与第一视觉媒体项目集合的表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,使能在显示单元上显示第一视觉媒体项目集合的视觉媒体项目的表示。
159.根据项目158所述的设备,其中第一视觉媒体项目集合排除第二视觉媒体的媒体项目。
160.根据项目150至159中任一项所述的设备,
其中显示使能单元被进一步配置为在显示第二详细用户界面时,使能在显示单元上显示包括多个示能表示的第五区域,每个示能表示与多个个体中的单个不同个体相对应;
其中接收单元被进一步配置为接收与第五区域中的多个示能表示中的示能表示的选择相对应的用户输入,其中示能表示对应于第一个体;并且
其中显示使能单元被进一步配置为响应于接收到与对应于第一个体的示能表示的选择相对应的用户输入,使能在显示单元上显示包括第三视觉媒体的表示的第三详细用户界面,其中第三视觉媒体包括第三多个媒体项目,其中第三多个媒体项目中的每一个被识别为描绘第一个体,其中第三多个媒体项目包括与被识别为第一个体已参加的第四事件相对应的媒体项目,并且其中第二事件、第三事件和第四事件是不同的。
161.根据项目160所述的设备,还包括:
其中接收单元被进一步配置为接收与滚动第五区域的请求相对应的用户输入;
其中显示使能单元被进一步配置为响应于接收到与滚动第五区域的请求相对应的用户输入,在显示单元上滚动包括在第五区域中的多个示能表示,同时第五区域保持静止,其中滚动多个示能表示使得先前未显示的示能表示被显示在第五区域中,并且其中先前未显示的示能表示与未包括在多个个体中的第二个体相对应。
162.根据项目160或161中任一项所述的设备,还包括:
其中显示使能单元被进一步配置为在显示第三详细用户界面时,使能在显示单元上显示第二示能表示;
其中接收单元被进一步配置为接收与第二示能表示的选择相对应的用户输入;
其中显示使能单元被进一步配置为响应于接收到与第二示能表示的选择相对应的用户输入,使能在显示单元上显示包括已被识别为可能描绘第一个体的候选视觉媒体项目的个体确认用户界面,其中候选视觉媒体项目不包括在第三视觉媒体中。
163.根据项目162中任一项所述的设备,其中处理单元还包括确定单元和关联单元;
其中接收单元被进一步配置为接收与个体确认用户界面相关联的用户输入;并且
响应于接收到与个体确认用户界面相关联的用户输入:
其中确定单元被配置为确定与个体确认用户界面相关联的用户输入是表示确认输入还是拒绝输入;
其中关联单元被配置为根据确定与个体确认用户界面相关联的用户输入表示确认输入,将候选媒体项目与第一个体相关联;并且
其中关联单元被进一步配置为根据确定与个体确认用户界面相关联的用户输入表示拒绝输入,放弃将候选媒体项目与第一个体相关联。
164.根据项目160至163中任一项所述的设备,其中设备包括触敏表面单元,该触敏表面单元耦接到处理单元和显示单元,其中与多个示能表示中的示能表示的选择相对应的用户输入是具有在触敏表面单元上检测到的第一特征强度的触摸用户输入,该方法还包括:
其中确定单元被进一步配置为确定用户输入的第一特征强度;
其中显示使能单元被进一步配置为根据确定用户输入满足强度依赖标准,其中强度依赖标准要求触摸用户输入的第一特征强度超过强度阈值以便满足强度依赖标准,使能在显示单元上显示上下文菜单用户界面。
165.根据项目164所述的设备,其中上下文菜单用户界面包括第一上下文示能表示,其中处理单元还包括更新单元;
其中接收单元被进一步配置为接收与第一上下文示能表示的选择相对应的用户输入;
其中显示使能单元被进一步配置为响应于接收到与第一上下文示能表示的选择相对应的用户输入,使能在显示单元上显示用于编辑用作第一个体的标识符的名称的名称编辑用户界面;
其中接收单元被进一步配置为在显示名称编辑用户界面时,接收第一个体的更新名称;并且
其中更新单元被配置为响应于接收到第一个体的更新名称,将存储在回忆中的与第一个体相关联的现有名称更新为更新名称。
166.根据项目165所述的设备,
其中显示使能单元被进一步配置为使能在显示单元上显示对应于建议个体的示能表示,其中建议个体与设备可访问的联系人列表中的联系人相对应;
其中接收单元被进一步配置为接收与对应于建议个体的示能表示的选择相对应的用户输入;并且
其中更新单元被进一步配置为响应于接收到与对应于建议个体的示能表示的选择相对应的用户输入,将存储在回忆中的与第一个体相关联的现有名称更新为建议个体的名称。
167.根据项目164至166所述的设备,其中上下文菜单用户界面包括第二上下文示能表示,
其中接收单元被进一步配置为接收与第二上下文示能表示的选择相对应的用户输入;
其中关联单元被进一步配置为响应于接收到与第二上下文示能表示的选择相对应的用户输入,将第一个体的标识符与所选个体的标识符列表相关联;
其中显示使能单元被进一步配置为使能在显示单元上显示包括第三示能表示和所识别个体的表示的用户界面,其中所识别个体的表示包括所选个体列表中的个体;
其中接收单元被进一步配置为接收与第三示能表示的选择相对应的用户输入;并且
其中显示使能单元被进一步配置为响应于接收到与第三示能表示的选择相对应的用户输入,停止在显示单元上显示不对应于与所选个体的标识符列表相关联的标识符的个体的表示。
168.根据项目150至167所述的设备,其中第二详细用户界面包括第四示能表示;其中处理单元还包括添加单元;
其中接收单元被进一步配置为接收与第四示能表示的选择相对应的用户输入;
其中添加单元被配置为响应于接收到与第四示能表示的选择相对应的用户输入,将第二详细用户界面添加到用户保存的一组详细用户界面;
其中显示使能单元被进一步配置为停止在显示单元上显示第二详细用户界面;
其中接收单元被进一步配置为在停止显示第二详细用户界面之后,接收与显示第二详细用户界面的请求相对应的用户输入;并且
其中显示使能单元被进一步配置为使能在显示单元上显示第二详细用户界面。
169.一种设备,包括:
显示单元;和
耦接到显示单元的处理单元,该处理单元包括:
显示使能单元,该显示使能单元该被配置为使能在显示单元上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;
接收单元,该接收单元被配置为在显示多个示能表示时,接收第一用户输入;
响应于接收到第一用户输入:
获得单元被配置为获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且
添加单元被配置为在显示器上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;
其中接收单元被进一步配置为接收与第一示能表示的选择相对应的第二用户输入;并且
其中显示使能单元被进一步配置为响应于接收到第二用户输入,使能在显示单元上显示包括第二视觉媒体集合的表示的详细用户界面。
170.根据项目169所述的设备,其中处理单元还包括生成单元,并且其中获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合包括:其中生成单元被配置为响应于第一用户输入生成第一媒体项目集合。
171.根据项目170所述的设备,其中处理单元还包括确定单元和选择单元,并且其中响应于第一用户输入生成第一媒体项目集合包括:
其中确定单元被配置为确定共享一组共同特征的媒体项目集合;并且
其中选择单元被配置为选择共享该组共同特征的媒体项目集合中的集的较小子集以创建媒体项目的策展集。
172.根据项目169至171中任一项所述的设备,还包括:
其中接收单元被进一步配置为在接收第二用户输入之前,接收第三用户输入;
其中显示使能单元被进一步配置为响应于接收到第三用户输入,在显示单元上滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示。
173.根据项目172所述的设备,其中滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示包括滚动显示的多个示能表示以显示出与自动生成的第二视觉媒体集合相对应的第二示能表示,其中第二示能表示先前未包括在显示的多个示能表示中,其中第一示能表示与第一日期相关联,并且其中第二示能表示与不同于第一日期的第二日期相关联。
174.根据项目173所述的设备,其中详细用户界面是第一详细用户界面,其中滚动显示的多个示能表示包括将多个示能表示从第一视图滚动到第二视图,该方法还包括:
其中接收单元被进一步配置为在显示第二视图中的多个示能表示时,接收与第一示能表示的选择相对应的第二用户输入;
其中显示使能单元被进一步配置为响应于接收到与第一示能表示的选择相对应的第二用户输入,使能在显示单元上显示第一详细用户界面,其中第一详细用户界面包括与第三视觉媒体集合相对应的第二示能表示,并且其中第一详细用户界面包括第三示能表示;
其中接收单元被进一步配置为在显示第一详细用户界面时,接收与第二示能表示的选择相对应的第二用户输入;
其中显示使能单元被进一步配置为响应于接收到与第二示能表示的选择相对应的用户输入,使能在显示单元上显示第二详细用户界面,该第二详细用户界面包括与第三示能表示相对应的视觉媒体集合的表示,并且其中该详细用户界面包括第三示能表示;
其中接收单元被进一步配置为在显示第二详细用户界面时,接收与第三示能表示的选择相对应的用户输入;
其中显示使能单元被进一步配置为响应于接收到与第三示能表示的选择相对应的用户输入,使能在显示单元上显示第二视图中的多个示能表示。
175.根据项目169至174中任一项所述的设备,其中与多个自动生成的视觉媒体集合相对应的显示的多个示能表示基于获得自动生成的集合中的每个相应的自动生成的集合的日期按时间顺序布置。
176.根据项目169至175中任一项所述的设备,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括使能在显示单元上显示与当前时间段相对应的多个示能表示。
177.根据项目169至176中任一项所述的设备,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括使能在显示单元上显示针对多个不同时间段中的每一个的与时间段相对应的多个示能表示,其中多个示能表示是预先确定数量的示能表示。
178.根据项目169至177中任一项所述的设备,其中自动生成的视觉媒体集合被确定为与设备的一般上下文上下文相关。
179.根据项目169至178中任一项所述的设备,其中第一视觉媒体集合与设备的特定上下文上下文相关。
180.根据项目178至179中任一项所述的设备,其中上下文包括周年纪念日、生日、最近旅行、上周、被识别为当前在设备的当前位置附近的个体的视觉媒体、当前在设备的当前位置附近的兴趣点的视觉媒体以及设备可访问的日历上的事件中的一者或多者。
181.根据项目169至180中任一项所述的设备,其中显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括使能在显示单元上显示具有多个示能表示中的每一个的上下文信息。
182.根据项目169至181中任一项所述的设备,其中设备包括耦接到处理单元的触敏表面单元,并且其中第二用户输入是具有在触敏表面单元上检测到的第一特征强度的触摸用户输入;
其中确定单元被进一步配置为确定触摸用户输入的第一特征强度;
其中显示使能单元被进一步配置为根据确定触摸用户输入满足选择标准,其中选择标准不要求触摸用户输入的第一特征强度超过第一强度阈值或第二强度阈值以便满足选择标准,用详细用户界面的显示替换多个示能表示在显示单元上的显示;
其中显示使能单元被进一步配置为根据确定触摸用户输入满足第一强度依赖标准,在继续显示多个示能表示的一部分时,使能在显示单元上显示包括第二视觉媒体集合的表示的预览用户界面,其中第一强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值以便满足第一强度依赖标准,并且其中第一强度依赖标准不要求触摸用户输入的第一特征强度超过第二强度阈值以便满足第一强度依赖标准;并且
根据确定触摸用户输入满足第二强度依赖标准,用详细用户界面的显示替换多个示能表示的显示,其中第二强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值和第二强度阈值以便满足第二强度依赖标准。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方案。
图6A-图6R示出了根据一些实施方案的用于查看共享一组共同特征的媒体项目集合以及与其相关的内容的示例性用户界面。这些附图中的用户界面用于示出下文描述的过程,包括图7A-图7E中的过程。
存储器概述
在图6A中,用户界面602描绘了设备600的示例性home屏幕。在一些实施方案中,设备600包括上述设备100、设备300或设备500的一些或全部特征。在所描绘的示例中,设备600接收对home屏幕的应用程序图标602A的用户输入选择,该图标对应于照片应用程序。作为响应,设备600显示用户界面604,该示用户界面描绘了照片应用程序的示例性屏幕。在用户界面604中,示例性照片集合被布置为尺寸基本相等的缩略图。用户界面604中所示的照片集合对应于日期7月22日-25日(例如,如文本“JUL 22-25”所示),并且对应于位置Nordurland vestra和Sudurland,Iceland(例如,如文本“NORDURLAND VESTRA&SUDURLANDICELAND”所示)。
在用户界面604的显示器处,设备600接收显示上下文相关媒体的请求。在一些示例中,设备600接收在用户界面604处对回忆选项卡604A的用户输入选择。例如,用户界面604在图6B中再现,并且描绘了接收回忆选项卡604A上的用户输入触摸604B。在一些示例中,该请求对应于打开照片应用程序的请求,诸如在用户界面602处对应用程序图标602A的用户输入选择。
响应于显示上下文相关媒体的请求,设备600显示媒体项目集合的表示。在一些示例中,响应于对用户界面604的回忆选项卡604A的选择,设备600显示用户界面606。
图6B的用户界面606描绘了示例性回忆时间线。在一些示例中,回忆时间线包括一个或多个媒体项目集合的一个或多个表示,其中媒体项目集合中的媒体项目共享一组共同特征。在整个说明书中,共享一组共同特征的媒体项目集合也可统称为“回忆”。
用户界面606(下文中称为“回忆时间线606”)包括表示606A-606C,每个表示对应于回忆。在回忆时间线606中,一些表示在视觉上被布置为单独占据一行(例如,未明确描绘)(例如,表示606A),而其他表示在视觉上被布置为并排占据同一行(例如,未明确描绘)(例如,表示606C和606B)。
在一些示例中,响应于对用户界面604的回忆选项卡604A的选择,设备600显示图6C的用户界面608。例如,用户界面604在图6C中再现,并且描绘了接收回忆选项卡604A上的用户输入触摸604B,并且作为响应,设备600显示用户界面608。用户界面608(下文中称为“回忆时间线608”)包括表示608A和608B。回忆时间线608描绘了回忆时间线上的表示的另一种布置(例如,与回忆时间线606不同)。表示608A和608B各自对应于共享一组共同特征(例如,回忆)的媒体项目集合。回忆时间线608描绘了在设备600的屏幕上呈竖直布置的表示608A和608B。在一些示例中,可以响应于用户输入滚动回忆时间线608,以在显示器上显示另外的表示。在一些示例中,表示在回忆时间线上以任何合适的布置进行排列。
图6D和图6E描绘了回忆时间线的两个版本,如上文参考图6C的用户界面608所述。回忆时间线610描绘了呈竖直布置的两个表示610A和610B。回忆时间线612描绘了同样呈竖直布置的两个表示612A和612B。可以看出,时间线610和612中的每个表示是不同的图像,每个图像表示不同的回忆。
根据一些实施方案,响应于显示上下文相关媒体的请求,并且根据确定设备600处于第一上下文,设备600显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示。例如,回忆时间线610的回忆表示610A描绘了共享一组共同特征并且与第一上下文相关的第一媒体项目集合的示例性表示。
在一些示例中,上下文是设备600的上下文状态的标识。例如,设备600的上下文识别设备600处于一天中的特定时间、一周中的特定日期、一年中的特定日期、位于特定位置和/或具有特定的一组人物。为了说明设备上下文的概念,将注意力转向图6D和图6E中所述的示例。
在图6D的用户界面610中描绘的示例中,设备600处于示例性第一上下文。设备600的第一上下文包括以下各项中的一者或多者:一天中的第一时间(白天);一年中的第一日期(例如,在一年中的任何特定日期)(2020年7月4日);位置(公园);以及第一组人物(用户和他的四个表兄弟姊妹)。如回忆时间线610所示,表示610A描绘了假日(例如,“独立日”,也称为“七月四日”)期间两个孩子在家庭野餐中的图像。在该示例中,由表示610A表示的媒体项目集合共享特征,诸如日期(它们各自拍摄于2019年7月4日)和位置(它们各自拍摄于公园的位置)。在该示例中,对应于表示610A的回忆基于一年中的日期(7月4日)与设备600的第一上下文相关。例如,如果由表示610A表示的第一集合中的一个或多个媒体项目拍摄于2019年7月4日,则它们通过一年中的特定日期(例如,7月4日)与设备600的当前上下文“2020年7月4日”(在该示例中为当前年度的当前日期)相关。
再如,如果表示610A的图像拍摄于公园,并且用户(例如,及其设备)当前位于同一公园,则第一上下文可以包括公园的位置。因此,由表示610A表示的回忆将基于位置与第一上下文相关,因此设备600显示表示610A。应当显而易见的是,因为相关性将基于该示例中的位置,所以即使设备600的当前上下文不包括一年中的当前日期是7月4日,仍然可以显示表示610A(例如,换句话讲,因为相关性基于位置,所以即使当前日期是另一天,例如11月17日,也会显示同一记忆表示。因此,在该示例中,根据确定设备600处于第一上下文(例如,位于公园),设备600显示相关的第一媒体项目集合的表示610A(例如,该集合包含与公园的位置相关联(例如,拍摄于公园的位置处或附近)的媒体项目)。
根据一些实施方案,进一步响应于显示上下文相关媒体的请求,并且根据确定设备600处于第二上下文,设备600显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合不同于第一媒体项目集合。例如,如果设备600不是处于上述示例第一上下文,而是处于第二上下文,则在回忆时间线上表示的媒体项目集合可以不同。在一些示例中,如果媒体项目都对应于在特定位置或一组位置处在特定时间范围内捕获的媒体,则媒体项目集合共享一组共同特征。
在图6E的用户界面612中描绘的示例中,设备600处于示例性第二上下文。设备600的第二上下文包括以下各项中的一者或多者:一天中的第二时间(夜间);一年中的第二日期(例如,在一年中的任何特定日期)(2020年9月22日);位置(法国巴黎);以及第二组人物(用户和两个商业伙伴)。在该示例中,用户出差去法国巴黎工作,并由两名商业伙伴陪同。如回忆时间线612所示,表示620A描绘了法国巴黎的埃菲尔铁塔的图像。在该示例中,由表示612A表示的媒体项目集合共享特征,诸如它们被拍摄的时间段(它们各自拍摄于2020年5月4日至5月26日之间)和位置(它们各自拍摄于法国巴黎)。在该示例中,对应于表示612A的回忆基于位置(法国巴黎)与设备600的第一上下文相关。例如,因为由表示612A表示的第一集合(例如,艾菲尔铁塔的图像)中的一个或多个媒体项目拍摄于巴黎,所以它们与设备600的当前上下文“法国巴黎”(设备的当前位置)相关。从图6E中可以看出,当前日期是9月22日,但是由612A表示的回忆对应于日期5月4日至26日(如上所述)。然而,因为回忆基于位置与当前上下文相关,所以它由设备600显示。
在一些实施方案中,如图6D所示,设备600可显示与设备的上下文相关的多个回忆。根据一些实施方案,根据确定设备600处于第一上下文,设备显示共享一组共同特征并且与第一上下文相关的第三媒体项目集合的表示。在一些示例中,第一媒体项目集合基于第一上下文属性与第一上下文相关,并且第三媒体项目集合基于第二上下文属性与第一上下文相关。在一些示例中,第二上下文属性不同于第一上下文属性。例如,重新参考图6D的用户界面610,表示610B表示与第一上下文相关的第三媒体项目集合。在该示例中,第三媒体项目集合对应于共享一组共同特征的家庭海滩度假的图像和视频,例如因为它们拍摄于同一位置附近并且拍摄于特定时间段内(例如,2020年6月14日至2020年6月20日)。从图6D中可以看出,表示610B描绘了五个成年人—用户及其四个表兄弟姊妹,在该示例中,每个人都参加了与所表示的记忆相对应的家庭海滩度假。使用前述示例中的第一上下文,设备600的上下文包括一个或多个示例性上下文属性:一天中的第一时间(白天);一年中的第一日期(2020年7月4日);位置(公园);以及第一组人物(用户的四个表兄弟姊妹)。因此,第三媒体项目集合基于第一组人物与第一上下文相关—即,设备600与用户相关联(例如,它是用户的智能电话)并确定与用户的四个表兄弟姊妹相关联的一个或多个设备在附近。例如,因为当前日期是假日(七月四日),所以用户当前处于他的四个表兄弟姊妹也参加的聚会。
如上所述,在一些示例中,第一集合基于第一上下文属性与第一上下文相关,并且第三集合基于第二上下文属性与第一上下文相关,并且第一上下文属性和第二上下文属性是不同的。例如,在上述示例中,第一集合基于第一上下文属性“一年中的特定日期(例如,7月4日)”与第一上下文相关,并且第三集合基于第二上下文属性“特定的一组人物(例如,用户的四个表兄弟姊妹)”与第一上下文相关。
根据一些实施方案,共享一组共同特征的第一媒体项目集合的表示与共享一组共同特征的第一媒体项目集合的表示同时显示。例如,在图6D的用户界面610处,表示610A和610B同时显示在回忆时间线610上。
在一些实施方案中,图6E的表示612B表示共享特征的媒体项目的回忆,所述特征来自用户到英国伦敦的度假。如上文关于回忆时间线612所述,设备600的第二上下文包括以下各项中的一者或多者:一天中的第二时间(夜间);一年中的第二日期(例如,在一年中的任何特定日期)(2020年9月22日);位置(法国巴黎);以及第二组人物(用户和两个商业伙伴)。由表示610B表示的回忆基于上下文属性“一年中的日期”与第二上下文相关。在该示例中,所表示的回忆基于当前日期而相关,因为它是用户最近的旅行—当前日期是2020年9月22日,并且旅行是从2020年8月8日至8月13日。
根据一些实施方案,第一媒体项目集合的表示是第一示能表示。例如,该表示是可选择的,并且可以对应于设备600响应于选择而采取的动作。
根据一些实施方案,设备600接收与第一示能表示的选择相对应的用户输入,并且作为响应,显示包括第一媒体项目集合的至少一部分的详细用户界面。例如,图6D的用户界面611描绘了第一媒体项目集合(下文中也称为“第一回忆”)的示例性详细用户界面(下文中也称为“回忆详细视图”)。在一些示例中,回忆详细视图包括回忆的媒体项目集合的至少一部分。例如,用户界面611(下文中也称为“回忆详细视图611”)包括图像611A,其描绘了第一媒体项目集合中的媒体项目。
在一些示例中,回忆详细视图的显示不描绘包括在该回忆中的所有媒体项目。在一些实施方案中,第一媒体项目集合包括比可以立即显示在显示器上更多的媒体项目,并且显示详细用户界面包括显示第一媒体项目集合的一部分,其中可以通过滚动详细视图来在详细用户界面中显示附加媒体项目。在一些示例中,响应于触敏表面上的轻扫手势或一些其他方向手势,在详细用户界面中显示附加媒体项目。
根据一些实施方案,第一媒体项目集合的表示包括选自第一媒体项目集合中的媒体项目的缩小比例版本。例如,如图6D的回忆时间线610所示,表示610A是所描绘图像的缩小比例版本(例如,以较小尺寸显示)。媒体项目的这种缩小比例版本也可被称为“关键照片”。在一些示例中,关键照片选自包括在由表示所表示的媒体项目集合中的媒体项目。例如,被描绘为表示610A的图像是所表示的对应媒体项目集合(例如,回忆)中的媒体项目。因此,关键照片被显示为示能表示。在一些实施方案中,第一媒体项目集合的表示包括来自第一媒体项目集合的多个媒体项目的缩小比例版本。在一些实施方案中,表示包括同时布置的若干媒体项目和/或以序列(例如,动画)显示的若干媒体项目。类似地,本文描述的媒体项目集合的其他表示任选地包括选自对应媒体项目集合的一个或多个媒体项目的缩小比例版本。
根据一些实施方案,设备600生成与第一媒体项目集合相关联的文本标识符。例如,图6F描绘了示例性文本标识符615A。
根据一些实施方案,设备600识别所选媒体项目中的面部,其中所选媒体项目是图像。例如,图6F描绘了示例性图像614。如图所示,图像614包括两个面部,每个面部来自照片中的每个孩子。在一些示例中,设备600识别图像中的多个面部。在该示例中,设备600识别图像614中两个孩子的面部。在一些实施方案中,设备600通过使用面部检测算法分析图像或使用与图像相关联的信息(例如,识别图像中的面部的信息)或两者来识别图像中的面部。
根据一些实施方案,设备600显示覆盖在第一媒体项目集合的表示上的所生成文本标识符,其中覆盖文本标识符不与显示为第一媒体项目集合的表示的所选媒体项目中的所识别面部重叠。例如,图6F描绘了从图像614创建的示例性表示614A。在所描绘的示例中,文本标识符615A覆盖在表示614A(表示第一媒体项目集合)上。可以看出,文本标识符615A不与示例性所选媒体项目即图像614的任一个孩子的面部(例如,所识别面部)重叠。相反,表示614B描绘了覆盖文本标识符,使得其与所选媒体项目即图像614中的所识别面部重叠。文本标识符615B与照片右侧的孩子的面部重叠。
不考虑照片中的面部而放置并且与面部重叠或以其他方式遮盖面部的文本标识符是不期望的,并且使得用户浏览媒体项目更加麻烦。例如,如果文本标识符遮盖了关键照片中的所有面部,则用户可能无法确定图像中的人是谁。作为响应,用户可以选择回忆并查看回忆详细用户界面,仅用于确定他们打算选择另一个回忆。通过要求多余的输入处理和显示器的照明,这种相互作用浪费了用户的时间并缩短了设备600的电池寿命。
在一些实施方案中,所生成文本标识符在表示上的位置至少部分地基于所选媒体项目中的面部的位置来确定。例如,任选地向上或向下或者向左或向右(或在某种方向组合上)移动所生成文本标识符,以避免与所识别面部重叠。例如,表示614C描绘了如表示614B中所示的类似表示,但是已经稍微向下移动了文本标识符615C,以便不与任一个孩子的面部重叠。因此,所检测面部的位置任选地影响文本标识符在表示上的放置。
在一些实施方案中,裁剪所选媒体项目以在媒体项目集合的表示中显示,并且调节裁剪以将面部从文本下方移出。例如,代替移动文本标识符,可以向上移动表示614B的图像(未描绘),以便使得所识别面部不被文本标识符615B重叠。例如,如果文本居中,则在裁剪掩模内移动媒体项目,使得所检测面部不被文本遮盖。
根据一些实施方案,与第一媒体项目集合相关联的文本标识符基于第一媒体项目集合与第一上下文的相关性来选择,并且包括解释第一媒体项目集合与第一上下文的相关性的一个或多个字词。例如,示例性文本标识符615A-615C各自标读为“2019年七月四日/2019年7月4日”,其解释了第一集合与第一上下文的相关性(例如,当前日期是2020年7月4日,并且相关性是回忆来源于一年中的同一日期,即7月4日)。在一些示例中,文本标识符简单地标读为“2019年七月四日”、“2019年独立日”(例如,不包括日期)或“2019年7月4日”(例如,包括日期)。基于一年中的日期的文本标识符的其他示例包括“上周”、“上个月”、“去年”等。在一些示例中,如果上下文是最近的旅行,则文本标识符可以是“您最近的旅行”或“您最近的旅行/日期”,其中指示了旅行的日期。在一些示例中,如果上下文相关性基于位置,则标识符可以是位置的名称(例如,“位置名称”、“城市”、“州城市”、“国家城市”、“约塞米蒂国家公园”、“旧金山”等)。在一些示例中,如果上下文相关性基于一组人物,则标识符可以是该组人物中的一个或多个个体的名称(包括或排除用户),或识别一组人物的任何其他适当的标识符(例如,“用户和妈妈”、“用户和3个其他人”、“Sophia、Lucas和Olivia”、“Smith一家”等)。
根据一些实施方案,在显示详细用户界面之前,设备600显示视觉上占据显示器的第一部分的第一媒体项目集合的表示。例如,在图6G中,用户界面616A描绘了示例性表示616C,即处于显示器上的第一位置的示能表示。在接收到与第一示能表示的选择相对应的用户输入之后,并且在显示详细用户界面时,设备600在显示器上显示视觉上占据显示器的第二部分的第一媒体项目集合的关键媒体项目,该显示器的第二部分不同于显示器的第一部分。例如,图6G的用户界面617描绘了在显示器的第二部分处显示的关键媒体项目617A(例如,其描绘了与表示616C相同的图像)。该示例中的第二部分靠近显示器的顶部,并且第一部分靠近底部,因此它们是不同的部分。在该示例中,关键媒体项目617A是回忆中的媒体项目的幻灯片(在图6H的描述中更详细地讨论)。
根据一些实施方案,进一步响应于接收到与第一示能表示的选择相对应的用户输入,设备600显示第一媒体项目集合的表示过渡到关键媒体项目的动画过渡。例如,用户界面616B描绘了示例性动画过渡期间的中间屏幕(在用户输入之前的616A的显示和详细用户界面617的显示之间)。在一些示例中,关键照片从上下文相关的媒体项目集合的一系列表示中(例如,回忆时间线中)的第一位置(例如,显示器的第一部分)平滑地过渡到第一媒体项目集合的详细用户界面中的第二位置(例如,显示器的第二部分)。在该示例中,在中间屏幕616B中,向上和向左移动并且扩展表示616C,以便动画地过渡以占据由详细用户界面617中的关键媒体项目617A占据的示例性第二部分。在一些示例中,其他表示(或任何其他显示的内容)也动画地过渡。例如,在动画过渡期间,也向上和向左移动并且扩展回忆时间线616B中的其他表示。如上所述动画地过渡界面向用户提供了关于他们在回忆时间线的显示处选择的回忆的清晰视觉提示,因此可以在导航用于管理照片集合的应用程序并与之交互时减少认知负担。
根据一些实施方案,在显示详细用户界面时,设备600显示包括第一媒体项目集合中的多个媒体项目的幻灯片。例如,在图6H中,回忆详细视图618包括幻灯片620。幻灯片任选地包括在回忆详细视图中,并且可以包括对应回忆的多个媒体项目。例如,幻灯片620描绘了来自对应回忆(例如,“2019年七月四日”)的媒体项目,并且可以动画地过渡显示以显示包括在回忆中的媒体项目集合的其他媒体项目。
根据一些实施方案,设备600接收与幻灯片的选择相对应的用户输入,并且作为响应,设备显示包括第一媒体项目集合中的多个媒体项目的视频,其中幻灯片和视频是不同的。例如,设备600接收幻灯片620上的用户输入触摸(例如,“轻击”)。响应于轻击,设备600播放从对应回忆的媒体项目创建的视频。例如,图6H描绘了响应于回忆详细视图618的幻灯片620上的轻击而显示的视频回放界面624。
在一些实施方案中,视频和幻灯片是不同的。例如,视频和幻灯片都包括来自第一媒体项目集合中的媒体项目,但是包括在每一者中的特定媒体项目是不同的。换句话讲,它们使用来自第一集合的不同的多个媒体项目。在一些示例中,视频和幻灯片任选地包括相同的多个媒体项目,但是媒体项目被不同地显示或排列。例如,如果幻灯片包括集合的10个图像和集合中的视频的静止帧图像,并且视频包括相同的10个图像但是包括来自集合中的视频的视频剪辑(而不仅仅是静止帧),因此幻灯片和视频将是不同的。
在一些示例中,选择和/或呈现包括在视频中的媒体项目进行优化以作为视频呈现。例如,与幻灯片相比,包括在视频中的媒体项目可以包括更高比例的视频媒体项目(和/或来自视频媒体项目的音频),而幻灯片可以包括相对较高比例的静止图像或来自视频的静止帧。
在一些实施方案中,幻灯片包括指示符、示能表示等,以指示可选择播放视频。例如,幻灯片620包括播放指示符622,通知用户可以播放视频。
在一些实施方案中,响应于接收到与幻灯片的选择相对应的用户输入而显示包括第一媒体项目集合的多个媒体项目的视频,使得设备600显示视频的全屏呈现。例如,图6H描绘了全屏界面624,其包括全屏视图中的视频628。在一些实施方案中,全屏界面624包括播放、暂停和/或进度示能表示。例如,示能表示菜单626包括播放/暂停示能表示和进度条(例如,用于搓擦到视频中的不同时间)。全屏624以纵向取向描绘了视频,但是在一些实施方案中,可以以横向取向显示全屏呈现。在一些实施方案中,视频的取向取决于设备600的取向(例如,设备当前是竖直还是水平定位)。
在一些实施方案中,视频替换幻灯片的显示,并且在显示幻灯片的显示器部分中播放。例如,任选地用视频(例如,视频628)的呈现替换回忆详细视图618的幻灯片620,同时保持剩余部分的显示。在一些实施方案中,在仍然显示详细用户界面的一部分的同时显示视频,但不替换幻灯片所占据的显示器部分。
根据一些实施方案,在显示视频时,用户可以提供视频编辑输入以编辑视频的内容。例如,设备600接收视频628上的用户输入(具有第一特征强度),并确定用户输入满足强度依赖标准,其中当用户输入的特征强度超过阈值强度(例如,深按压强度阈值)时,满足强度依赖标准。响应于接收到用户输入(与编辑视频的请求相对应),设备600显示视频编辑用户界面。例如,示例性视频编辑用户界面630在图6I中示出。在一些示例中,在视频编辑用户界面处,用户可以编辑情绪、标题、文本字体等。在一些示例中,视频是自动生成的,并且用户可能希望改变视频的某些方面(例如,改变视频长度或视频主题的请求)。在一些实施方案中,该视频是静止图像、视频以及任选的在时间上接近主图像而捕获的音频和/或图像配对(有时被称为“动态照片”)的静止图像的编绘。
根据一些实施方案,设备600接收与编辑幻灯片的请求相对应的用户输入。例如,设备600接收回忆详细用户界面620的幻灯片620上的用户输入(具有第一特征强度),并确定用户输入满足强度依赖标准,其中当用户输入的特征强度超过阈值强度(例如,深按压强度阈值)时,满足强度依赖标准。响应于接收到用户输入(与编辑幻灯片的请求相对应),设备600显示幻灯片编辑用户界面。未描绘示例性幻灯片编辑用户界面,但是其可以与图6I中所示且上文描述的视频编辑用户界面630相似或相同。在一些示例中,在幻灯片编辑用户界面处,用户可以编辑情绪、标题、文本字体等。在一些实施方案中,幻灯片是自动生成的,并且用户可能希望微调幻灯片的某些方面。
视频编辑用户界面630示出了应用程序的UI如何允许用户改变应用程序自动选取以进行合成呈现的内容。视频编辑用户界面630包括查看器630A、情绪滑块630B和持续时间滑块630C。视频编辑用户界面630还包括编辑示能表示630D。在一些示例中,响应于对编辑示能表示630D的选择,设备600显示若干编辑控件,诸如(1)过渡控件,用于修改合成呈现中的一个或多个设备选择的过渡,(2)音乐控件,用于修改用来自动生成合成呈现的歌曲的歌曲(例如,音频剪辑),(3)效果控件,用于修改合成呈现的一个或多个设备指定的效果,(4)标题控件,用于修改合成呈现的一个或多个设备生成的标题(例如,文本标识符),以及(5)内容控件,用于添加媒体项目和/或移除为合成呈现自动选择的媒体项目。对这些控件中任何控件的选择会指示应用程序展示用于实行与所选控件相关联的操作的一个或多个附加控件。视频编辑用户界面630还描绘了在查看器630A中播放的合成呈现。
用于视频和幻灯片编辑的技术的附加描述可以在2015年9月30日提交的名称为“Novel Media Compositing Application”的美国临时专利申请62/235,550以及2015年9月30日提交的名称为“Novel Media Compositing Application”的美国临时专利申请62/235,552中找到,以上专利申请的内容据此全文以引用方式并入。
图6J示出了示例性详细用户界面632(另外被称为回忆详细视图632)。回忆详细视图632包括多个区域634-644,每个区域包含与以用户友好的方式按类别组织的对应回忆相关的内容。下文参考图6J-图6R依次说明每个区域的内容和功能。
根据一些实施方案,第一详细用户界面包括关键媒体项目区域。例如,关键媒体项目区域634描绘了示例性关键媒体项目区域。关键媒体项目区域任选地包括幻灯片。在一些示例中,关键媒体项目区域包括如上文关于图6H所述的幻灯片和视频内容以及功能。
根据一些实施方案,第一详细用户界面包括第一区域,该第一区域包括第一媒体项目集合中的媒体项目的一部分。例如,在图6J中,回忆详细视图634包括照片区域636,即示例性第一区域。照片区域636包括查看全部示能表示636A以及媒体项目636B和636C。在一些实施方案中,媒体项目636B和636C是包括在对应媒体项目集合中的媒体项目(例如,照片、视频)的表示。在一些示例中,包括在照片区域中的媒体项目是包括在对应媒体项目集合中的媒体项目的缩小尺寸描绘。
在一些实施方案中,第一区域(例如,照片区域636)包括策展视图,该策展视图包括第一媒体项目集合中的媒体项目子集。例如,在图6J的回忆详细视图处显示的媒体项目(例如,636B和636C)不表示对应媒体项目集合中的所有媒体项目。在该示例中,仅描绘了6张照片(例如,由照片区域636中的框表示),但是该集合包含20张照片。在一些实施方案中,选择媒体项目子集以便排除较低质量照片。例如,选择包括在子集中的媒体项目以便排除具有以下质量中的一个或多个的照片:模糊、描绘闭眼的人员、框架或构图不佳、噪声过度等。在一些示例中,选择照片以便排除描绘主题基本相同的照片。例如,用户可能拍摄了三张地标照片,以便确保捕获至少一张好照片。在策展视图的显示中,任选地仅显示一张这样的照片。这允许节省显示器上的空间以显示其他感兴趣的照片,而不是冗余地显示三张基本相似的照片(用户仅对查看其中的一张感兴趣)。
根据一些实施方案,第一区域(例如,照片区域636)还包括第二示能表示。例如,查看全部示能表示636A描绘了示例性第二示能表示。设备600接收与第二示能表示的选择相对应的用户输入,并且作为响应,显示扩展视图,该扩展视图包括第一媒体项目集合中在接收到与第二示能表示的选择相对应的输入之前未显示的附加媒体项目的表示。例如,响应于接收到对查看全部示能表示636A的选择,设备600显示包括相应回忆中的所有照片的扩展视图。该操作在图6K和图6L中描绘。
图6K描绘了示例性回忆详细用户界面646A。在所描绘的示例中,设备600接收与查看全部示能表示648的选择相对应的用户输入。作为响应,设备600显示扩展视图,该扩展视图描绘了该集合中在查看全部示能表示648的输入选择之前未显示的示例性附加媒体项目。例如,在回忆详细用户界面646B中,在选择回忆详细用户界面646A的查看全部示能表示648之后,显示编号为1至9的照片。然而,在选择查看全部示能表示648之前,仅显示编号为1、3、5、7和8的照片。在该示例中,编号为2、4、6和9的照片都是包括在回忆中的附加照片,但不作为策展视图的一部分。
根据一些实施方案,第一媒体项目集合中的媒体项目在扩展视图中以均匀网格布置。例如,在回忆详细视图646B中编号为1至9的照片是布置在均匀网格上的媒体项目的均匀尺寸描绘。媒体项目以网格布置对于用户当前正在在扩展视图中查看回忆的附加(例如,或全部)媒体项目来说是有用的视觉提示。
根据一些实施方案,响应于接收到与查看全部示能表示的选择相对应的用户输入,设备600显示隐藏全部示能表示。例如,回忆详细视图646B包括示例性隐藏全部示能表示650。在该示例中,隐藏全部示能表示650显示在与不再显示的查看全部示能表示648相同的位置。在一些示例中,隐藏全部示能表示显示在与查看全部示能表示不同的位置。在回忆详细视图646B中,设备600接收隐藏全部示能表示650的用户选择,并且作为响应,显示图6L的回忆详细视图646C。
图6L描绘了回忆详细视图646C,其示出了在选择隐藏全部示能表示之后的示例性回忆详细视图。从回忆详细视图646C中可以看出,响应于对隐藏全部示能表示650的选择,不再显示编号为2、4、6和9的附加照片。因此,回忆详细视图646C返回到其先前的策展视图,因此在该示例中与回忆详细视图646A相同。
根据一些实施方案,策展视图中的媒体项子集基于与媒体项目子集的媒体项目相关联的时间来按时间顺序布置。例如,策展视图中的项目可以按序列排列,其中与第一张照片相关联的时间是最早的时间,并且其中与序列中的最后一张照片相关联的时间是最新的时间。在一些示例中,该序列顺序是相反的。在一些实施方案中,基于时间戳诸如拍摄(例如,由设备捕获)图像的日期/时间来确定与媒体项目相关联的时间。例如,可以基于元数据、Exif数据等来确定该信息。
根据一些实施方案,包括在策展视图中的媒体项目子集以策展布置结构来布置,并且包括在媒体项目的策展布置中的媒体项目子集被布置成使得媒体项目的边缘对齐以便在策展布置的顶部和底部处产生基本笔直的边界。例如,可以选择媒体项目子集、对其进行尺寸调整和/或定位以创建策展布置。示例性策展布置在回忆详细视图646C的照片区域中以策展视图649示出。选择包括在策展视图649中的媒体项目、对其进行尺寸调整和/或定位(使其成为策展布置),使得策展视图649的底部边缘具有基本笔直(或笔直)的边界。在一些示例中,基本笔直的边界在策展布置中延伸跨越媒体项目子集的整个宽度。例如,策展视图649的底部上的基本笔直的边界延伸了媒体项目子集的整个宽度(在该示例中,延伸到显示器的竖直边缘)。通过在策展布置的顶部和底部处产生笔直边界,设备600使在该区域(例如,以及在笔直边界处彼此邻接的其他区域)中使用的显示空间达到最大,这在较小的设备中是尤为重要的。通过减少未使用的显示空间的量,并利用用户感兴趣的有用内容填充空间,设备600减少了显示器的使用以及过多的用户输入以请求显示附加数据,从而节省了设备资源。
根据一些实施方案,策展布置的底部处的基本笔直的边界由包括在策展视图中的第一多个媒体项目子集形成。例如,如回忆详细用户界面646C所示,策展视图649的边界的基本笔直边缘由回忆的策展视图中的照片/视频的边缘形成,同时按时间顺序保持媒体项目。
根据一些实施方案,第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目。根据一些实施方案,第一个尺寸和第二尺寸是不同的。根据一些实施方案,第一纵横比和第二纵横比是不同的。根据一些实施方案,其中策展布置的底部处的基本笔直的边界由第一多个媒体项目中的相邻媒体项目的边缘形成。例如,边界的笔直边缘由任选地具有不同尺寸和/或纵横比的多个相邻媒体项目(例如,照片/视频)(例如,在图6L的回忆详细视图646C中编号为1、7和8的照片)形成。例如,通过利用由照片构成的笔直边缘形成照片的边界,更有效地利用了显示器的区域,从而减少了浪费(例如,空闲)空间的区域。例如,当照片部分和相邻部分(例如,相关人物)被笔直边界分开时,这些部分之间没有浪费的显示空间,因为照片/视频将所有可用区域填充到回忆的照片部分内的边界。
在一些示例中,基于媒体项目的原始尺寸来选择在策展视图中表示的媒体项目。根据一些实施方案,设备600部分地基于媒体项目的尺寸从第一媒体项目集合中的媒体项目中选择媒体项目的策展子集。例如,可以选择媒体项目,使得它们不会被过度裁剪以在策展视图中显示。通过保持图像的原始尺寸(或接近原始尺寸),可以保持用户的原始构图的完整性。此外,尽量不对图像进行尺寸调整,加上选择图像以便形成基本笔直的边界是具有挑战性的,但是可以为观看者创建更有效的显示器使用和更美观的结果。
根据一些实施方案,设备600接收与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入。例如,在显示回忆的策展视图时,设备600接收对媒体项目的表示的选择(例如,轻击)。响应于接收到与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入,设备600显示第三媒体项目和搓擦示能表示。例如,响应于接收到在显示集合中的照片的策展视图的详细用户界面处对编号为1的照片654A的表示的选择(例如,在图6L的回忆详细视图646A处对编号为1的照片的选择),设备600显示图6M的示例性媒体项目视图654。作为响应,设备600显示所选媒体项目的示例性一个向上视图654。示例性一个向上视图654包括示例性搓擦示能表示654B。如图所示,搓擦示能表示654B包括媒体项目的表示,所述媒体项目包括在策展视图中所包括的子集中。例如,只有编号为1、3、5、7和8的照片(例如,少于集合中的所有照片)包括在搓擦示能表示中。
根据一些实施方案,设备600接收对应于搓擦示能表示的用户输入并作为回应,用媒体项目的策展子集中的第四媒体项目的显示替换第三媒体项目的显示,同时继续显示搓擦示能表示。例如,设备600用一个向上视图中的新照片替换当前显示的照片的显示,其中同时显示搓擦示能表示。在该示例中,一个向上视图656描绘了在搓擦示能表示656B上编号为8的照片(因图中表示用户手指而被部分地遮盖)的用户输入选择(例如,对应于搓擦示能表示654B,但由于用户选择而具有更新的外观)。作为响应,设备600现在显示媒体项目656A的一个向上视图656,并且显示的搓擦示能表示656B现在描绘了作为最大表示的媒体项目656A的缩小尺寸的表示。在一些实施方案中,用户可沿着搓擦示能表示(通过触敏表面或显示器)拖动他们的手指,并在媒体项目的一个向上视图中进行导航,其中,在搓擦示能表示中接触的媒体项目显示在一个向上视图中。因此,使用搓擦示能表示,用户可快速在回忆中媒体项目的一个向上视图中进行导航(例如,放大的显示)。这样,搓擦示能表示可提供用于导航和浏览媒体项目子集的快速工具。
在一些示例中,由搓擦示能表示所表示的媒体项目仅包括策展视图中包括的媒体项目子集的媒体项目。因此,如果用户想要浏览照片的策展子集作为更大表示(而不是更小表示,例如在回忆详细视图中),则用户可快速且直观地这样做。在一些实施方案中,在搓擦示能表示中表示的媒体项目是媒体项目集合中的所有照片。在一些实施方案中,所表示的媒体项目是策展媒体项目还是所有媒体项目取决于当接收到对应于媒体项目的用户选择时,回忆详细用户界面是在策展视图还是扩展视图中。例如,如果在策展视图中,搓擦示能表示将仅包括来自策展集的媒体项目。
根据一些实施方案,基于与搓擦示能表示相对应的用户输入的量值来选择第四媒体项目。例如,更快或更长的手势(例如,对应于触敏表面上的触摸输入),而不是较慢或较短的手势,将导致在更大量媒体项目中进行导航,因此第四媒体项目是更远离媒体项目集合中的第三媒体项目的媒体项目。这样,用户可通过调整其用户输入的量值来调制他们在搓擦示能表示中的图像中导航的速度。
根据一些实施方案,设备600接收与轻扫手势相对应的用户输入,并作为响应,显示第四媒体项目。例如,在编号为1的照片的显示器处,设备600接收一个或多个轻扫手势输入并显示响应的编号为8的照片。
根据一些实施方案,详细用户界面包括包含地理地图第二区域。例如,图6J的示例性详细用户界面632包括地图区域640。地图区域640描述了包括示例性位置指示符640A的地理地图。图6N的回忆详细视图658还描述了示例性地图区域658A。
在一些实施方案中,如果没有与媒体项目相关联的位置(或者此类信息不可用),则不显示地图区域。
在一些实施方案中,设备600接收与在第二区域中选择地理地图相对应的用户输入并作为响应,用地理地图视图的显示替换详细用户界面的显示。例如,响应于用户输入选择(例如,轻击659)回忆详细用户界面658的地图区域658A的地理地图,设备600显示了扩展的地理地图视图660。在一些实施方案中,地理地图视图包括对应于与第五媒体项目相关联的位置的位置指示符,并且地理地图视图包括第三示能表示。例如,示例性地理地图视图660还描述了地理地图,并包括位置指示符660A和660B,表示媒体项目的位置并示出了附近照片示能表示660C。
根据一些实施方案,为了进一步显示详细用户界面,设备600在地理地图上显示对应于与第一媒体项目集合的第五媒体项目相关联的位置的位置指示符。例如,示例性位置指示符658B和658C在图6N的地图区域658A的地理地图中显示。在一些示例中,指示符是与其相关联的媒体项目的缩小比例表示。例如,指示符是第五媒体项目的缩小比例版本。在一些示例中,可基于与媒体项目相关联的位置数据来确定与媒体项目相关联的位置,诸如元数据、Exif数据等。在一些示例中,与媒体项目相关联的位置表示拍摄媒体项目(例如,照片、视频)的位置。
根据一些实施方案,地理地图在地图中的不同位置处显示第一集合中的多个不同媒体项目的一个或多个指示符,这些不同位置对应于捕捉媒体项目的位置。在一些实施方案中,单个指示符表示一个或多个媒体项目。
根据一些实施方案,选择地图的比例以便包括与第一集合中的媒体项目相对应的所有位置。例如,可选择地理地图的缩放级别,使得对应于第一集合的媒体项目的每个指示符同时显示在地理地图上。在一些示例中,因此选择了缩放级别,虽然仍然在靠近媒体项目的位置进行缩放,但媒体项目大致集中在地理地图中,并且地图边缘与最近媒体项目的位置之间没有大的边界。
根据一些实施方案,在显示地理地图时,设备600显示第三示能表示。设备600接收与第三示能表示的选择相对应的用户输入并作为响应,在地理地图视图中显示与未包括在第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。例如,设备600接收对图6N的扩展地理地图视图660的示出附近照片示能表示660C的选择。作为响应,设备600显示扩展的地理地图视图662,如图6O所示,其包括示例性附加位置指示符662A和662B。附加的位置指示符是对应于附近照片位置的指示符,其不是回忆的一部分。在查看回忆的地理地图时,用户可能希望从与回忆相关联的位置附近看到其他照片。示出附近照片(例如,或视频)示能表示允许这样做,从而使用户不必执行一系列额外导航步骤来找到所需的媒体项目。
根据一些实施方案,当进入地理地图视图时和/或当显示附加位置指示符时,会保持地图的比例。例如,在扩展的地理地图视图660和662之间,当添加附加指示符时,地图的缩放级别没有改变。
根据一些实施方案,缩放因子稍微改变但是保持地图居中,使得附加位置指示符指示在捕捉的回忆中的媒体项目附近位置处捕捉的其他媒体项目。
根据一些实施方案,在显示附加位置指示符后,设备600显示第四示能表示。例如,设备600在扩展的地理地图视图662处显示隐藏附近照片示能表示662C。在一些示例中,第四示能表示与第三示能表示相同。例如,显示附近照片示能表示660C被隐藏附近照片示能表示662C替代。在一些示例中,示能表示是不同的(例如,在不同的位置)。设备600接收对应于第四示能表示的选择的用户输入并作为响应,停止在地理地图视图中显示附加的位置指示符。例如,响应于接收选择隐藏附近照片示能表示662C,设备600可再次显示扩展的地理地图视图660并停止显示指示符662A和662B。在一些示例中,设备600这样做,同时保持地图视图的比例和/或居中地图视图。
根据一些实施方案,设备600接收与选择位置指示符相对应的用户输入并作为响应,用第五媒体项目的显示替换地理地图视图的显示。例如,在扩展的地理地图视图中,设备600接收指示符660B的选择并显示一个向上视图664作为响应。一个向上视图664A描述了媒体项目664A,该媒体项目来自当前回忆。一个向上视图664A还描述了媒体项目664B,该媒体项目(在搓擦示能表示上)不是来自当前回忆的媒体项目。例如显示媒体项目664B,因为设备600从视图662中的显示所有附近照片进入一个向上视图664。因此,媒体项目664B对应于附近媒体项目(例如,由662A或662B表示),所述媒体项目未包括在回忆中,但与地理上靠近回忆相关联位置的位置相关联。例如,在显示的示例中,媒体项目664B描述了一个雪人,其与当前回忆无关(从7月4日起),但其是在当前回忆的照片附近拍摄的(例如,在一年中的不同时间,冬天)。
根据一些实施方案,详细用户界面包括第三区域,该第三区域包括与在第一媒体项目集合中的媒体项目中识别的面部相对应的指示符。例如,图6J的示例性详细用户界面632包括示例性第三区域人物区域638。人物区域638描述了对应于各个媒体项目集合中的识别的面部(例如,一个或多个人的面部)的人物指示符638A和638B。图6P的回忆详细视图666还描述了示例性人物区域。
根据一些实施方案,设备600接收与对应于所识别面部的指示符的选择相对应的用户输入并作为响应,显示第四媒体项目集合。例如,设备600接收人物指示符666A的选择(例如,对应于名为“Pat”的人)并显示示例性人员详细视图668。
在一些示例中,人物详细视图在内容和布置上(例如,包含相同顺序的相同区域)与回忆详细视图类似或相同(例如,如图6J所示)。
根据一些实施方案,第四媒体项目集合中的媒体项目均包括所识别的面部。例如,由人物详细视图668表示的集合中的每个媒体项目描述了相应的人(例如,所述示例中的Pat)。换句话说,在一些示例中,人物详细视图是特定于某个人的回忆(例如,在选择示能表示后,仅显示包括第一人物的照片)。
根据一些实施方案,第四集合包含不包括所识别面部的媒体项目。
根据一些实施方案,第四集合包括一个或多个建议的图像,其具有与所识别面部类似的面部,并且在将图像中的面部识别为所识别的面部之前,应用程序请求来自用户的确认。
根据一些实施方案,第四集合的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,但面部、相关回忆、位置、选择的关键媒体项目基于第四集合。
在一些实施方案中,如果在媒体项目中没有识别出面部或人物(或者此类信息不可用),则不显示人物区域。
根据一些实施方案,详细用户界面包括第四区域。例如,图6J的示例性详细用户界面632包括示例性第四区域即相关回忆区域642。相关回忆区域642描述了包括与当前详细用户界面的集合(例如,回忆详细视图)相关的媒体项目集合的表示。表示642A对应于媒体项目的相关集合(下文中也称为“相关回忆”)。图6Q的回忆详细视图670还描述了示例性相关回忆区域670A。
根据一些实施方案,第四区域包括共享一组共同特征的第五媒体项目集合的表示,并且第五媒体项目集合中的媒体项目与第一媒体项目集合中的媒体项目共享第一特征。特征是与媒体项目相关联的任何可识别特征、属性或信息。例如,特征可包括与媒体项目相关联的标签、关键字、日期、存储位置、作者等中的一个或多个。在一些示例中,特征是上下文属性。例如,特征可包括以下中的一个或多个:特定时间范围(例如,上周;5月4日-5月26日),一年中的特定日期(例如,7月4日),特定地点或一组地点(例如,法国巴黎);家;Yosemite国家公园),包括在媒体项目中的特定人物等。在该示例中,第一集合与第五集合共享一个特征。例如,当前回忆详细视图670的回忆(例如,第一集合)是来自2019年7月4日的回忆。相关回忆表示670B表示示例性第五集合(例如,相关回忆)和描述在雪中玩耍并制作雪人的孩子,并且是2019年12月26日-2020年1月1日那周的回忆。在该示例中,第一集合的媒体项目与第五集合的媒体项目之间的共享特征是用户孩子的面部识别。例如,用户孩子的面部在当前回忆的媒体项目中被识别(例如,在图6F的媒体项目614中)并且也在2019年12月26日-2020年1月1日的媒体项目中被识别。(例如,在表示670B中描述的媒体项目中,显示在雪中玩耍的孩子)。因此,来自不同集合的这两个媒体项目之间的共享特征是存在一个或多个识别的面部(例如,对应于已知个体)。应当显而易见的是,如果当前回忆包括描述已识别的一组人物的媒体项目,则相关的回忆可是不相关的包括一组人物的事件(例如,2014年新年前夜),并且因此共享特征是识别出的,在集合的至少一个媒体项目中出现的一组人物。该特征特别有用,因为其允许用户直观地访问和查看媒体项目,否则这些媒体项目将按照时间顺序自动地存储在更相关和直观的界面中。上述界面通过在用户容易访问的位置呈现非常相关的内容,让用户不需执行不必要和过多的输入来定位希望查看的媒体项目,从而节省了时间和设备资源。
相关的回忆示能表示670C还表示到法国巴黎旅行这一位置的相关回忆。例如,巴黎之旅的回忆与2019年7月4日的回忆共享一个特征,即都对应于假期。例如,设备600识别出2019年7月4日的回忆与假期(美国7月4日)相关并且巴黎之旅也与假期相符(例如,2020年5月25日的美国阵亡将士纪念日,因为回忆包含2020年5月4日至5月26日之间捕捉的媒体项目)。因此,这些回忆中包含与假期年份之日相关联的媒体项目的各个回忆将共享特征。
当前回忆和相关回忆之间共享的特征,不需要是每个相应回忆的所有媒体项目共享的一组共同特征的特征之一。例如,如果当前回忆是2019年7月4日(例如,按日期/事件分组的回忆),相关回忆是您最近的旅行(例如,由不同的日期/事件分组的另一个回忆),则共同的特征可能是从两个回忆的照片中识别的一个人的面部。因此,回忆基于人(例如,面部)而彼此相关,这不是每个相应回忆的项目的共同特征(例如,在该示例中,分别是7月4日的日期/事件和5月3日至5月5日的日期/事件)。
根据一些实施方案,设备600接收与选择第五媒体项目集合的表示相对应的用户输入,并作为响应,显示包括第五媒体项目集合的详细用户界面。例如,响应于回忆表示670B的选择,设备600显示对应于与表示670B对应的媒体项目的集合的回忆详细视图672。
根据一些实施方案,在策展视图中显示包括第五媒体项目集合的详细用户界面。在该示例中,回忆详细视图672描述了示例性第五集合中包括的媒体项目的照片区域672B中的示例性策展视图。
根据一些实施方案,第五集合的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,但面部、相关回忆、位置、选择的关键媒体项目基于第五集合。在一些示例中,该所选内容的一个或多个将不同于为第一集合选择的内容。
根据一些实施方案,当(或时间上基本接近)显示详细用户界面时,在第四区域中表示的媒体项目的集合被动态地选择。例如,如下所述,用户可查看回忆一次并看到相关回忆区域中的第一组相关回忆。第二次(例如,一天、一周或一个月后)查看回忆时,在图6R中,设备600显示相同回忆的相关回忆区域中的第二组相关回忆。具体地,在图6R的回忆详细界面676中,由表示676B所表示的回忆已经替换了由表示670C(图6Q)所表示的回忆。
根据一些实施方案,在显示包括第一媒体项目集合的详细用户界面后,设备600接收表示共享一组共同特征的第六媒体项目集合的数据。例如,在显示包括相关回忆表示670B的回忆详细视图670(例如,2019年12月26日-2020年1月1日的那一周)和670C(例如,法国巴黎之旅)之后,设备600接收表示新回忆的数据(例如,共享一组共同特征的第六媒体项目集合)。在一些实施方案中,第六媒体项目集合不同于第一媒体项目集合。例如,第六集合是与第一集合(例如,对应于用户的生日)不同的回忆。
图6R描述了收藏回忆相簿用户界面。根据一些实施方案,在显示包括第一媒体项目集合的详细用户界面后,设备600接收与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入。例如,设备600第二次接收查看回忆详细视图中的第一集合的请求。在该示例中,在收藏回忆相簿界面674中,设备600接收对应于第一集合(例如,2019年7月4日的回忆)的回忆表示674A的选择。可以看出,当用户正在浏览照片应用程序的相簿部分时(例如,如所选择的相册标签674B所示),会显示收藏回忆相簿用户界面674。
根据一些实施方案,响应于接收对应于显示包括第一媒体项目集合的详细用户界面的请求的用户输入,设备600显示详细用户界面和第四区域中第六媒体项目集合的表示。例如,在接收到表示674A的选择后,设备600显示回忆详细用户界面676,该用户界面是第一集合的详细用户界面。在该示例中,详细用户界面676(例如,第二次查看回忆)与除了相关回忆区域的详细用户界面670(例如,第一次查看回忆)相同。在该示例中,表示676A对应于670A,然而表示676B已替换表示670C。表示676B描述了孩子踢足球(下文中也称为“足球”),并对应于在用户孩子的足球比赛中捕捉的媒体项目的集合。例如,设备600可能已经确定足球回忆与第一集合比与法国巴黎回忆更相关,因为儿童在足球回忆中的媒体项目中被更突出地特征化。在一些示例中,设备600确定用户在浏览他们孩子媒体项目,并因此根据用户可能查看的内容来推动足球回忆。在一些示例中,第六集合的详细视图的显示使得设备600将照片的应用程序导航到回忆部分(例如,同时选择回忆标签676C与回忆详细视图676,并且从回忆的返回导航将使设备600显示回忆时间线)。在一些示例中,设备600停留在照片应用程序的相簿部分中(例如,相簿标签将保持被选中并且从回忆详细视图676的返回导航将导致设备显示收藏回忆相簿界面674)。
根据一些实施方案,第六集合的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,但面部、相关回忆、位置、选择的关键媒体项目基于第六集合。
如上所述,可选地为用户提供保存回忆详细视图供稍后查看的能力。根据一些实施方案,在显示包括第一媒体项目集合的详细用户界面时,设备600显示第五示能表示。例如,图6Q的示例性回忆详细视图670包括添加到收藏示能表示670D。设备600接收与第五示能表示的选择相对应的用户输入,并作为响应,将第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。例如,响应于添加到收藏示能表示670D的选择,设备600将对应的回忆与回忆中的收藏回忆列表相关联(例如,在设备回忆中,或者以其他方式与设备相关联的回忆)。
如上所述,在将回忆详细视图设置为收藏之后(可被称为保存回忆),设备利用其他收藏详细回忆视图(例如,在“收藏回忆”相簿中)显示回忆的示能表示。根据一些实施方案,设备接收与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入。例如,设备接收使用照片应用程序显示收藏回忆相簿的请求(例如,通过导航到相簿部分(未描述)和选择标题为收藏回忆的相簿)。根据一些实施方案,响应于接收对应于查看所选媒体项目集合中的媒体项目集合的表示的请求的用户输入,设备600显示第一媒体项目集合的表示。例如,图6R的收藏回忆相簿界面674包括对应于在回忆详细视图670(例如,2019年7月4日的回忆)中保存的回忆的表示674A。值得注意的是,在收藏回忆界面674处的第一媒体项目集合的表示674A与回忆时间线610的表示610A匹配。因此,无论用于访问回忆详细视图的特定用户界面为何,该表示可选地用作回忆的通用标识符。
图7A-图7E是示出用于查看共享一组共同特征的媒体项目集合的方法以及与其相关内容的流程图,所述媒体项目使用根据一些实施方案的设备。在具有显示器的设备(例如,100、300、500)处执行方法700。方法700中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法700提供用于查看共享一组共同特征的媒体项目集合以及与其相关的内容的直观方式。该方法减少了用户认知负担,无需在过多数量的用户输入中导航以浏览相关媒体内容,从而创建了更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快更有效地查看相关媒体,节省了功率并且增加了电池两次充电之间的时间间隔。
设备接收(702)显示上下文相关媒体的请求。在一些实施方案中,设备打开照片应用程序(例如,响应于选择图6A的示能表示602A)或导航到照片应用程序的回忆选项卡(例如,响应于图6B的回忆选项卡604A的选择)。
响应于请求(704),根据设备处于第一上下文(例如,在一天的第一时间,在一周的第一天,在一年的第一天,在第一个位置和/或与第一组人)中的确定的设备在显示器上显示(706)第一媒体项目集合的表示(例如,图6D的表示610A),所述媒体项目共享一组共同特征(例如,都属于相同的回忆,对应于在特定位置或一组位置于特定时间范围内捕捉的媒体),并与第一上下文相关。
响应于请求(704),根据设备处于第二上下文(例如,在一天中的第二时间,在一周的第二天,在一年的第二天,在第二个位置和/或与第二组人)的确定的设备在显示器上显示(704)第二媒体项目集合的表示(例如,图6E的表示612A),所述媒体项目共享一组共同特征(例如,都属于相同的回忆,其对应于在特定位置或一组位置于特定时间范围内捕捉的媒体),并与第二上下文相关,其中第二媒体项目集合与第一媒体项目集合不同。因此,设备(例如,设备600)通过当设备处于第一上下文中时显示第一集合的第一表示或者当设备处于第二上下文中时显示第二表示来为用户提供无需大量额外输入即可访问与设备所处上下文相关的媒体项目集合的权限,节省了设备资源和用户时间。
根据设备处于第一上下文中的确定(例如,在一天的第一时间,在一周的第一天,在一年的第一天,在第一个位置和/或与第一组人),设备显示(710)第三媒体项目集合的表示(例如,图6D的表示610A;与第一组媒体项目的表示同时显示),其共享一组共同特征(例如,都属于与在特定位置或一组位置于特定时间范围内捕捉的媒体相对应的相同回忆)并与第一上下文相关,其中第一媒体项目集合基于第一上下文属性(例如,与当前日期相关的一个)与第一上下文相关,第三个媒体项目集合基于第二上下文属性(例如,与当前位置相关的一个)与第一上下文相关,并且其中第二上下文属性不同于第一上下文属性。因此,设备(例如,设备600)通过基于第二上下文属性显示与第一上下文相关的第三媒体项目集合的表示来为用户提供无需大量额外输入即可访问第三组媒体项目的权限。
根据一些实施方案,第一媒体项目集合的表示包括选自第一媒体项目集合中的媒体项目的缩小比例版本(712)(例如,图6D的表示610A)。在一些示例中,第一媒体项目集合的表示包括来自第一媒体项目集合的多个媒体项目的缩小比例版本。在一些示例中,本文描述的媒体项目集合的其他表示任选地包括选自对应媒体项目集合的一个或多个媒体项目的缩小比例版本。
根据一些实施方案,设备生成(714)与第一媒体项目集合(例如,由图6D的610A表示的回忆)相关联的文本标识符(例如,图6F的文本标识符615A),识别所选媒体项目中的面部,其中所选媒体项目是图像,并显示覆盖在第一媒体项目集合的表示上的文本标识符,其中覆盖文本标识符不与显示为第一媒体项目集合的表示(例如,图6F的文本标识符615A和615C)的所选媒体项目中的所识别面部重叠。在一些示例中,表示中的文本的位置至少部分地基于所选媒体项目中的面部的位置来确定(例如,如图6F所描述的)。在一些示例中,裁剪所选媒体项目(例如,图6F的媒体项目614)以在媒体项目集合的表示中显示,并且调整裁剪以将面部从文本下方移出(例如,如图6F的表示614A和614B所示)。根据一些实施方案,与第一媒体项目集合相关联的文本标识符基于第一媒体项目集合与第一上下文的相关性来选择,并且包括解释第一媒体项目集合与第一上下文相关性的一个或多个字词(例如,图6F的文本标识符615A识别与日期7月4日的上下文的相关性)。因此,设备(例如,设备600)通过选择并显示解释集合与第一集合的相关性的文本标识符来为用户提供设备所处上下文状态的自动生成可视指示,给用户发送设备状态的信号。
根据一些实施方案,第一媒体项目集合的表示是第一示能表示(716)(例如,图6D的表示610A)。根据一些实施方案,设备接收对应于第一示能表示的选择的用户输入,并且响应于接收用户输入,在显示器上显示(716)详细用户界面(例如,图6D的详细用户界面611;以及图6J的详细用户界面632),其包括第一媒体项目集合的至少一部分(例如,图6D的图像611A;或图6K的策展视图649)。在一些示例中,第一媒体项目集合包括比可以立即显示在显示器上更多的媒体项目(例如,图6K扩展视图652中编号为1到9的照片),并且显示详细用户界面包括显示第一媒体项目集合的一部分(例如,仅显示图6K的策展视图649中编号为1、3、7、5和8的照片),其中,通过可以通过滚动详细视图来在详细视图中显示附加媒体项目。因此,设备(例如,设备600)通过为共享一组特征的媒体项目集合显示详细用户界面(包括显示部分集合)来允许用户以优化用于呈现相关内容的形式查看相关的和上下文相关的内容,而不是让用户手动确定和检索相关的媒体项目,节省了设备资源和用户时间。
根据一些实施方案,在显示详细用户界面之前,设备在显示器上显示视觉上占据显示器第一部分的第一媒体项目集合的表示(例如,图6G的表示616C)。在接收到与第一示能表示的选择相对应的用户输入之后,并且在显示详细用户界面的同时,设备在显示器上显示可视地占据显示器第二部分(例如,由图6G的关键媒体项目617A占据的部分)的第一媒体项目集合的关键媒体项目(例如图6G的关键媒体项目617A),该显示器第二部分与显示器第一部分不同。进一步响应于接收到与第一示能表示的选择相对应的用户输入,设备在显示器上显示第一媒体项目集合的表示过渡到关键媒体项目的动画过渡(例如,图6G的回忆时间线616B描述了过渡到回忆详细视图617中的关键媒体项目617A的部分中的表示616C)。
根据一些实施方案,设备在显示详细用户界面的同时,在显示器上显示(718)幻灯片(例如,图6H中的幻灯片620),包括第一媒体项目集合的多个媒体项目(例如,图6H的媒体项目620的顺序显示),接收(718)对应于幻灯片选择的用户输入(例如,选择播放示能表示622),并且响应于接收对应于幻灯片选择的用户输入,在显示器上显示(718)视频(例如,图6H的视频628),包括第一媒体项目集合的多个媒体项目,其中幻灯片和视频是不同的(例如,如图6H所示)。在一些示例中,视频替换幻灯片的显示,并在显示幻灯片的显示部分(例如,图6H的幻灯片620所占据的部分)中播放。在一些示例中,视频和幻灯片不同,并且使用来自第一集合的不同的多个媒体项目。例如,视频和幻灯片都包括来自第一媒体项目集合中的媒体项目,但是包括在每一者中的特定媒体项目是不同的。在一些示例中,视频和幻灯片使用相同的多个媒体项目,但那些项目被不同地显示或排列。例如,幻灯片显示集合的所有图像和集合中视频的静止帧图像,而视频包括所有图像但是包括来自集合中相同视频的剪辑(而不仅仅是静止帧)。在一些示例中,在显示视频时,用户可提供视频编辑输入以编辑视频的内容(例如,改变视频长度或视频主题的请求)。在一些示例中,该视频是静止图像、视频以及任选的在时间上接近主图像而捕获的音频和/或图像配对(有时被称为“动态照片”)的静止图像的编绘。因此,设备(例如,设备600)通过显示既包括来自集合的内容(但不同)的视频或幻灯片来允许呈现为查看条件而优化的媒体,并且因此当以更有可能吸引用户注意力的方式使用显示器浏览相关媒体时有效地使用显示器,并减少手动浏览媒体项目的额外输入数量,节省了设备资源和用户时间。
根据一些实施方案,设备接收对应于编辑幻灯片的请求的用户输入(例如,深按压图6H的幻灯片620),并响应于接收与编辑幻灯片的请求相对应的用户输入,在显示器上显示幻灯片编辑用户界面(例如,与图6I中的编辑界面630类似或相同)。
根据一些实施方案,详细用户界面包括第一区域(例如,图6J和图6K的照片区域636),其中第一区域包括策展视图(例如,图6K的策展视图649),所述策展视图包括第一媒体项目集合中的媒体项目的子集,并且选择媒体项目子集以排除较低质量的照片(720)。在一些示例中,显示器是策展视图,其包括第一集合的子集(例如,少于全部)照片和/或视频。根据一些实施方案,策展视图中的媒体项子集基于与媒体项目子集的媒体项目相关联的时间来按时间顺序布置。因此,设备(例如,设备600)通过显示包括排除较低质量照片的媒体项目子集的策展视图来减少用户浏览媒体项目集合时所需的额外输入数量,通过不显示较低质量的,一旦出现则用户可能会迅速从显示屏幕上消除的照片,从而节省了用户时间和设备资源,否则显示较低质量照片和接收从显示器中消除这些照片需要的额外用户输入会消耗用户时间和设备资源。
根据一些实施方案,第一区域还包括第二示能表示(例如,图6K的查看全部示能表示648)。根据一些实施方案,设备接收(722)与第二示能表示的选择相对应的用户输入,并响应于接收对应于第二示能表示的选择的用户输入,在显示器上显示(722)扩展视图(例如,图6K的扩展视图652),包括第一媒体项目集合的附加媒体项目的表示(例如,图6K的扩展视图652中编号为2、4、6和9的照片),其在接收对应于第二示能表示的选择的输入之前未显示。因此,设备(例如,设备600)通过向用户提供策展视图和一个选项来轻松访问其他媒体项目的扩展视图来为用户提供对媒体项目集合中更多项目的访问权限,而无需大量额外输入在照片应用程序中导航以找到从策展视图中排除的附加照片,节省了设备资源和用户时间。
根据一些实施方案,包括在策展视图中的媒体项目子集(例如,图6K中策展视图649的编号为1,3,5,7和8的照片)以策展布置结构来布置,并且包括在媒体项目的策划布置中的媒体项目子集被布置成使得媒体项目的边缘被对齐,以便在策展布置的顶部和底部处产生基本笔直的边界(724)(例如,图6K顶部边界646B和底部边界646C)。根据一些实施方案,策展布置的底部处的基本笔直的边界由策展视图中包括的第一多个媒体项目子集形成(例如,图6K的策展视图649中编号为1、7和8的照片)。
根据一些实施方案,详细用户界面包括第二区域(例如,图6N的地图区域658A),其包括地理地图(例如,在地图区域658A中描绘的地图)。根据一些实施方案,显示详细用户界面(例如,图6N的详细用户界面658)还包括在显示器上显示(726)地理地图上的位置指示符(例如,图6N的位置指示符959),其对应于与第一媒体项目集合的第五媒体项目相关联的位置。在一些示例中,地理地图在地图中的不同位置处显示第一集合中的多个不同媒体项目的指示符,所述不同位置对应于捕捉媒体项目的位置(例如,地图区域658A包括多个指示符658B和658C,各代表22个媒体项目)。在一些示例中,选择地图的比例(例如,缩放级别)以便包括与第一集合中的媒体项目相对应的所有位置(例如,地图区域658A包括用于回忆集合所有媒体项目的指示符)。在一些示例中,选择地图比例使得媒体项目大致集中在地理地图中,并且在地图边缘与最近媒体项目的位置之间没有大的边界。因此,设备(例如,设备600)通过将对应于第一集合的媒体项目的位置指示符显示为集合的详细用户界面的一部分来为用户提供对媒体项目集合相关位置信息的快速访问,而无需大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,设备,在显示地理地图时(例如,在图6N的地图视图660处),在显示器上显示(728)第三示能表示(例如,显示图6N附近照片示能表示660C),接收(728)对应于第三示能表示的选择的用户输入,并且响应于接收对应于第三示能表示的选择的用户输入,在显示器上显示(728)地理地图视图(例如,图6O的地图视图662)中的附加位置指示符(例如,图6O的地图视图662中的指示符662A和662B),所述附加位置指示符对应于不包括在第一媒体项目集合中的媒体项目(例如,图6O的媒体项目664B)的位置。在一些示例中,当进入地理地图视图时和/或当显示附加位置指示符时,会保持地图的比例。在一些示例中,缩放因子稍微改变但是保持地图居中,使得附加位置指示符指示在捕捉的回忆中的媒体项目附近位置处捕捉的其他媒体项目。在一些示例中,设备接收与在第二区域(例如,图6N的地图区域658A)中地理地图的选择相对应的用户输入。在一些示例中,响应于接收对应于第二区域中地理地图的选择的用户输入,设备用地理地图视图的显示替换详细用户界面的显示(例如,用地图视图660替换详细用户界面658的显示),其中地理地图视图包括对应于与第五媒体项目相关联的位置的位置指示符(例如,位置指示符660A),并且其中地理地图视图包括第三示能表示(例如,显示图6N的附近照片示能表示660C)。因此,设备(例如,设备600)通过提供对与未包括在第一集合中的媒体项目相对应的附加位置指示符的访问来使用户可以轻松访问与第一集合无关除非基于位置的相关媒体项目,因此,为用户提供访问相关媒体的有用方式,否则需要大量额外输入进行检索,节省了设备资源和用户时间。
根据一些实施方案,详细用户界面(例如,图6P的详细用户界面666)包括第三区域(例如,人物区域666C),所述第三区域包括对应于第一媒体项目集合媒体项目中识别的面部的指示符(例如,面部指示符666A;面部指示符666B)。根据一些实施方案,设备接收(730)对应于对应于所识别面部的指示符(例如,图6P的面部指示符666A)的选择的用户输入,并且响应于接收对应于所识别面部的指示符的选择相对应的用户输入,在显示器上显示(730)第四媒体项目集合(例如,图6P的照片区域668C中的媒体项目),其中第四媒体项目集合中的媒体项目各自包括所识别的面部。在一些示例中,第四集合包括一个或多个建议的图像(例如,图12G中编号为1至9的照片),其具有与所识别面部类似的面部,并且在将图像中的面部识别为所识别的面部之前,应用程序请求来自用户的确认。在一些示例中,第四集合的详细用户界面(例如,图6P的详细用户界面668)具有一个或多个与本文描述的关于第一集合的详细用户界面相同的部分,但面部、相关回忆、位置、选择的关键媒体项目基于第四集合(例如,图6L的详细用户界面646C)。因此,设备(例如,设备600)通过将第一集合媒体项目中与所识别面部相对应的指示符显示为该集合的详细用户界面的一部分来为用户提供对识别媒体项目集合中描述的个体的相关信息的快速访问,而无需大量额外输入来例如查看所有图像以确定人物的参加,节省了设备资源和用户时间。
根据一些实施方案,详细用户界面包括共享一组共同特征的第五媒体项目集合的第四区域(例如,图6Q中包括该第五媒体项目集合的表示(例如,图6Q的表示670B)的相关回忆区域670A),并且其中第五媒体项目集合中的媒体项目与第一媒体项目集合中的媒体项目共享第一特征(732)。根据一些实施方案,设备接收(732)与选择第五媒体项目集合的表示(例如,选择图6Q的表示670B)相对应的用户输入,并且响应于接收到与选择第五媒体项目集合的表示相对应的用户输入,在显示器上显示(732)包括第五媒体项目集合的详细用户界面(例如,图6Q的详细用户界面672)。在一些实施方案中,特征包括特定时间范围、一年中的特定日期、一个特定位置或一组特定位置和/或包括在媒体项目中的特定人员。在一些示例中,第一集合与第五集合共享一个特征。在一些示例中,当前回忆和相关回忆之间共享的特征,不需要是每个相应回忆的所有媒体项目共享的一组共同特征的特征之一。在一些示例中,第五集合的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,但面部、相关回忆、位置和/或选择的关键媒体项目基于第五集合。因此,设备(例如,设备600)通过将与当前查看集合共享一个特征的媒体项目集合的表示显示为当前集合的详细用户界面的一部分来为用户提供对与用户的当前浏览活动相关的其他媒体集合(原本会需要用户执行大量额外输入以进行访问的集合)的快速访问,从而节省了设备资源和用户时间。
根据一些实施方案,在显示包括第一媒体项目集合的详细用户界面(例如,图6L的回忆详细用户界面646C)之后,设备接收(734)表示共享一组共同特征的第六媒体项目集合(例如,由图6R中的表示676B表示)的数据,其中第六媒体项目集合不同于第一媒体项目集合,并且接收(734)与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入(例如,选择图6R中的表示674A)。响应于接收到与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入,设备在显示器上显示(734)详细用户界面(例如,图6R的详细用户界面676)以及第四区域(例如,相关回忆区域676C)中的第六媒体项目集合的表示(例如,图6R中的表示674A)。在一些示例中,第六集合的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,但面部、相关回忆、位置和/或选择的关键媒体项目基于第六集合。因此,设备(例如,设备600)通过显示在预先存在的媒体项目集合之后并且在该预先存在的集合的详细视图中创建的媒体项目集合的表示来为用户提供动态确定的对相关媒体的访问(甚至在创建该集合之后),并且无需大量额外输入,例如以重新生成集合来创建新的关联,从而节省了设备资源和用户时间。
根据一些实施方案,在显示包括第一媒体项目集合的详细用户界面(例如,图6Q的详细用户界面670)时,设备在显示器上显示第五示能表示(例如,图6Q的添加到收藏回忆示能表示670D),接收与选择第五示能表示相对应的用户输入,并且响应于接收到与选择第五示能表示相对应的用户输入,将第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表(例如,在图6R的界面674处表示的收藏回忆相簿)相关联。因此,设备(例如,设备600)通过显示允许用户将集合与所选集合的列表相关联的示能表示来为用户提供对返回到显示媒体项目集合的快速访问,而无需大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,所述第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目(例如,图6K的策展视图649中编号为1的照片)以及具有第二尺寸和第二纵横比的第二媒体项目(例如,图6K的策展视图649中编号为7的照片),其中第一尺寸和第二尺寸是不同的,第一纵横比和第二纵横比是不同的,并且策展布置的底部处的基本笔直的边界(例如,图6K的边界646C)由所述第一多个媒体项目中的相邻媒体项目的边缘形成。根据一些实施方案,设备部分地基于媒体项目(例如,图6K的编号为1、3、5、7和8的媒体项目)的尺寸从第一媒体项目集合中的媒体项目中选择媒体项目的策展子集。因此,设备(例如,设备600)通过基于策展集中的媒体项目的尺寸来选择策展集中的媒体项目,该设备可通过创建最大化用于显示图像的空间同时保持图像的原始尺寸的美学完整性的视图来利用给定的屏幕控件,从而节省了设备资源。
根据一些实施方案,设备接收与对包括在策展视图(例如,图6L中的策展视图649)中的媒体项目子集中的第三媒体项目(例如,图6L中编号为1的媒体项目)的选择相对应的用户输入。响应于接收到与对包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入,设备在显示器上显示第三媒体项目(例如,在图6M的一个向上视图654中,其中该媒体项显示在位置654A处)和搓擦示能表示(例如,图6M的搓擦示能表示654B),接收与该搓擦示能表示相对应的用户输入(例如,与图6M中的媒体项目656B相关联的输入)。响应于接收到与搓擦示能表示相对应的用户输入,设备用媒体项目的策展子集中的第四媒体项目(例如,图6M中编号为8的媒体项目)的显示替换第三媒体项目(图6M中编号为1的媒体项目)的显示,同时继续显示搓擦示能表示。在一些示例中,基于与搓擦示能表示相对应的用户输入的量值来选择第四媒体项目。因此,设备(例如,设备600)通过显示媒体项目并且提供允许在策展子集中的媒体项目之间进行简易导航的搓擦示能表示,该设备为用户提供查看集合中的较高质量图像的快速方式,而不必在较低质量或冗余的媒体项目中进行导航,从而减少对大量额外输入的需要和对显示器的额外使用,节省了设备资源和用户时间。
根据一些实施方案,在显示附加位置指示符之后,设备在显示器上显示第四示能表示(例如,图6O的隐藏附近照片示能表示662C),接收与选择第四示能表示相对应的用户输入,并且响应于接收到与选择第四示能表示相对应的用户输入,停止在地理地图视图中显示附加位置指示符(例如,停止图6O的位置指示符662B的显示并且返回到图6N的地理地图视图660的显示)。因此,设备(例如,设备600)通过显示为用户提供返回到浏览仅策展集的位置指示符的简易方式的示能表示,用户可更加有效地浏览减少的项目子集并且因此避免与在更大的媒体集合中进行导航相关联的大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,设备接收与选择位置指示符(例如,图6O中的位置指示符660B)相对应的用户输入,并且响应于接收到与选择位置指示符相对应的用户输入,用第五媒体项目的显示替换地理地图视图的显示(例如,显示如图6O所示的媒体项目664A)。因此,设备(例如,设备600)为用户提供从地理地图视图轻松访问媒体项目的一个向上显示的方式,因此用户可轻松浏览媒体项目和位置,而无需与访问单独的地图应用程序相关联的大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,设备接收与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入(例如,导航到图6R的收藏回忆相簿界面674),并且响应于接收到与查看所选媒体项目集合的列表中的媒体项目集合的表示的请求相对应的用户输入,在显示器上显示第一媒体项目集合的表示(例如,图6R的表示674A)。
应注意,上面参考方法700所述的过程(例如图7)的详情也以类似方式适用于下文所述的方法。例如,方法1000、1300和1600任选地包括上文参考方法700所述的各种方法的一个或多个特征。例如,可在显示根据方法1000、1300和1600访问的任何媒体项目集合时访问媒体项目的详细用户界面。为了简明起见,这些详情在下文中不再重复。
根据一些实施方案,图8示出了根据各种所述实施方案的原理进行配置的电子设备800的示例性功能框图。根据一些实施方案,电子设备800的功能块被配置为执行上文所述的技术。设备800的功能块任选地由执行各种所述示例的原理的硬件、软件,或硬件和软件的组合来实现。本领域的技术人员应当理解,图8中所述的功能块任选地被组合或被分离为子块,以实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图8所示,电子设备800包括被配置为显示图形用户界面的显示单元802,以及耦接到显示单元802的处理单元808。在一些实施方案中,处理单元808包括接收单元810和显示使能单元812。在一些实施方案中,处理单元808任选地包括生成单元814、识别单元816、选择单元818和关联单元820中的一者或多者。
处理单元被配置为:(例如,使用接收单元810)接收显示上下文相关媒体的请求;并且响应于该请求:根据确定设备处于第一上下文,(例如,使用显示使能单元812)使能在显示单元802上显示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的表示;并且根据确定设备处于第二上下文,(例如,使用显示使能单元812)使能在显示单元802上显示共享一组共同特征并且与第二上下文相关的第二媒体项目集合的表示,其中第二媒体项目集合与第一媒体项目集合不同。
在一些实施方案中,处理单元被进一步配置为:根据确定设备处于第一上下文,(例如,使用显示使能单元812)使能在显示单元802上显示共享一组共同特征并且与第一上下文相关的第三媒体项目集合的表示,其中第一媒体项目集合基于第一上下文属性与第一上下文相关,并且第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中第二上下文属性与第一上下文属性不同。
在一些实施方案中,第一媒体项目集合的表示是第一示能表示,并且处理单元被进一步配置为:(例如,使用接收单元810)接收与第一示能表示的选择相对应的用户输入;并且响应于接收到该用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示包括第一媒体项目集合的至少一部分的详细用户界面。
在一些实施方案,第一媒体项目集合的表示包括选自第一媒体项目集合中的媒体项目的缩小比例版本。
在一些实施方案中,处理单元被进一步配置为:(例如,使用生成单元814)生成与第一媒体项目集合相关联的文本标识符;(例如,使用识别单元816)识别所选媒体项目中的面部,其中所选媒体项目是图像;(例如,使用显示使能单元812)使能在显示单元802上显示覆盖在第一媒体项目集合的表示上的文本标识符,其中覆盖文本标识符不与显示为第一媒体项目集合的表示的所选媒体项目中的所识别面部重叠。
在一些实施方案中,与第一媒体项目集合相关联的文本标识符基于第一媒体项目集合与第一上下文的相关性来选择,并且包括解释第一媒体项目集合与第一上下文的相关性的一个或多个字词。
在一些实施方案中,处理单元被进一步配置为:在显示详细用户界面之前,(例如,使用显示使能单元812)使能在显示单元802上显示视觉上占据显示器的第一部分的第一媒体项目集合的表示;在接收到与第一示能表示的选择相对应的用户输入之后,并且在显示详细用户界面时,(例如,使用显示使能单元812)使能在显示单元802上显示视觉上占据显示器的第二部分的第一媒体项目集合的关键媒体项目,该显示器的第二部分不同于显示器的第一部分;并且进一步响应于接收到与第一示能表示的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示第一媒体项目集合的表示过渡到关键媒体项目的动画过渡。
在一些实施方案中,处理单元被进一步配置为:在显示详细用户界面时,(例如,使用显示使能单元812)使能在显示单元802上显示包括第一媒体项目集合中的多个媒体项目的幻灯片;(例如,使用接收单元810)接收与幻灯片的选择相对应的用户输入;并且响应于接收到与幻灯片的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示包括第一媒体项目集合中的多个媒体项目的视频,其中幻灯片和视频是不同的。
在一些实施方案中,处理单元被进一步配置为:(例如,使用接收单元810)接收与编辑幻灯片的请求相对应的用户输入;并且响应于接收到与编辑幻灯片的请求相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示幻灯片编辑用户界面。
在一些实施方案中,详细用户界面包括第一区域,该第一区域包括策展视图,该策展视图包括第一媒体项目集合中的媒体项目子集,并且选择媒体项目子集以便排除较低质量照片。
在一些实施方案中,第一区域还包括第二示能表示,处理单元被进一步配置为:(例如,使用接收单元810)接收与第二示能表示的选择相对应的用户输入;并且响应于接收到与第二示能表示的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示扩展视图,该扩展视图包括第一媒体项目集合中在接收到与第二示能表示的选择相对应的输入之前未显示的附加媒体项目的表示。
在一些实施方案中,策展视图中的媒体项子集基于与媒体项目子集的媒体项目相关联的时间来按时间顺序布置。
在一些实施方案中,包括在策展视图中的媒体项目子集以策展布置结构来布置,并且包括在媒体项目的策展布置中的媒体项目子集被布置成使得媒体项目的边缘对齐以便在策展布置的顶部和底部处产生基本笔直的边界。
在一些实施方案中,策展布置的底部处的基本笔直的边界由包括在策展视图中的第一多个媒体项目子集形成。
在一些实施方案中,所述第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中第一尺寸和第二尺寸是不同的,其中第一纵横比和第二纵横比是不同的,并且其中策展布置的底部处的基本笔直的边界由所述第一多个媒体项目中的相邻媒体项目的边缘形成。
在一些实施方案中,处理单元被进一步配置为:(例如,使用选择单元818)部分地基于媒体项目的尺寸从第一媒体项目集合中的媒体项目中选择媒体项目的策展子集。
在一些实施方案中,处理单元被进一步配置为:(例如,使用接收单元810)接收与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入;响应于接收到与包括在策展视图中的媒体项目子集中的第三媒体项目的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示第三媒体项目和搓擦示能表示;(例如,使用接收单元810)接收与搓擦示能表示相对应的用户输入;并且响应于接收到与搓擦示能表示相对应的用户输入,(例如,使用显示使能单元812)在显示单元802上用媒体项目的策展子集中的第四媒体项目的显示替换第三媒体项目的显示,同时继续显示搓擦示能表示。
在一些实施方案中,详细用户界面包括第二区域,该第二区域包括地理地图,并且显示详细用户界面还包括:(例如,使用显示使能单元812)使能在显示单元802上显示地理地图上对应于与第一媒体项目集合中的第五媒体项目相关联的位置的位置指示符。
在一些实施方案中,处理单元被进一步配置为:在显示地理地图时,(例如,使用显示使能单元812)使能在显示单元802上显示第三示能表示;(例如,使用接收单元810)接收与第三示能表示的选择相对应的用户输入;并且响应于接收到与第三示能表示的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示地理地图视图中与未包括在第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
在一些实施方案中,处理单元被进一步配置为:在显示附加位置指示符后,(例如,使用显示使能单元812)使能在显示单元802上显示第四示能表示;(例如,使用接收单元810)接收与第四示能表示的选择相对应的用户输入;并且响应于接收到与第四示能表示的选择相对应的用户输入,停止在显示单元802上(例如,使用显示使能单元812)显示地理地图视图中的附加位置指示符。
在一些实施方案中,处理单元被进一步配置为:(例如,使用接收单元810)接收与位置指示符的选择相对应的用户输入;并且响应于接收到与位置指示符的选择相对应的用户输入,在显示单元802上用第五媒体项目的显示替换地理地图视图的显示(例如,使用显示使能单元812)。
在一些实施方案中,详细用户界面包括第三区域,该第三区域包括与在第一媒体项目集合中的媒体项目中识别的面部相对应的指示符;并且处理单元被进一步配置为:(例如,使用接收单元810)接收对应于与所识别面部对应的指示符的选择的用户输入;并且响应于接收到与所识别面部相对应的指示符的选择相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示第四媒体项目集合,其中第四媒体项目集合中的媒体项目各自包括所识别的面部。
在一些实施方案中,详细用户界面包括包含共享一组共同特征的第五媒体项目集合的表示的第四区域,第五媒体项目集合中的媒体项目与第一媒体项目集合中的媒体项目共享第一特征,并且该处理单元还被进一步配置为:(例如,使用接收单元810)接收到与对第五媒体项目集合的表示的选择相对应的用户输入;并且响应于接收到与第五媒体项目集合的选择的表示相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示包括第五媒体项目集合的详细用户界面。
在一些实施方案中,处理单元进一步配置为:在显示包含第一媒体项目集合的详细用户界面后,(例如,使用接收单元810)接收表示共享一组共同特征的第六媒体项目集合的数据,其中第六媒体项目集合与第一媒体项目集合不同;(例如,使用接收单元810)接收对应于显示包括第一媒体项目集合的详细用户界面的请求的用户输入;并且响应于接收到与显示包括第一媒体项目集合的详细用户界面的请求相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示详细用户界面和第四区域中的第六媒体项目集合的表示。
在一些实施方案中,处理单元被进一步配置为:在显示包括第一媒体项目集合的详细用户界面的同时,(例如,使用显示使能单元812)使能在显示单元802上显示第五示能表示;(例如,使用接收单元810)接收与第五示能表示的选择相对应的用户输入;并且响应于接收到与第五示能表示的选择相对应的用户输入,(例如,使用关联单元820)将第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
在一些实施方案中,处理单元被进一步配置为:(例如,使用接收单元810)接收到与查看所选媒体项目集合的列表的媒体项目集合的表示的请求相对应的用户输入;并且响应于接收到与查看所选媒体项目集合的列表的媒体项目集合的表示的请求相对应的用户输入,(例如,使用显示使能单元812)使能在显示单元802上显示第一媒体项目集合的表示。
上文参考图7A-图7E所述的操作任选地由图1A-图1B或图8中描绘的部件来实现。例如,接收操作702和显示操作706任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测在触敏显示器112上的接触,并且事件分配器模块174将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义的事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
始终可用的相关内容视图
在一些实施方案中,如上所述的示例性回忆详细视图的内容和组织也可用于展示与各个媒体项目相关的内容,因此不限于与媒体项目集合一起使用。
图9A-图9L示出了根据一些实施方案的用于查看与媒体项目相关的内容的示例性用户界面。这些附图中的用户界面被用于示出包括图10A-图10D中的过程的下文描述的过程。
图9A示出了设备900的媒体浏览界面902中的示例性媒体项目集合。在一些实施方案中,设备900包括设备100、设备300、设备500或设备600的一个或多个特征。媒体浏览界面902描绘了多个媒体项目。在该示例中,媒体浏览界面902没有描绘回忆详细视图中的媒体项目集合。相反,媒体浏览界面902描绘了用于浏览媒体项目的更传统的界面。例如,用户正在浏览与其设备(例如,选择了相簿标签902B)相关联的所有媒体项目(例如,照片、视频)。在一些示例中,当显示媒体项目时,其伴随有显示位置和日期的横幅(例如,媒体浏览界面902中的Nordurland vestra&Sedurland,Iceland和7月22日至25日)。通常,以此类方式浏览允许用户按时间顺序滚动和查看媒体项目。然而,界面902不提供可增强媒体项目界面的可用性的相关内容,用户被迫执行过度导航来寻找与浏览的媒体项目相关的内容,这可能耗时和浪费设备资源。
根据一些实施方案,设备900接收对一系列的视觉媒体项目的第一视觉媒体项目的选择。例如,在媒体浏览界面902中,设备900接收媒体项目902A的选择。媒体项目902A为一系列视觉媒体项目的示例性第一视觉媒体项目,其中该系列由媒体浏览用户界面所描绘的照片组成,该系列从左上角开始,按顺序包括右边的每个媒体项目(并为每行重复以形成媒体项目的单个系列)。在一些示例中,该系列仅包括与特定位置和/或特定日期范围共享关联的媒体项目。例如,该实施方案中的该系列媒体项目任选地仅包括在冰岛以及7月22日至25日之间捕捉的媒体项目。
根据一些实施方案,设备900显示了一系列的视觉媒体项目的第一视觉媒体项目。例如,在图9A中,设备900显示媒体项目904A的一个向上视图904。在一些示例中,设备900在媒体浏览界面显示一个向上视图以响应媒体项目的选择。在一些示例中,所显示的项目是照片或视频。一个向上视图904还包括搓擦示能表示904B。一个向上视图904和搓擦示能表示904B可以分别类似于图6M的一个向上视图654和656以及搓擦示能表示654B和656B,并且因此据此引入与其特征相关的描述。
根据一些实施方案,在显示第一视觉媒体项目时,设备900接收包括在相应方向上的移动的用户输入。例如,在图9A的一个向上视图904处,设备900接收与向上方向上的轻扫手势相对应的用户输入。根据一些实施方案,响应于接收用户输入,设备900确定用户输入是否对应于第一方向上的轻扫手势。在该示例中,第一方向是向上方向(例如,当显示的内容被正确地如预期定向为用于查看时,朝向显示器顶部边缘)。在一些示例中,第一方向是向上方向,但是因为设备900在制成的横向中定向,所以向上方向朝向显示器的侧面边缘(例如,长边缘)。在一些示例中,手势方向是任何合适的方向。
根据一些实施方案,根据用户输入对应于第一方向上的轻扫手势的确定,设备900显示详细用户界面,其包括与第一视觉媒体项目相关的内容,所述内容已被确定与第一视觉媒体项目相关。例如,响应于向上轻扫,设备900显示包括与第一视觉媒体相关的内容的媒体项目详细界面。在图9B中描绘的示例中,设备900显示响应于接收的向上轻扫的示例性媒体项目详细界面906(在一个向上视图904处)。
媒体项目详细界面906包括与第一视觉媒体项目相关的内容(例如,图9A的媒体项目904A)。相关内容包括媒体项目、媒体项目(例如,回忆)集合、位置和识别的面部中的一者或多者。
根据一些实施方案,第一视觉媒体项目的相关内容包括按第一类别组织的相关内容的一个或多个表示以及按第二类别组织的相关内容的一个或多个表示。例如,图9B的媒体项目详细界面906包括组织的(例如,视觉上分组在一起的)内容,依据内容位置(例如,标题“地点”下面的地图区域)以及依据是媒体项目集合的内容(例如,标题“相关回忆”下的相关回忆区域)。相关内容的类别的其他示例包括按内容时间(例如,按日期)组织的以及按内容中识别的人物(例如,按“人物”标题下的人物)组织的类别
根据一些实施方案,第一类别与第二类别不同。如上所述并且如图9B所示,例如示例性第一类别是内容的位置,示例性第二类别是作为媒体项目集合组织的内容。
图9C示出了示例性媒体项目详细界面906。在一些示例中,媒体项目详细界面包括其对应媒体项目的一部分的显示。例如,这可为用户提供有用的视觉参考以识别当前媒体项目,为此相关内容正在被查看。在一些示例中,所显示部分可用于快速重新显示媒体项目(例如在一个向上视图中,例如通过在该部分上轻扫或轻击)。示例性媒体项目详细界面906包括对应媒体项目904A的一部分。在一些示例中,媒体项目详细界面包括人物区域(例如,人物区域908)、地点区域(例如,地点区域910,包括位置指示符910A)和相关的回忆区域(例如,相关回忆区域912,包括相关回忆912A)中的一者或多者。这些特征的描述以及参考图6A-图6R并入在本文中。
因此,根据一些实施方案,第一视觉媒体项目的媒体项目详细界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,所述详细用户界面参考图6A-图6R中的用户界面以及图7的参考方法700进行描述,但面部、相关回忆、位置、选择的关键媒体项目基于第一视觉媒体项目。
根据一些实施方案,在触敏表面上与第一视觉媒体项目相对应的位置处检测到用户输入。例如,如图9A-图9B所描绘的,设备900在对应于视觉媒体项目904A的位置处接收触敏表面(例如,触敏显示器)上的用户输入(例如,在显示的照片上接收的输入)。
图9D-图9E描绘了导航以显示另一媒体项目以及访问该媒体项目的回忆详细视图。根据一些实施方案,包括在相应方向上的移动的用户输入是第一用户输入。在显示第一视觉媒体项目时,设备900接收包括相应方向上的移动的第二用户输入。设备900确定第二用户输入是否对应于不同于第一方向的第二方向上的轻扫手势,并且根据确定用户输入对应于第二方向上的轻扫手势,设备900用视觉媒体项目的系列的第二视觉媒体项目的显示替换第一视觉媒体项目的显示。例如,在图9D的示例性一个向上视图914A中的示例性第一媒体项目916的显示中,设备900接收与水平方向(例如,从左到右)的轻扫相对应的输入。在该示例中,因为第一用户输入是竖直轻扫(例如,向上轻扫),每个的方向是不同的。一个向上视图914B描绘了如可看到的中间显示,当手势在第二方向上移动(例如,从左到右)时,设备900显示媒体项目918的一部分。在一个向上视图914B处,媒体916被移动到右边和离开显示器,而媒体项目918被移动到右边和移动到显示器上。一个向上视图914C示出了在第二用户输入手势完成后媒体项目918的示例性一个向上视图。重新参考图9A的媒体浏览界面902,媒体项目918对应于在媒体浏览界面902的媒体项目的系列中相邻的媒体项目。例如,在图9D的媒体项目916的缩小比例版本的相邻处和左侧看到媒体项目918的缩小比例版本,因此当用户在媒体项目916处从右向左轻扫时,在媒体项目的系列中获得相邻的媒体项目,即媒体项目918。因此,使用第二方向上的手势,用户可从一个向上视图快速访问一系列视图中的下一张照片。
根据一些实施方案,第一视觉媒体项目连同用于导航媒体项目的系列的搓擦示能表示一起显示。例如,图9E中描绘了搓擦示能表示920。响应于搓擦示能表示的选择,用户可在媒体项目的系列中进行导航。搓擦示能表示920的操作类似于图6M的搓擦示能表示654B和656B,据此引入对其的描述。
根据一些实施方案,详细用户界面是第一详细用户界面,并且在显示第二视觉媒体项目时,设备900接收包括在相应方向上的移动的第二用户输入。设备900确定第二用户输入是否对应于第一方向上的轻扫手势,并根据确定用户输入对应于第一方向上的轻扫手势,设备900显示第二详细用户界面,其包括与第二视觉媒体项目相关的内容,所述内容已被确定为与第二视觉媒体项目相关。例如,在图9E的一个向上视图914C处,设备900接收竖直轻扫(例如,向上轻扫),并在一个向上视图914D处显示媒体项目详细界面922。媒体项目详细界面922的特征与上文描绘的关于图9B的媒体项目详细用户界面906的相同。
根据一些实施方案,第二视觉媒体项目的相关内容不同于第一媒体项目的相关内容。例如,扩展的示例性媒体项目详细界面914D如图9F所示。媒体项目详细界面914D包括人物区域924(包括面部指示符924A,也称为“人物指示符”),地点区域926(包括位置指示符926A)和相关的回忆区域928(包括相关的回忆表示928A)。在该示例中,第二视觉媒体项目的相关内容不同于第一视觉媒体项目。例如,人物区域924现在包括面部指示符924A,将照片中的女人识别为名为“Anne”的人。想起该示例中的第一视觉媒体(图9A的904A)描绘了马,因此在其相应的人物区域中没有指示符(例如,图9B的媒体项目详细界面906)。在一些实施方案中,如果在媒体项目中没有识别出面部或人物(或者此类信息不可用),则不显示人物区域。
在一些实施方案中,第二视觉媒体项目的相关内容包括按第三类别组织的相关内容的一个或多个表示以及按第四类别组织的相关内容的一个或多个表示。例如,第三类别和第四类别与上文关于第一类别和第二类别描述的类别类似。例如,可通过内容的时间组织第三类别,并可通过内容中标识的人物组织第四类别。在一些示例中,第三类别不同于第四类别。在一些示例中,第二视觉媒体的相关内容与第一媒体项目的相关内容不同-例如,第二张照片具有与第一张照片不同的相关回忆,即不同的面部。
根据一些实施方案,第二视觉媒体项目的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,所述详细用户界面参考图6A-图6R中的用户界面以及图7的参考方法700进行描述,但面部、相关回忆、位置、选择的关键媒体项目基于第二视觉媒体项目。
如以上关于人物区域的描述,媒体系列中的两个相邻媒体项目(例如,照片、视频)可具有不同的相关内容。这可能是由于,例如在每个媒体项目中识别的不同面部,与每个媒体项目相关联的不同位置,对应于每个媒体项目的不同日期,每个媒体项目中描绘的不同场景(例如,一个媒体项目描绘了海滩而另一个媒体项目描绘了森林)等,并因此将使每个媒体项目具有不同的相关内容。在一些示例中,媒体项目系列包括来自各种上下文的媒体项目,并且因此相邻媒体项目可能不共享任何特征组。例如,如果用户正在浏览设备上的所有照片,系列中的两个相邻媒体项目(例如,所有照片)可以(上下文)完全不相关,因为它们是与不同事件相对应的相邻的第一张照片和最后一张照片。
图9G和图9H示出了从一个向上视图导航回到一系列媒体项目的显示。根据一些实施方案,在显示第一视觉媒体项目时,设备900接收包括在相应方向上的移动的第三用户输入。设备900确定第三用户输入是否对应于第三方向上的轻扫手势,是否与第一和第二方向不同,并且根据确定第三用户输入对应于第三方向上的轻扫手势,显示视觉媒体项目系列的媒体项目的缩小比例版本。例如,在图9G的一个向上视图930中,设备900接收媒体项目930A上的竖直轻扫(例如,向下轻扫)。作为响应,设备900显示媒体浏览界面932。如图9G所示,设备900显示媒体项目930A,该媒体项目在一个向上视图930中显示,动画过渡到媒体浏览界面932的其对应位置中(例如,在缩略图932A处)。在该示例中,示例性第三用户输入在不同于示例性第一(例如,向上)和第二(例如,从左向右)输入的方向上(例如,向下)。
根据一些实施方案,使用本文所述的技术,用户可使用向上轻扫来访问详细用户界面(例如,包含相关内容)或使用向下轻扫来返回到用于显示一系列媒体项目中的多个媒体项目的界面(例如,在时间顺序列表中)。
根据一些实施方案,该系列视觉媒体项目中的媒体项目的缩小比例版本按时间顺序布置。例如,如上所述,图9A的媒体浏览界面902中描绘的该系列媒体项目描绘了按时间顺序布置的媒体项目。
根据一些实施方案,该系列视觉媒体项目中的媒体项目的缩小比例版本通过与每个相应视觉媒体项目相关联的地理位置来在视觉上分组。例如,如上所述,媒体浏览界面902中的该系列的视觉媒体项目中的媒体项目部分地基于地理位置来分组。在一些示例中,该系列视觉媒体项目中的媒体项目基于时间和/或日期来在视觉上分组。例如,项目可被分组为时刻,其具有共享地理位置和时间段上下文属性的媒体项目。
根据一些实施方案,在显示第二视觉媒体项目时,设备900接收包括在相应方向上的移动的第四用户输入。设备900确定第四用户输入是否对应于第三方向上的轻扫手势,并且根据确定用户输入对应于第三方向上的轻扫手势,显示视觉媒体项目系列的媒体项目的缩小比例版本。例如,图9H描绘了与上文相对于图9G描述的相同操作,不同之处在于在相邻媒体项目—媒体项目934A的一个向上视图934处接收向下轻扫。响应于向下轻扫,设备900显示与响应于媒体项目930A上的轻扫手势而显示的相同的媒体浏览界面932。类似地,媒体项目934A任选地动画过渡到媒体浏览界面932的其对应位置中(例如,在缩略图932B处)。因此,根据一些实施方案,用户可轻松访问每个媒体项目的相关内容(每个项目的相关内容可以是不同的)或以缩小比例版本(每个项目的缩小比例版本可以是相同的)访问若干媒体项目的显示。
根据一些实施方案,第一视觉媒体项目的相关内容的表示不按时间顺序布置。例如,示例性媒体项目详细界面906包括按时间顺序布置的相关内容的表示。例如,与地点相对应的相关内容被排列在与相关回忆对应的相关内容上方,因此按类别排列而不是按年代排序。此外,在该示例中,包括在回忆区域912中的相关回忆表示(例如,表示912A)未按时间顺序排序—相反,相关回忆可基于与第一媒体项目的相关性来排列(例如,首先是最相关的)。
图9I和图9J示出了当媒体项目在一个向上视图中缩放时访问媒体项目详细界面。在一些实施方案中,当设备900接收查看媒体项目详细界面的用户输入请求时,设备900以与上述略微不同的方式进行响应。
根据一些实施方案,在显示第一视觉媒体项目时,设备900接收包括在第一方向上的移动的第五用户输入。作为响应,根据确定第一视觉媒体项目被放大超过预先确定的阈值,设备900根据第五用户输入在显示器上移动第一视觉媒体项目而不显示详细用户界面。例如,响应于第五用户输入,并且根据确定第一视觉媒体项目的至少一个尺寸大于显示器的尺寸,设备900移动第一视觉媒体项目而不显示媒体项目详细界面,即使手势处于第一方向上(例如,向上轻扫)。在图9I描绘的示例中,示例性媒体项目936A以缩放视图(例如,其尺寸中的一个或多个尺寸超过显示器的尺寸)示出在界面936处,并且接收到示例性第五用户输入(例如,向上轻扫)。响应于向上轻扫,媒体项目936A已在显示器上移动,然而不作为响应而显示媒体项目详细界面。因此,如果照片被缩放,例如,则设备900移动(例如,移位、平移、转移)照片,但不显示媒体项目详细界面。
根据一些实施方案,进一步根据确定第一视觉媒体项目被放大超过预先确定的阈值,设备900调节媒体的显示尺寸,使得其不被放大超过预先确定的阈值。例如,如果照片被缩放,则设备900取消所显示的照片的图形变化(例如,通过减小照片的比例来从所显示照片缩小),但不响应于第一方向上的第五用户输入而显示媒体项目详细界面。例如,响应于图9I所示的用户输入,设备900显示图9J的一个向上视图938,示出了取消图形变化的图9I的媒体项目936A(例如,标记为图9J的媒体项目938A)。
进一步响应于包括在第一方向上的移动的第五用户输入,根据确定第一视觉媒体项目未被放大超过预先确定的阈值,设备900根据第五用户输入在显示器上移动第一视觉媒体项目并显示详细用户界面。例如,如果媒体项目的至少一个尺寸不大于显示器的尺寸,则如果手势处于第一方向上(例如,向上轻扫),设备900移动第一视觉媒体项目并显示媒体详细界面。因此,在该示例中,如果媒体项目未被缩放,则显示媒体项目详细界面。例如,该操作在包括媒体项目详细界面941的一个向上视图940中示出。在该示例中,当接收到向上轻扫手势时,设备900正在一个向上视图938中显示取消图形变化的媒体项目938A,并且响应而显示界面941。
根据一些实施方案,如果检测到包括在第一方向上的移动的后续输入,则设备900根据后续用户输入在显示器上移动第一视觉媒体项目并显示详细用户界面,即使第一视觉媒体项目被放大超过预先确定的阈值。例如,设备900移动媒体项目并显示媒体项目详细界面。例如,响应于接收到图9I所示的向上轻扫手势,设备900显示媒体项目936A的媒体详细用户界面941,如图9J所示。
根据一些实施方案,详细用户界面包括第一区域,该第一区域包括由第一类别组织的相关内容,并且第一类别是在第一视觉媒体项目中识别的面部,并且其中第一区域包括来自第一视觉媒体项目的所识别面部。例如,设备900显示如图9F的媒体项目详细界面922所示的人物区域924,该人物区域包括所识别面部指示符924A。
根据一些实施方案,设备900接收与所识别面部的选择相对应的用户输入,并且作为响应,显示第一媒体项目集合,其中选择第一媒体项目集合中的每个项目以便包括所识别面部。例如,设备900显示所识别面部的人物详细用户界面,如上文参考图6P所述。
根据一些实施方案,第一区域是人物区域。上文参考至少图6J和图6P描述了人物区域的特征,所述特征也适用于媒体项目详细界面中的人物区域。因此,上述特征中的一个或多个可以包括在媒体项目详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,详细用户界面包括第二区域,该第二区域包括由第二类别组织的相关内容,其中第二类别是位置,并且其中第二区域包括地理地图,该地理地图包括对应于与第一视觉媒体项目相关联的位置的位置指示符。例如,媒体项目详细界面包括地图区域,如上文参考图6N所述,该地图区域包括地理地图。在该示例中,示例性详细用户界面地图区域942A示出在图9K的媒体项目详细界面942中。图9F的媒体项目详细界面922还描绘了示例性地图区域926,该示例性地图区域包括与该示例中的第一视觉媒体项目的位置相对应的示例性指示符926A。
根据一些实施方案,第二区域是地图区域。上文参考至少图6J、图6N和图6O描述了地图区域的特征,所述特征也适用于媒体项目详细界面中的地图区域。因此,上述特征中的一个或多个可以包括在媒体项目详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,设备900接收与第二区域的选择相对应的用户输入,并且作为响应,显示地图用户界面,该地图用户界面包括与第一视觉媒体相关联的位置的视觉表示。例如,在图9K的媒体详细用户界面942处,设备900接收地图区域942A的用户输入选择,并且作为响应,显示示例性地图用户界面944,该地图用户界面包括与第一视觉媒体相关联的位置的表示。地图用户界面944包括地理地图946和地址948。在一些实施方案中,地图用户界面包括与媒体项目相关联的地址(例如,诸如地址948)。因为用户正在查看单个媒体项目的详情,所以设备900显示特定媒体项目的确切地址。因此,与可包括许多地址的针对集合的地理地图相比,针对媒体项目的地图用户界面可包括具有高等级详情(例如,以地址为中心)的地图。例如,地理地图946被显示为放大到地址948的地图位置。
根据一些实施方案,设备900接收与地址的选择相对应的用户输入,并且作为响应,显示地图应用程序的用户界面。例如,响应于地图用户界面944的地址948或地图946的选择,设备900显示地图应用程序的用户界面。因此,用户可继续与媒体项目的地址进行交互,诸如通过获得去往该地址的方向。
根据一些实施方案,详细用户界面包括第三区域,该第三区域包括由第三类别组织的相关内容,其中第三类别是共享一组共同特征的视觉媒体项目集合。根据一些实施方案,第三类别包括共享一组共同特征的第二视觉媒体项目集合的表示。例如,设备900显示如图9F的媒体项目详细界面922所示的相关回忆区域928,该相关回忆区域包括相关回忆的表示928A、共享一组共同特征的第二视觉媒体项目集合的示例性表示。媒体项目详细用户界面942还描绘了相关回忆区域942B。
根据一些实施方案,第二视觉媒体项目集合中的视觉媒体项目与第一视觉媒体项目共享第一特征,设备900接收与第二视觉媒体项目集合的表示的选择相对应的用户输入,并且作为响应,设备900显示第二视觉媒体项目集合中的视觉媒体项目的表示。例如,在图9K的媒体项目详细视图942处,设备900接收表示942D的选择,并且作为响应,显示与该表示相对应的回忆的回忆详细视图。在一些示例中,设备900在包括第二视觉媒体项目集合的子集的侧展视图中显示回忆,如上所述。
根据一些实施方案,第三区域是相关回忆区域。上文参考至少图6J、图6Q和图6R描述了相关回忆区域的特征,所述特征也适用于媒体项目详细界面中的相关回忆区域。因此,上述特征中的一个或多个可以包括在媒体项目详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,第二视觉媒体项目集合排除第一视觉媒体项目。例如,显示在媒体项目详细界面中的相关回忆不一定需要包含该媒体项目。因此,根据一些实施方案,设备900不仅仅示出媒体项目为其一部分的用户集合,但还基于一些上下文属性示出与媒体项目相关的至少一个集合。这样,相关回忆特征远超简单地显示包括媒体项目的集合,从而为用户在查看媒体项目时提供更丰富的浏览体验。
图9A、图9B和9K示出了显示的滚动以显示出示例性媒体项目详细用户界面。根据一些实施方案,为了显示包括第一视觉媒体项目的相关内容的详细用户界面,设备900在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面。例如,重新参考图9A和图9B,设备900在手势的方向上(例如,向上)滚动第一媒体项目(例如,904A)。
根据一些实施方案,为了在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面,设备900在第一方向上滚动显示的第一视觉媒体项目,直到第一视觉媒体项目的仍然显示的部分是第一视觉媒体项目的预先确定的部分。例如,设备900继续滚动,直到描绘出图9B中的详细用户界面906,直到显示图9K的媒体项目详细视图942中所描绘的位置。媒体项目详细视图942描绘了显示的第一媒体项目的示例性预先确定的部分942C。在滚动直到预先确定的部分是显示的部分之后,设备900停止滚动第一视觉媒体项目,并且继续滚动以显示出详细用户界面,同时第一媒体项目的预先确定的部分保持静止。例如,如果设备900继续在第一方向上(例如,向上)滚动,则预先确定的部分942C保持静止,同时回忆详细用户界面942B的区域(例如,942B和942C)继续向上滚动(例如,并且看起来像是在部分942C下滑动并在该部分下消失)。在一些示例中,预先确定的部分是特定的量的第一媒体项目(例如,固定的线性尺寸、媒体项目的线性尺寸的比例、媒体项目的面积的比例等)。
根据一些实施方案,第一视觉媒体项目为图像或视频。
根据一些实施方案,详细用户界面是安装在设备900上的应用程序的界面,并且其中能够在显示使用应用程序显示的任何视觉媒体项目时访问详细用户界面。例如,如上所述,在照片应用程序的任何界面中的任何媒体项目的一个向上(例如,全屏)显示时任选地访问媒体项目详细界面。
图10是示出根据一些实施方案的用于使用设备来查看与媒体项目相关的内容的方法的流程图。在具有显示器和触敏表面的设备(例如,100、300、500)处执行方法1000。方法1000中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1000提供了用于查看与媒体项目相关的内容的直观方式。该方法减轻了用户在定位与媒体项目相关的相关内容时的认知负担,从而创建了一种更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快更有效地浏览媒体项目和相关内容,节省了功率并且增加了电池两次充电之间的时间间隔。
设备在显示器上显示(1002)一系列视觉媒体项目(例如,在图9A的媒体浏览界面902处表示的一系列视觉媒体项目)中的第一视觉媒体项目(例如,图9A中的视觉媒体项目904A)。根据一些实施方案,第一视觉媒体项目的相关内容的表示不按时间顺序布置。根据一些实施方案,设备在显示第一视觉媒体项目时接收包括在第一方向上的移动的第五用户输入(例如,在904A上的竖直或向上轻扫,如图9A所描绘的)。响应于接收到第五用户输入,设备根据确定第一视觉媒体项目被放大超过预先确定的阈值(例如,图9I中的缩放媒体项目936A)而根据第五用户输入在显示器上移动(例如,如果轻扫是向上的,则向上移动)第一视觉媒体项目(例如,如图9I所示)而不显示详细用户界面(例如,如图9I所示),并且根据确定第一视觉媒体项目未被放大超过预先确定的阈值(例如,图9J的取消图形变化的媒体项目938A)而根据第五用户输入在显示器上移动第一视觉媒体项目(例如,如图9J所示)并在显示器上显示详细用户界面(例如,图9J中的详细用户界面941)。在一些示例中,如果检测到包括在第一方向上的移动的后续输入,则设备根据后续用户输入在显示器上移动第一视觉媒体项目并显示详细用户界面,即使第一视觉媒体项目被放大超过预先确定的阈值。根据一些实施方案,第一视觉媒体项目为图像或视频。因此,设备(例如,设备900)通过在媒体项目未被放大超过预先确定的阈值时显示媒体项目的详细用户界面但当媒体项目被放大超过预先确定的阈值时不显示媒体项目的详细用户界面来防止与缩放照片的平移相对应的用户动作意外地导致详细用户界面被显示(这会需要额外的用户输入来撤销),节省了设备资源和用户时间。
在显示第一视觉媒体项目(例如,图9D的媒体项目916)时,设备接收(1004)包括相应方向上的移动的用户输入。根据一些实施方案,包括相应方向上的移动的用户输入是第一用户输入,并且设备在显示第一视觉媒体项目时接收(1012)包括相应方向上的移动的第二用户输入,确定(1012)第二用户输入是否对应于不同于第一方向(例如,向上轻扫)的第二方向上的轻扫手势(例如,图9D和图9E中描绘的从左向右的轻扫),并且根据确定用户输入对应于第二方向上的轻扫手势(例如,水平轻扫),用该系列视觉媒体项目中的第二视觉媒体项目(例如,图9E的媒体项目918)的显示替换(1012)第一视觉媒体项目的显示。在一些示例中,第一视觉媒体项目连同用于在该系列媒体项目中进行导航的搓擦器(例如,图9E的搓擦示能表示920)一起显示。因此,设备(例如,设备900)通过在显示媒体项目时显示用轻扫手势访问的媒体项的详细用户界面来允许用户以优化用于呈现相关内容的形式快速查看相关的和上下文相关的内容,而不是用户不得不手动确定和检索相关的媒体项目,节省了设备资源和用户时间。
根据一些实施方案,详细用户界面是第一详细用户界面(例如,图9C的详细用户界面906)。根据一些实施方案,设备在显示第二视觉媒体项目(例如,在图9E的一个向上视图914C处的媒体项目918)时接收(1014)包括相应方向上的移动的第二用户输入(例如,图9E所描绘的向上轻扫),确定第二用户输入是否对应于第一方向上的轻扫手势(例如,竖直轻扫),并且根据确定用户输入对应于第一方向上的轻扫手势,在显示器上显示(1014)包括已被确定为与第二视觉媒体项目相关的第二视觉媒体项目的相关内容(例如,区域928中的相关回忆,识别图9F的区域924中的人物)的第二详细用户界面(例如,图9F的详细用户界面922),其中第二视觉媒体项目的相关内容与第一媒体项目的相关内容不同。在一些示例中,第二视觉媒体项目的相关内容包括由第三类别组织(例如,由内容的时间组织)的相关内容的一个或多个表示和由第四类别组织(例如,由内容中识别的人物组织、由内容的位置组织)的相关内容的一个或多个表示。在一些示例中,第三类别不同于第四类别(例如,在图9F中,类别为人物、地点、相关回忆)。在一些示例中,第二视觉媒体的相关内容不同于第一媒体项目的相关内容。在一些示例中,第二视觉媒体项目的详细用户界面(例如,图9F的媒体项目详细界面922)具有一个或多个与本文描述的第一集合的详细用户界面(例如,详细用户界面906)相同的部分,所述详细用户界面参考方法700进行描述,但面部、相关回忆、位置和/或选择的关键媒体项目基于第二视觉媒体项目。因此,设备(例如,设备900)通过从第一媒体项目的显示响应于轻扫手势而显示第二媒体项目来允许用户快速访问其他媒体项目和查看这些媒体项目的不同相关的和上下文相关的内容,减少了访问多个媒体项目中的每一者的不同上下文相关的内容所需的过多的用户输入的数量,从而节省了设备资源和用户时间。
根据一些实施方案,设备在显示第一视觉媒体项目(例如,图9G的媒体项目930A)时接收包括相应方向上(例如,向下)的移动的第三用户输入(例如,图9G所示的向下轻扫),确定第三用户输入是否对应于不同于第一(例如,向上)和第二方向(例如,从右向左)的第三方向上的轻扫手势,并且根据确定第三用户输入对应于第三方向上的轻扫手势,在显示器上显示该系列视觉媒体项目中的媒体项目的缩小比例版本(例如,显示如图9G所示的媒体浏览界面632,该界面包括该系列中的媒体项目的缩小比例版本)。因此,设备(例如,设备900)通过响应于轻扫而显示一系列媒体项目中的媒体项目的缩小比例版本来允许在媒体项目的一个向上显示和缩小比例显示之间进行快速导航,允许了用户进行加速导航,从而减少了使用显示器的时间,节省了设备资源。
根据一些实施方案,该系列视觉媒体项目中的媒体项目的缩小比例版本(例如,在图9A的媒体浏览界面902处表示)按时间排列。根据一些实施方案,该系列视觉媒体项目中的媒体项目的缩小比例版本通过与每个相应视觉媒体项目相关联的地理位置来在视觉上分组。(例如,被分组为时刻,如图9H的界面932所描绘的)。根据一些实施方案,设备在显示第二视觉媒体项目(例如,媒体项目904)时接收包括相应方向上的移动的第四用户输入,确定第四用户输入是否对应于第三方向上的轻扫手势(例如,如图9G和图9H所描绘的向下轻扫),并且根据确定用户输入对应于第三方向上的轻扫手势,在显示器上显示该系列视觉媒体项目中的媒体项目的缩小比例版本(例如,显示如图9G和图9H所描绘的媒体浏览界面932)。
响应于接收到用户输入(1006),设备确定(1008)用户输入是否对应于第一方向上的轻扫手势(例如,在一个向上视图904上的向上轻扫,如图9A和图9B所示)。
根据确定用户输入对应于第一方向上的轻扫手势,设备在显示器上显示(1010)包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目(例如,图9C的媒体项目904)的相关内容(例如,人物、地点、回忆)的详细用户界面(例如,详细用户界面906),其中第一视觉媒体项目的相关内容包括由第一类别(例如,人物、地点、相关回忆)组织的相关内容的一个或多个表示以及由第二类别(例如,人物、地点、相关回忆)组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。在一些示例中,第一视觉媒体项目的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,所述详细用户界面参考方法700进行描述,但面部、相关回忆、位置和/或选择的关键媒体项目基于第一视觉媒体项目。根据一些实施方案,在触敏表面上与第一视觉媒体项目相对应的位置处检测到用户输入。
根据一些实施方案,详细用户界面包括第一区域(例如,图9F中的详细用户界面922的人物区域924),该第一区域包括由第一类别(例如,人物的面部)组织的相关内容,第一类别是在第一视觉媒体项目中识别的面部,并且第一区域包括来自第一视觉媒体项目的所识别面部。根据一些实施方案,设备接收(1016)与所识别面部(图9F的面部指示符924A)的选择相对应的用户输入,并且响应于接收到与所识别面部的选择相对应的用户输入,在显示器上显示(1016)第一媒体项目集合,其中选择第一媒体项目集合中的每个项目以便包括所识别面部。因此,设备(例如,设备900)通过显示与媒体项目中的所识别面部相对应的指示符来为用户提供对包括所识别面部的媒体项目集合的快速访问,而无需大量额外输入,例如以导航多个照片集合仅为了查看个体的图像,节省了设备资源和用户时间。
根据一些实施方案,详细用户界面包括第二区域(例如,图9F的地图区域926),该第二区域包括由第二类别组织的相关内容,其中第二类别是位置,并且第二区域包括地理地图,该地理地图包括对应于与第一视觉媒体项目相关联的位置的位置指示符(1018)。
根据一些实施方案,设备接收(1020)与第二区域(例如,图9F的地图区域926)的选择相对应的用户输入,并且响应于与第二区域的选择相对应的用户输入,在显示器上显示(1020)地图用户界面(例如,图6N的地图用户界面660),该地图用户界面包括与第一视觉媒体相关联的位置的视觉表示。根据一些实施方案,设备接收与地址(例如,图9L的地址948或地址946)的选择相对应的用户输入,并且响应于与地址的选择相对应的用户输入,在显示器上显示地图应用程序的用户界面。因此,设备(例如,设备900)通过显示与媒体项目相对应的特定地址和在选择时显示地图应用程序来为用户提供对媒体项目的高度相关位置信息的快速访问,而无需大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,详细用户界面包括第三区域(例如,图9F的相关回忆区域928),该第三区域包括由第三类别组织的相关内容,其中第三类别是共享一组共同特征的视觉媒体项目集合,第三类别包括共享一组共同特征的第二视觉媒体项目集合的表示,第二视觉媒体项目集合的视觉媒体项目与第一视觉媒体项目共享第一特征。根据一些实施方案,设备接收(1022)与第二视觉媒体项目集合的表示的选择(例如,图9F处的表示928A的选择)相对应的用户输入,并且响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,在显示器上显示(1022)第二视觉媒体项目集合中的视觉媒体项目的表示(例如,诸如图6J所示的回忆详细视图中的媒体项目的策展视图)。根据一些实施方案,第二视觉媒体项目集合排除第一视觉媒体项目(1024)。因此,设备(例如,设备900)通过将与当前查看媒体项目共享一个特征的媒体项目集合的表示显示为该媒体项目的详细用户界面的一部分来为用户提供对与用户的当前浏览活动相关的媒体集合(原本会需要用户执行大量额外输入以进行访问的集合)的快速访问,从而节省了设备资源和用户时间。
根据一些实施方案,显示包括第一视觉媒体项目的相关内容的详细用户界面包括在第一方向上滚动(1026)显示的第一视觉媒体项目以显示出详细用户界面(例如,图9J-图9K描绘了向上滚动的示例性第一视觉媒体项目)。
根据一些实施方案,在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面包括在第一方向上滚动(1028)显示的第一视觉媒体项目(例如,图9J-图9K描绘了向上滚动的示例性第一视觉媒体项目),直到第一视觉媒体项目的仍然显示的部分是第一视觉媒体项目的预先确定的部分(例如,显示在图9K中的部分942C),并且在滚动直到预先确定的部分是显示的部分之后,停止滚动(1028)第一视觉媒体项目,并继续滚动以显示出详细用户界面,同时第一媒体项目的预先确定的部分保持静止(例如,详细用户界面942A被示出在第一滚动位置处并且详细用户界面942B被示出在第二滚动部分942B处,但是部分942C在从942A滚动到942B之后保持静止,如图9K所示)。因此,设备(例如,设备900)通过在显示详细用户界面时在显示器上维持媒体项目的一部分来为用户提供设备当前状态(例如,当前正在浏览单个媒体项目的相关信息)的指示,并且还发信号通知用户他们当前正在查看哪个媒体项目的相关信息,从而通过减少确定设备当前状态的多余的用户输入节省了设备资源和用户时间。
根据一些实施方案,详细用户界面是安装在设备上的应用程序的界面,并且详细用户界面可在显示使用该应用程序显示的任何视觉媒体项目时(例如,在显示如参考图9A-L所述的任何一个向上视图时)访问。
需注意,上文参考方法1000所述的过程(例如,图10)的详情也可以类似方式适用于下文和上文所述的方法。例如,方法700、1300和1600任选地包括上文参考方法1000所述的各种方法的一个或多个特征。例如,可在显示根据方法700、1300和1600访问的任何媒体项目时访问媒体项目的详细用户界面。为了简明起见,这些详情在下文中不再重复。
根据一些实施方案,图11示出了根据各种所述实施方案的原理进行配置的电子设备1100的示例性功能框图。根据一些实施方案,电子设备1100的功能块被配置为执行上文所述的技术。设备1100的功能块任选地由硬件、软件、或硬件和软件的组合来实现,以执行各种所述示例的原理。本领域的技术人员应当理解,图11中所述的功能块任选地被组合或被分离为子块,以实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图11所示,电子设备1100包括被配置为显示图形用户界面的显示单元1102、被配置为接收接触的触敏表面单元1104,以及耦接到显示单元1102和触敏表面单元1104的处理单元1108。在一些实施方案中,处理单元1108包括显示使能单元1110、接收单元1112和确定单元1114。
处理单元1108被配置为:(例如,使用显示使能单元1110)使能在显示单元1102上显示一系列视觉媒体项目中的第一视觉媒体项目;在显示第一视觉媒体项目时,(例如,使用接收单元1112)接收包括相应方向上的移动的用户输入;响应于接收到用户输入:(例如,使用确定单元1114)确定用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,(例如,使用显示使能单元1110)使能在显示单元1102上显示包括已被确定为与第一视觉媒体项目相关的第一视觉媒体项目的相关内容的详细用户界面,其中第一视觉媒体项目的相关内容包括由第一类别组织的相关内容的一个或多个表示以及由第二类别组织的相关内容的一个或多个表示,并且其中第一类别与第二类别不同。
在一些实施方案中,在触敏表面单元1104上与第一视觉媒体项目相对应的位置处检测到用户输入。
在一些实施方案中,包括相应方向上的移动的用户输入为第一用户输入,并且处理单元1108被进一步配置为:在显示第一视觉媒体项目时,(例如,使用接收单元1112)接收包括相应方向上的移动的第二用户输入;(例如,使用确定单元1114)确定第二用户输入是否对应于不同于第一方向的第二方向上的轻扫手势;根据确定用户输入对应于第二方向上的轻扫手势,(例如,使用显示使能单元1110)用该系列视觉媒体项目中的第二视觉媒体项目的显示替换第一视觉媒体项目的显示。
在一些实施方案中,详细用户界面为第一详细用户界面,并且处理单元1108被进一步配置为:在显示第二视觉媒体项目时,(例如,使用接收单元1112)接收包括相应方向上的移动的第二用户输入;(例如,使用确定单元1114)确定第二用户输入是否对应于第一方向上的轻扫手势;根据确定用户输入对应于第一方向上的轻扫手势,(例如,使用显示使能单元1110)使能在显示单元1102上显示包括已被确定为与第二视觉媒体项目相关的第二视觉媒体项目的相关内容的第二详细用户界面,其中第二视觉媒体项目的相关内容与第一媒体项目的相关内容不同。
在一些实施方案中,处理单元1108被进一步配置为:在显示第一视觉媒体项目时,(例如,使用接收单元1112)接收包括相应方向上的移动的第三用户输入;(例如,使用确定单元1114)确定第三用户输入是否对应于不同于第一方向和第二方向的第三方向上的轻扫手势;根据确定第三用户输入对应于第三方向上的轻扫手势,(例如,使用显示使能单元1110)使能在显示单元1102上显示该系列视觉媒体项目中的媒体项目的缩小比例版本。
在一些实施方案中,该系列视觉媒体项目中的媒体项目的缩小比例版本按时间顺序布置。
在一些实施方案中,该系列视觉媒体项目中的媒体项目的缩小比例版本通过与每个相应视觉媒体项目相关联的地理位置来在视觉上分组。
在一些实施方案中,处理单元1108被进一步配置为:在显示第二视觉媒体项目时,(例如,使用接收单元1112)接收包括相应方向上的移动的第四用户输入;(例如,使用确定单元1114)确定第四用户输入是否对应于第三方向上的轻扫手势;根据确定用户输入对应于第三方向上的轻扫手势,(例如,使用显示使能单元1110)使能在显示单元1102上显示该系列视觉媒体项目中的媒体项目的缩小比例版本。
在一些实施方案中,第一视觉媒体项目的相关内容的表示不按时间顺序布置。
在一些实施方案中,处理单元1108被进一步配置为:在显示第一视觉媒体项目时,(例如,使用接收单元1112)接收包括第一方向上的移动的第五用户输入;响应于接收到第五用户输入:根据确定第一视觉媒体项目被放大超过预先确定的阈值,根据第五用户输入在显示单元1102上移动第一视觉媒体项目而不显示详细用户界面;并且根据确定第一视觉媒体项目未被放大超过预先确定的阈值,根据第五用户输入在显示单元1102上移动第一视觉媒体项目并且(例如,使用显示使能单元1110)使能在显示单元1102上显示详细用户界面。
在一些实施方案中,详细用户界面包括第一区域,该第一区域包括由第一类别组织的相关内容,第一类别是在第一视觉媒体项目中识别的面部,并且第一区域包括来自第一视觉媒体项目的所识别面部,并且处理单元1108被进一步配置为:(例如,使用接收单元1112)接收与所识别面部的选择相对应的用户输入;并且响应于接收到与所识别面部的选择相对应的用户输入,(例如,使用显示使能单元1110)使能在显示单元1102上显示第一媒体项目集合,其中选择第一媒体项目集合中的每个项目以便包括所识别面部。
在一些实施方案中,详细用户界面包括第二区域,该第二区域包括由第二类别组织的相关内容,第二类别是位置,并且第二区域包括地理地图,该地理地图包括对应于与第一视觉媒体项目相关联的位置的位置指示符。
在一些实施方案中,处理单元1108被进一步配置为:(例如,使用接收单元1112)接收与第二区域的选择相对应的用户输入;并且响应于与第二区域的选择相对应的用户输入,(例如,使用显示使能单元1110)使能在显示单元1102上显示地图用户界面,该地图用户界面包括与第一视觉媒体相关联的位置的视觉表示。
在一些实施方案中,处理单元1108被进一步配置为:(例如,使用接收单元1112)接收与地址的选择相对应的用户输入;并且响应于与地址的选择相对应的用户输入,(例如,使用显示使能单元1110)使能在显示单元1102上显示地图应用程序的用户界面。
在一些实施方案中,详细用户界面包括第三区域,该第三区域包括由第三类别组织的相关内容,第三类别是共享一组共同特征的视觉媒体项目集合,第三类别包括共享一组共同特征的第二视觉媒体项目集合的表示,第二视觉媒体项目集合的视觉媒体项目与第一视觉媒体项目共享第一特征,并且处理单元1108被进一步配置为:(例如,使用接收单元1112)接收与第二视觉媒体项目集合的表示的选择相对应的用户输入。并且响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,(例如,使用显示使能单元1110)使能在显示单元1102上显示第二视觉媒体项目集合的视觉媒体项目的表示。
在一些实施方案中,第二视觉媒体项目集合排除第一视觉媒体项目。
在一些实施方案中,显示包括第一视觉媒体项目的相关内容的详细用户界面包括:(例如,使用显示使能单元1110)在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面。
在一些实施方案中,在第一方向上滚动显示的第一视觉媒体项目以显示出详细用户界面包括:(例如,使用显示使能单元1110)在第一方向上滚动显示的第一视觉媒体项目,直到第一视觉媒体项目的仍然显示的部分是第一视觉媒体项目的预先确定的部分;并且在滚动直到预先确定的部分是显示的部分之后:(例如,使用显示使能单元1110)停止滚动第一视觉媒体项目;并且(例如,使用显示使能单元1110)继续滚动以显示出详细用户界面,同时第一媒体项目的预先确定的部分保持静止。
在一些实施方案中,第一视觉媒体项目为图像或视频。
在一些实施方案中,详细用户界面是安装在设备上的应用程序的界面,并且其中可在显示使用应用程序显示的任何视觉媒体项目时访问详细用户界面。
上文参考图10所述的操作任选地由图1A-图1B或图11中描绘的部件来实现。例如,显示操作1002、接收操作1004和确定操作1008任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测在触敏显示器112上的接触,并且事件分配器模块174将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义的事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
社交群组
图12A-图12K示出了根据一些实施方案的用于查看媒体项目中的社交群组的示例性用户界面。这些附图中的用户界面用于示出下文描述的过程,包括图13A-图13D中的过程。
图12A示出了示例性回忆详细视图1202,该回忆详细视图包括显示在设备1200上的社交群组的指示。在一些实施方案中,设备1200包括设备100、设备300、设备500或设备600的一些或全部特征。在该示例中,用户可访问回忆详细视图以查看社交群组(例如,一组人物、一组识别面部)。
根据一些实施方案,设备1200显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面。例如,回忆详细视图1202(示例性第一详细用户界面)包括照片区域1202A,该照片区域在策展视图中描绘了来自对应的媒体项目集合的照片(第一视觉媒体的示例性表示)。回忆详细视图1202描绘了与上文参考图6A-图6R所述的2019年7月4日相对应的回忆。在该示例中,回忆详细用户界面包括与示例性第一事件(即在2019年7月4日在公园的家庭聚会)相对应的视觉媒体的表示。
根据一些实施方案,设备1200基于与一个或多个视觉媒体项目相关联的上下文信息来确定事件。在一些实施方案中,用于确定事件的上下文信息包括成像设备捕获视觉媒体项目的位置以及成像设备捕获视觉媒体项目的时间中的一者或多者。在一些实施方案中,用于确定事件的上下文信息基于与一个或多个视觉媒体项目相关联的元数据(例如,关键字、标签)、Exif数据等来确定。在一些实施方案中,设备1200基于虚拟日历数据来确定事件。在一些实施方案中,虚拟日历数据包括用户指定的虚拟日历条目(例如,安排的生日、度假、会议等)、自动生成的虚拟日历条目(例如,用户接受虚拟邀请或会议请求并且自动在其虚拟日历上创建条目)以及假日(例如,安排的国家假日或州假日)中的一者或多者。在一些实施方案中,设备1200基于检测到多个个体出现在多个相关照片中来确定事件。
根据一些实施方案,在显示第一详细用户界面时,设备1200显示与被识别为已参加第一事件的多个个体相对应的示能表示。例如,在图12A的示例性回忆详细用户界面1202中,设备1200显示社交群组指示符1203A。社交群组指示符1203A与参加第一事件的(例如,在该示例中在界面处被识别为“PAT+3个其他人”的)所述多个个体相对应。例如,在该示例中,回忆包括与2019年7月4日的事件相对应的媒体项目。因此,与社交群组指示符1203A相对应的所述多个个体(例如,Pat和三个其他人)被识别为已参加2019年7月4日的事件。例如,如先前所提及的,所述多个个体Pat和三个其他人可与用户的四个表兄弟姊妹相对应。
图12B示出了示例性社交群组详细用户界面。根据一些实施方案,在显示第一详细用户界面时,设备1200接收与示能表示的选择相对应的用户输入,并且作为响应,显示包括第二视觉媒体(例如,与第二事件相对应的照片和视频的集合)的表示(例如,详细用户界面)的第二详细用户界面。例如,响应于接收到社交群组指示符1203A的选择,设备1200显示如图12B所示的示例性社交群组详细界面1204。社交群组详细界面1204包括第二视觉媒体的表示(例如,在照片区域中描绘为框的缩小比例表示)和指示符1204A至指示符1204B。
图12C描绘了图12B的社交群组详细界面1204的扩展版本。社交群组详细用户界面1206包括照片区域1208(例如,包括媒体项目1208A至1208C)、人物区域1210(包括面部指示符1210A至1210D)、相关回忆区域1212(例如,包括相关回忆表示1212A),以及添加到回忆示能表示1214。
根据一些实施方案,第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目。在一些实施方案中,第二事件和第三事件是不同的。例如,示例性社交群组详细界面1206包括被包括在对应回忆中的媒体项目的表示1208A至1208C。在该示例中,由1208A表示的媒体项目描绘了社交群组的所有四个个体(例如,Pat、Bill、George和Sam)并且对应于事件1,由1208B表示的媒体项目描绘了社交群组的个体中的三个个体(例如,Pat、Bill和George,没有Sam)并且对应于事件2,由1208C表示的媒体项目描绘了社交群组的个体中的两个个体(例如,Pat和Bill,没有George和Sam)并且对应于事件3,其中事件1、事件2和事件3是不同的。例如,事件1是在2019年7月4日的家庭聚会;事件2是在2014年9月6日的用户婚礼日;事件3是在2019年5月4日的生日聚会。因此,这些事件各自是不同的。
根据一些实施方案,基于关系数据来确定社交群组指示符的显示。例如,设备1200可优先呈现已知家庭成员的社交群组指示符(例如,在确定要显示哪些社交群组指示符时给予较高的权重)。也就是说,用户更可能想要查看由用户及其家人(例如,配偶、孩子、母亲、父亲等)构成的社交群组。此类关系任选地被提供到设备1200(例如,用户选择所识别面部作为家庭成员)。
根据一些实施方案,根据与设备1200相关联的媒体推断关系数据。例如,如果三个人在大量照片中一起出现,设备1200任选地优先考虑与这三个人相对应的社交群组指示符的表示。也就是说,这三个人很可能与用户的关系密切,并且因此用户很可能想要查看这些个体的媒体。
根据一些实施方案,基于一个或多个所选属性来确定社交群组指示符的显示。例如,用户可能已指定一个人物(与所识别面部相对应)作为收藏人物。因此,任选地优先考虑包括该人物的社交群组的指示符。
设想了用于对社交群组的指示符的显示进行优先级排序的其他技术,并且这些技术都被预想在本公开的范围内。
根据一些实施方案,针对所述多个个体的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,所述详细用户界面参考图6A-图6R中的用户界面以及图7的参考方法700进行描述,但面部、相关回忆、位置、选择的关键媒体项目基于(例如,社交群组中的)所述多个个体。
因此,在上述示例中,用户可查看与特定的一组人参加的事件相对应的媒体项目。例如,使用以上示例,用户可能希望看到所有四个用户的表兄弟姊妹都参加的事件的照片。通常,此类照片会分散遍布用户的库,需要过多的用户输入以便在离散的事件相簿中进行导航,按时间顺序浏览所有照片并且滚动通过不期望的照片(例如,并非由四个表兄弟姊妹参加的事件的照片)。另一方面,用户可为他们的社交圈(例如,家人、朋友、同事等)中的个体的任何或所有组合创建单独的相簿以供后续参考。然而,这仍然会需要用户手动地在他们的所有照片、相簿等中进行导航以定位相关的媒体项目、选择它们并将它们保存到相簿中。另外,此类方法比较麻烦,因为用户将不得不不断地维护相簿(例如,在新照片被添加到用户的照片库时添加这些新照片)。
根据一些实施方案,基于在与特定事件相对应的至少一个媒体项目中识别所述多个个体中的个体的面部来识别多个个体对特定事件的参加。例如,个体对事件的参加任选地使用面部识别来确定。例如,如果在与该事件对应的照片集合的照片中识别个体的面部,则识别该人已参加该事件。
根据一些实施方案,基于与多个个体相关联的位置数据来识别多个个体对特定事件的参加,其中位置数据包括将与多个个体中的个体相对应的设备识别为在发生特定事件时已经处于特定事件的位置处的数据。例如,可通过确定已知与个体相关联的设备(例如,他们的智能电话)识别用户在与事件相同的时间和地点存在来确定该个体对事件的参加。例如,在上文相对于社交群组详细界面1206描述的示例中,基于示出其智能电话在事件处存在的位置数据来确定名为Bill的个体已参加事件2。
根据一些实施方案,与个体或多个个体相关联的位置数据基于以下项中的一项或多项来确定:社交媒体(例如,用户在特定时间发布他们的位置)、由设备1200进行的接近度检测(例如,检测到个体的设备在蓝牙、AirDrop、Wi-Fi或需要相对靠近的接近度的其他合适连接的范围内)等。
设想了用于确定与个体相关联的位置数据的其他技术,并且这些技术都被预想在本公开的范围内。
根据一些实施方案,第二视觉媒体包括描绘少于多个个体中的所有个体的第一媒体项目。例如,如上所述,包括在社交群组详细界面中的每个视觉媒体项目不需要描绘所述多个个体中的每个个体。在该示例中,一些照片可包括用户的表兄弟姊妹中的仅三个(例如,媒体项目1208B)或用户的表兄弟姊妹中的仅两个(例如,媒体项目1208C)。在一些实施方案中,第二视觉媒体包括不描绘所述多个个体中的任何一个个体的媒体项目。例如,如果包括在社交群组详细界面的媒体项目集合中的媒体项目对应于到巴黎度假的事件,则该集合可包括埃菲尔铁塔的照片以便为媒体项目集合提供上下文。
根据一些实施方案,第二详细用户界面包括第一区域,该第一区域包括幻灯片,该幻灯片包括第二视觉媒体的媒体项目。在一些实施方案中,幻灯片和视频是不同的。上文参考至少图6H描述了示例性幻灯片的特征,据此引入对所述特征的描述。根据一些实施方案,设备1200接收与幻灯片的选择相对应的用户输入,并且作为响应,显示包括第二视觉媒体的媒体项目的视频。例如,在图12B的社交群组详细界面1204处,关键媒体项目1204C显示来自对应集合的媒体项目的幻灯片,并且当被选择时,播放视频。
根据一些实施方案,第二详细用户界面包括第二区域,其中第二区域包括策展视图,该策展视图包括第二视觉媒体的媒体项目子集。例如,第二区域是照片区域。上文参考至少图6J-图6L描述了照片区域的特征,所述特征也适用于社交群组详细界面中的照片区域。因此,上述特征中的一个或多个可以包括在社交群组详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,第二区域还包括第一示能表示。例如,“查看全部”示能表示。设备1200接收与第一示能表示的选择相对应的用户输入,并且作为响应,显示第二视觉媒体的媒体项目的扩展视图。例如,在社交群组详细界面中显示对应集合的所有照片。
根据一些实施方案,第二详细用户界面包括第三区域,该第三区域包括地理地图。例如,第三区域是地图区域。上文参考至少图6J、图6N和图6O描述了地图区域的特征,所述特征也适用于社交群组详细界面中的地图区域。因此,上述特征中的一个或多个可以包括在社交群组详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,设备1200显示地理地图上的位置指示符,该位置指示符对应于与第二视觉媒体的第二媒体项目相关联的位置。例如,设备1200使用地理地图上的指示符显示照片的位置。
根据一些实施方案,第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,其中第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征。
根据一些实施方案,第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,其中第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征。例如,第四区域是相关回忆区域。上文参考至少图6J、图6Q和图6R描述了相关回忆区域的特征,所述特征也适用于社交群组详细界面中的照片区域。因此,上述特征中的一个或多个可以包括在社交群组详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,设备1200接收与第一视觉媒体项目集合的表示的选择相对应的用户输入,并且作为响应,显示第一视觉媒体项目集合的视觉媒体项目的表示。例如,设备1200显示相关回忆的回忆详细界面,该界面包括相关回忆中的照片的策展视图。
根据一些实施方案,第一视觉媒体项目集合排除第二视觉媒体的媒体项目。例如,相关回忆任选地不包含当前回忆(例如,对应于当前社交群组)的任何照片。例如,相关回忆不与社交群组(例如,当前显示为回忆)共享任何媒体项目,而是基于某些上下文属性和/或特征而相关。
根据一些实施方案,在显示第二详细用户界面时,设备1200显示包括多个示能表示的第五区域。例如,第五区域是人物区域。上文参考至少图6J和图6P描述了人物区域的特征,所述特征也适用于社交群组详细界面中的人物区域。因此,上述特征中的一个或多个可以包括在社交群组详细界面的一个或多个实施方案中,因此据此引入以上描述。
根据一些实施方案,多个示能表示中的每个示能表示与多个个体中的单个不同个体相对应。
根据一些实施方案,设备1200接收与第五区域中的多个示能表示中的示能表示的选择相对应的用户输入,其中该示能表示对应于第一个体,并且作为响应,显示包括第三视觉媒体的表示的第三详细用户界面。例如,图12D的社交群组详细用户界面1216包括人物区域,该人物区域包括多个示能表示。具体地讲,界面1216包括多个个体(例如,Pat、Bill、George和Sam)中的每个个体的示能表示。在图12D描绘的示例中,设备1200接收面部指示符1216A的选择,并且作为响应,显示人物详细用户界面1218(例如,其具有与图6P的人物详细界面668类似的特征)。扩展示例性人物详细界面1220在图12F中示出,包括个体标识符1220A(例如,识别与当前回忆视图相关联的个体)、关键媒体项目1220B、照片区域1222、人物区域1224、地图区域1226、收藏示能表示1228、确认附加照片示能表示1230、相关回忆区域1232以及添加到回忆示能表示1234。
根据一些实施方案,第三视觉媒体包括第三多个媒体项目,并且第三多个媒体项目中的每一个被识别为描绘第一个体。例如,媒体项目1218B-1218D中的每一个描绘该个体。如前所述,人物详细界面可以仅包括描绘对应个体的媒体项目。
根据一些实施方案,第三多个媒体项目包括与被识别为第一个体已参加的第四事件相对应的媒体项目,并且其中第二事件、第三事件和第四事件是不同的。例如,第一个体的照片来自未包括在与图12B的社交群组详细界面1206相对应的回忆中的事件。例如,与人物详细用户界面1218相关联的个体在来自多个个体中的其他三个个体(Bill、George和Sam)未参加的事件(例如,示例性第四事件)的照片中被描绘。因此,该第四事件的照片未包括在社交群组的回忆视图中,但包括在个体的回忆详细视图中。
根据一些实施方案,设备1200接收与滚动第五区域的请求相对应的用户输入,并且响应于接收到与滚动第五区域的请求相对应的用户输入,滚动包括在第五区域中的多个示能表示,同时第五区域保持静止。例如,在图12E中,设备1200接收人物区域上从右到左的方向上的轻扫手势。作为响应,人物区域从右向左滚动。
根据一些实施方案,滚动多个示能表示使得先前未显示的示能表示在第五区域中显示,并且其中先前未显示的示能表示与未包括在多个个体中的第二个体相对应。例如,图6E的面部指示符1216B与在接收到用户输入之前未显示并且不是多个个体的一部分的个体(例如,名为“Tim”)相对应。例如,在显示图12D中的社交群组详细视图1216时,在滚动人物区域之前没有Tim的示能表示。
根据一些实施方案,在显示第三详细用户界面时,设备1200显示第二示能表示。例如,在如图12G所示的人物详细界面1236处,设备1200接收确认附加照片示能表示1236A的选择。作为响应,设备1200显示确认面部界面1238,如图12G所示。设备1200接收与第二示能表示的选择相对应的用户输入,并且作为响应,显示包括已被识别为可能描绘第一个体的候选视觉媒体项目的个体确认用户界面,其中候选视觉媒体项目不包括在第三视觉媒体中(例如,照片不是人物的回忆中显示的照片之一)。例如,响应于确认附加照片示能表示1236A的选择,设备1200显示示例性个体确认用户界面1238(也称为确认面部界面1238)。个体确认用户界面1238包括区域1238C中的多个(例如,九个)媒体项目的显示。多个媒体项目1238C中的每一个描绘来自媒体项目的所识别面部,其中所识别面部可能与其回忆详细视图先前被显示的个体相匹配。在该示例中,设备1200提示用户确认多个媒体项目是否描绘了个人Pat。个体确认用户界面1238还描绘了撤销示能表示1238A和完成示能表示1238B。
根据一些实施方案,设备1200显示已被识别为可能在个体确认用户界面处描绘第一个体的单个候选视觉媒体项目。
根据一些实施方案,设备1200接收与个体确认用户界面相关联的用户输入,并且作为响应,确定与个体确认用户界面相关联的用户输入是表示确认输入还是拒绝输入。例如,设备1200确定用户输入是与确认还是拒绝所显示的多个媒体项目为描绘Pat的示能表示1238E的选择相对应。
根据一些实施方案,根据确定与个体确认用户界面相关联的用户输入表示确认输入,设备1200将候选媒体项目与第一个体相关联。例如,设备1200包括在人物的回忆中包括的媒体项目集合中的媒体项目,或者以其他方式将候选媒体项目与个体(例如,与他们的简档)相关联。
根据一些实施方案,设备1200确认与在候选媒体项目中检测到的面部的面部图案相匹配的面部也与第一个体相关联。例如,设备1200使用确认的候选媒体项目来检查其他媒体项目。
根据一些实施方案,根据确定与个体确认用户界面相关联的用户输入表示拒绝输入,设备1200放弃将候选媒体项目与第一个体相关联。例如,设备1200不将确认的照片与设备回忆中人物的简档相关联。
图12H描绘了所识别面部的上下文菜单。根据一些实施方案,与多个示能表示中的示能表示的选择相对应的用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入。例如,图12H中描绘的示能表示1240A上的触摸具有由触敏表面(例如,显示器)检测到的特征强度。
根据一些实施方案,设备1200确定用户输入的第一特征强度,并且根据确定用户输入满足强度依赖标准,显示上下文菜单用户界面。在一些实施方案中,强度依赖标准要求触摸用户输入的第一特征强度超过强度阈值以便满足强度依赖标准。例如,如果示能表示1240A上的触摸输入超过强度阈值以满足强度依赖标准,则设备显示上下文菜单界面1242。
根据一些实施方案,上下文菜单用户界面包括第一上下文示能表示。重新命名示能表示1242A是示例性第一示能表示。设备1200接收与第一上下文示能表示的选择相对应的用户输入,并且作为响应,显示用于编辑用作第一个体的标识符的名称的名称编辑用户界面。例如,设备1200显示图12I中所示的命名界面1246。
根据一些实施方案,在显示名称编辑用户界面时,设备1200接收第一个体的更新名称,并且作为响应,将存储在回忆中的与第一个体相关联的现有名称更新为更新名称。例如,设备1200可以在界面1246的示例性字段1246A中接收新名称的输入,并且将个体Pat的简档(例如,在设备回忆中)更新为新接收的名称。
根据一些实施方案,设备1200显示对应于建议个体的示能表示,其中该建议个体与设备1200可访问的联系人列表中的联系人相对应。例如,设备1200可以基于被保存为设备1200可访问的联系人的个体(例如,与设备1200上的电话应用出现相关联),在重新命名时向用户提供建议1246B。一个这种建议1246C基于输入字段中的用户输入即字符“B”在图12I中示出,其对应于Bill。
根据一些实施方案,设备1200接收与对应于建议个体的示能表示的选择相对应的用户输入,并且作为响应,将存储在回忆中的与第一个体相关联的现有名称更新为建议个体的名称。
根据一些实施方案,上下文菜单用户界面包括第三上下文示能表示。忽略示能表示1242B是示例性第三示能表示。设备1200接收与第三上下文示能表示的选择相对应的用户输入。在一些实施方案中,设备1200删除与所识别面部相关联的名称或以其他方式将面部与个体的简档脱离关联。
根据一些实施方案,上下文菜单用户界面包括第二上下文示能表示。添加到收藏示能表示1242C是示例性第二示能表示。设备1200接收与第二上下文示能表示的选择相对应的用户输入,并且作为响应,将第一个体的标识符与所选个体的标识符列表相关联。例如,设备1200将个体(例如,在回忆中)与收藏人物列表相关联。
根据一些实施方案,设备1200显示包括第三示能表示和所识别个体的表示的用户界面。例如,设备1200显示图12I的人物相簿界面1244中所示的人物相簿。仅显示收藏示能表示1244C是示例性第三示能表示。在一些实施方案中,所识别个体的表示包括所选个体列表中的个体。例如,人物相簿界面1244包括收藏用户(例如,区域1244A中的表示1244B)以及其他用户(例如,区域1244D中的非收藏用户)的表示。
根据一些实施方案,设备1200接收与第三示能表示的选择相对应的用户输入,并且作为响应,停止显示不对应于与所选个体的标识符列表相关联的标识符的个体的表示。例如,响应于仅显示收藏示能表示1244C的选择,设备1200将停止显示(不会描绘)区域1244D中的表示非收藏个体的表示。
基于到目前为止的描述应当显而易见的是,回忆详细视图(及其他详细视图)是组织与一个或多个媒体项目相关的信息的非常有用的方式。在一些实施方案中,创建回忆(或保存,或添加到收藏,或以详细视图格式查看媒体项目集合)不会创建包括在与详细视图相对应的集合中的媒体项目的新实例。相反,在一些示例中,回忆是独立于媒体项目的存储而创建/存储的,但是一次或多次引用包括在回忆的媒体项目集合中的媒体项目。在一些示例中,可以更新或创建与媒体项目相关联的信息以表示媒体项目是回忆的成员。
在一些示例中,用户可以将未以其他方式保存的详细视图保存为回忆。例如,用户可能想要召回包括其四个表兄弟姊妹的社交群组详细视图,而不必导航到回忆/相簿/照片/等,这使得与该社交群组相对应的指示符在人物区域中显示。
图12J和图12K示出了将详细视图(也称为详细用户界面)保存和查看为回忆的示例性方法。根据一些实施方案,第二详细用户界面包括第四示能表示。例如,社交群组详细界面1248包括示例性第四示能表示、添加到回忆示能表示1248A。设备1200接收与第四示能表示的选择相对应的用户输入,并且作为响应,将第二详细用户界面添加到用户保存的一组详细用户界面。例如,设备1200存储与第二视觉媒体相关联的标识符(例如,在设备回忆中)。
根据一些实施方案,设备1200停止显示第二详细用户界面。在停止显示第二详细用户界面之后,设备1200接收与显示第二详细用户界面的请求相对应的用户输入,并且显示第二详细用户界面。在一些示例中,设备1200部分地基于与第二视觉媒体相关联的存储标识符来显示第二详细用户界面。例如,在显示社交群组详细界面1248之后,用户将设备1200导航到照片应用程序的回忆选项卡。在该示例中,设备1200显示回忆时间线1250,其包括用于“Pat+3个其他人”的回忆的表示1250A,因此与多个个体的媒体项目集合相对应。
图12K描绘了与多个个体相对应的社交群组详细界面1252,该界面响应于图12J的表示1250A的选择而显示,并且包括指示符1252A。
图13是示出根据一些实施方案的用于使用电子设备来查看与多个个体相关的媒体内容的方法的流程图。在具有显示器和任选的触敏表面的设备(例如,100、300、500)处执行方法1300。方法1300中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1300提供了用于查看与多个个体相关的媒体内容的直观方式。该方法减轻了用户在查看与多个个体相关的媒体内容时的认知负担,从而创建了一种更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快更有效地浏览与多个个体相关的媒体内容,节省了功率并且增加了电池两次充电之间的时间间隔。
设备在显示器上显示(1302)第一详细用户界面(例如,图12A中的详细用户界面1202),该界面包括与第一事件相对应的第一视觉媒体(例如,图12A的策展视图1202A中的媒体项目)的表示。在一些示例中,设备基于与一个或多个视觉媒体项目相关联的上下文信息(例如,基于图6D和图6E中所列的示例性上下文)来确定事件。在一些示例中,用于确定事件的上下文信息包括成像设备捕获视觉媒体项目的位置以及成像设备捕获视觉媒体项目的时间中的一者或多者。在一些示例中,用于确定事件的上下文信息包括与一个或多个视觉媒体项目相关联的元数据(例如,关键字、标签)。在一些示例中,设备基于虚拟日历数据来确定事件。在一些示例中,虚拟日历数据包括用户指定的虚拟日历条目(例如,安排的生日、度假、会议)、自动生成的虚拟日历条目以及假日中的一者或多者。在一些示例中,设备基于检测到多个个体出现在多个相关照片中来确定事件。
在显示第一详细用户界面时(1304),设备在显示器上显示(1306)与被识别为已参加第一事件的多个个体相对应的示能表示(例如,图12A中的指示符1203A),并且接收(1308)与示能表示的选择相对应的用户输入。
根据一些实施方案,基于与特定事件相对应的至少一个媒体项目中的多个个体中的个体的面部来识别(1312)(例如,类似于检测媒体项目614中的两个孩子的面部)多个个体对特定事件的参加。根据一些实施方案,基于与多个个体相关联的位置数据来识别(1314)多个个体对特定事件的参加,其中位置数据包括将与多个个体中的个体相对应的设备识别为在发生特定事件时已经处于特定事件的位置处的数据(例如,类似于基于用户当前附近的当前人物群组来确定上下文,如关于图6D中的回忆表示610B所描绘的)。
响应于接收到用户输入,设备在显示器上显示(1310)包括第二视觉媒体的表示(例如,在回忆详细界面1204的照片区域)的第二详细用户界面(例如,图12B中的详细用户界面1204),其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。在一些示例中,多个个体的详细用户界面具有一个或多个与本文描述的第一集合的详细用户界面相同的部分,所述详细用户界面参考方法700进行描述,但面部、相关回忆、位置和/或选择的关键媒体项目基于所述多个个体。因此,设备(例如,设备1200)通过显示与多个所识别个人参加的多个事件相对应的媒体项目集合的详细用户界面,允许用户选择性地查看与所选个体群组参加的事件相对应的媒体,减少了用户在事件的媒体集合中进行单独地手动导航以确定参加和/或访问图像所需的用户输入的数量,节省了设备资源和用户时间。
根据一些实施方案,第二视觉媒体包括描绘少于多个个体中的所有个体的第一媒体项目(1316)。根据一些实施方案,第二详细用户界面包括第一区域,该第一区域包括幻灯片(例如,图12B的幻灯片1204C),该幻灯片包括第二视觉媒体的媒体项目。根据一些实施方案,设备接收与幻灯片的选择相对应的用户输入,并且响应于与幻灯片的选择相对应的用户输入,在显示器上显示包括第二视觉媒体的媒体项目的视频(例如,诸如图6H的视频628中所示),其中幻灯片和视频是不同的。根据一些实施方案,第二详细用户界面包括第二区域(例如,图12C的照片区域1208),其中第二区域包括策展视图,该策展视图包括第二视觉媒体的媒体项目子集(例如,图12C的媒体项目1208A-1208C)。在一些实施方案中,照片部分包括回忆中的照片的显示。在一些示例中,该显示是包括第二视觉媒体的照片和/或视频的子集的策展视图。根据一些实施方案,第二区域还包括第一示能表示(例如,图12C中的显示全部示能表示1208D)。根据一些实施方案,设备接收与第一示能表示的选择相对应的用户输入,并且响应于接收到与第一示能表示的选择相对应的用户输入,在显示器上显示第二视觉媒体的媒体项目的扩展视图(例如,诸如图6K的652中所示的扩展视图)。因此,设备(例如,设备1200)通过显示包括媒体项目子集的策展视图来减少用户浏览缩减的媒体项目集合时所需的额外输入的数量,从而节省了通过显示和接收与查看更大的媒体项目集相关联的附加用户输入将消耗的用户时间和设备资源。
设备(例如,设备1200)通过显示既包括来自集合的内容(但不同)的视频或幻灯片,允许呈现为查看条件而优化的媒体,并且因此当以更有可能吸引用户注意力的方式使用显示器浏览相关媒体时有效地使用了显示器,并减少了手动浏览媒体项目的额外输入数量,节省了设备资源和用户时间。
根据一些实施方案,第二详细用户界面(例如,图12C中的详细用户界面1206)包括第三区域(例如,地图区域,诸如图12F中所示的地图区域1226),该第三区域包括地理地图,并且显示详细用户界面还包括在显示器上显示地理地图上的位置指示符(例如,图12G的回忆详细视图1236上的位置指示符1236B),该位置指示符对应于与第二视觉媒体的第二媒体项目相关联的位置。根据一些实施方案,第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,其中第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征。根据一些实施方案,设备接收与第一媒体项目集合的表示的选择相对应的用户输入,并且响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,在显示器上显示第一视觉媒体项目集合的视觉媒体项目的表示。根据一些实施方案,第一视觉媒体项目集合排除第二视觉媒体的媒体项目。因此,设备(例如,设备1200)通过显示与视觉媒体的媒体项目相对应的位置指示符来为用户提供对视觉媒体的相关位置信息的快速访问,而无需大量额外输入,节省了设备资源和用户时间。
根据一些实施方案,设备在显示第二详细用户界面时,在显示器上显示(1318)包括多个示能表示(例如,指示符1210A-1210D)的第五区域(例如,图12C的人物区域1210),每个示能表示与多个个体中的单个不同个体相对应,接收(1318)与第五区域中的多个示能表示中的示能表示(例如,图12C的指示符1210A)的选择相对应的用户输入,其中该示能表示对应于第一个体(例如,Pat),并且响应于接收到与对应于第一个体的示能表示的选择相对应的用户输入,在显示器上显示(1318)包括第三视觉媒体的表示(例如,在图12F的照片区域1222中)的第三详细用户界面(例如,图12F的详细用户界面1220),其中第三视觉媒体包括第三多个媒体项目,第三多个媒体项目中的每一个被识别为描绘第一个体(例如,Pat),第三多个媒体项目包括与被识别为第一个体已参加的第四事件相对应的媒体项目,并且第二事件、第三事件和第四事件是不同的。因此,设备(例如,设备1200)通过将第一集合媒体项目中与所识别面部相对应的指示符显示为该集合的详细用户界面的一部分来为用户提供对识别媒体项目集合中描述的个体的相关信息的快速访问,而无需大量额外输入来例如查看所有图像以确定人物的参加,节省了设备资源和用户时间。
根据一些实施方案,设备接收(1320)与滚动第五区域(例如,图12F的人物区域1224)的请求相对应的用户输入,并且响应于接收到与滚动第五区域的请求相对应的用户输入,滚动(1320)包括在第五区域中的多个示能表示,同时第五区域保持静止,其中滚动多个示能表示使得先前未显示的示能表示(例如,图12E的详细用户界面1216的示能表示1216B)被显示在第五区域中,并且先前未显示的示能表示与未包括在多个个体中的第二个体相对应。
根据一些实施方案,设备在显示第三详细用户界面时,在显示器上显示(1322)第二示能表示(例如,图12G的确认附加照片示能表示1236A),接收(1322)与第二示能表示的选择相对应的用户输入,并且响应于接收到与第二示能表示的选择相对应的用户输入,在显示器上显示(1322)包括已被识别为可能描绘第一个体的候选视觉媒体项目(例如,图12G的区域1238C中编号为1至9的照片)的个体确认用户界面(例如,图12G的界面1238),其中候选视觉媒体项目不包括在第三视觉媒体中。
根据一些实施方案,设备接收与个体确认用户界面相关联的用户输入(例如,在图12G的个体确认用户界面1238处在示能表示1238E上选择“是或不是”),并且响应于接收到与个体确认用户界面相关联的用户输入,确定与个体确认用户界面相关联的用户输入是表示确认输入还是拒绝输入,并且根据确定与个体确认用户界面相关联的用户输入表示确认输入(例如,在图12G的示能表示1238E处选择“是”),将候选媒体项目与第一个体相关联,并且根据确定与个体确认用户界面相关联的用户输入表示拒绝输入(例如,在图12G的示能表示1238E处选择“不是”),放弃将候选媒体项目与第一个人相关联。根据一些实施方案,与多个示能表示中的示能表示的选择相对应的用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入。根据一些实施方案,设备确定(1324)用户输入的第一特征强度,并且根据确定用户输入满足强度依赖标准,其中强度依赖标准要求触摸用户输入的第一特征强度超过强度阈值以便满足强度依赖标准,显示(1324)上下文菜单用户界面(例如,上下文示能表示1242A-1242C)。设备(例如,设备1200)通过响应于强度依赖标准而显示上下文菜单,增加了与所选示能表示进行可能交互的数量,因此减少了执行不同操作所需的输入的数量,节省了设备资源和用户时间。
根据一些实施方案,上下文菜单用户界面包括第一上下文示能表示(例如,图12H的重新命名示能表示1242A)。根据一些实施方案,设备接收(1326)与第一上下文示能表示的选择相对应的用户输入,并且响应于接收到与第一上下文示能表示的选择相对应的用户输入,在显示器上显示(1326)用于编辑用作第一个体(例如,Pat)的标识符的名称的名称编辑用户界面(例如,图12I的界面1246),并在显示名称编辑用户界面时,接收(1326)第一个体的更新名称(例如,图12I的“B”),并且响应于接收到第一个体的更新名称,将存储在回忆中的与第一个体相关联的现有名称更新(1326)为更新名称。
根据一些实施方案,设备在显示器上显示(1328)对应于建议个体(例如,图12I的个体1246C)的示能表示,其中建议个体与设备可访问的联系人列表中的联系人相对应,接收(1328)与对应于建议个体的示能表示的选择相对应的用户输入,并且响应于接收到与对应于建议个体的示能表示的选择相对应的用户输入,将存储在回忆中的与第一个体相关联的现有名称更新(1328)为建议个体的名称。
根据一些实施方案,上下文菜单用户界面包括第二上下文示能表示(例如,图12H的添加到收藏示能表示1242C)。根据一些实施方案,设备接收(1330)与第二上下文示能表示的选择相对应的用户输入,并且响应于接收到与第二上下文示能表示的选择相对应的用户输入,将第一个体的标识符与所选个体的标识符列表(例如,在设备回忆中)相关联(1333),并在显示器上显示(1330)包括第三示能表示(例如,图12I的仅显示收藏示能表示1244C)和所识别个体的表示的用户界面(例如,图12I的人物相簿界面1244),其中所识别个体的表示包括所选个体(例如,收藏个体)列表中的个体,并接收(1330)与第三示能表示的选择相对应的用户输入,并且响应于接收到与第三示能表示的选择相对应的用户输入,停止显示(1330)不对应于与所选个体的标识符列表相关联的标识符的个体的表示。
根据一些实施方案,第二详细用户界面包括第四示能表示(例如,图12C的添加到回忆示能表示1214)。根据一些实施方案,设备接收(1332)与第四示能表示的选择相对应的用户输入,并且响应于接收到与第四示能表示的选择相对应的用户输入,将第二详细用户界面添加(1332)到用户保存(例如,用户收藏)的一组详细用户界面,并停止显示(1332)第二详细用户界面(例如,图12C的界面1206),并且在停止显示第二详细用户界面之后,接收与显示第二详细用户界面的请求相对应的用户输入(例如,在图12J的回忆时间线界面1250处),并在显示器上显示(1332)第二详细用户界面(例如,在图12K的详细用户界面1252处)。
需注意,上文参考方法1300所述的过程(例如,图13)的详情也可以类似方式适用于下文和上文所述的方法。例如,方法700、1000和1600任选地包括上文参考方法1300所述的各种方法的一个或多个特征。例如,可在根据方法700、1000和1600显示任何详细用户界面时访问多个个体的详细用户界面。为了简明起见,这些详情在下文中不再重复。
根据一些实施方案,图14示出了根据各种所述实施方案的原理进行配置的电子设备1400的示例性功能框图。根据一些实施方案,电子设备1400的功能块被配置为执行上文所述的技术。设备1400的功能块任选地由执行各种所述示例的原理的硬件、软件,或硬件和软件的组合来实现。本领域的技术人员应当理解,图14中所述的功能块任选地被组合或被分离为子块,以便实现各种所述实例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图14所示,电子设备1400包括被配置为显示图形用户界面的显示单元1402、任选地被配置为接收接触的触敏表面单元1404以及耦接到显示单元1402和任选地触敏表面单元1404的处理单元1408。在一些实施方案中,处理单元1408包括显示使能单元1410和接收单元1412。在一些实施方案中,处理单元1408任选地包括确定单元1414、关联单元1416、更新单元1418和添加单元1420中的一者或多者。
处理单元1402被配置为:(例如,使用显示使能单元1410)使能在显示单元1402上显示包括与第一事件相对应的第一视觉媒体的表示的第一详细用户界面;在显示第一详细用户界面时:(例如,使用显示使能单元1410)使能在显示单元1402上显示与被识别为已参加第一事件的多个个体相对应的示能表示;并且(例如,使用接收单元1412)接收与示能表示的选择相对应的用户输入;并且响应于接收到用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示包括第二视觉媒体的表示的第二详细用户界面,其中第二视觉媒体包括与被识别为多个个体已参加的第二事件相对应的第一多个媒体项目,以及与被识别为多个个体已参加的第三事件相对应的第二多个媒体项目,并且其中第二事件和第三事件是不同的。
在一些实施方案中,基于在与特定事件相对应的至少一个媒体项目中识别所述多个个体中的个体的面部来识别多个个体对特定事件的参加。
在一些实施方案中,基于与多个个体相关联的位置数据来识别多个个体对特定事件的参加,其中位置数据包括将与多个个体中的个体相对应的设备识别为在发生特定事件时已经处于特定事件的位置处的数据。
在一些实施方案中,第二视觉媒体包括描绘少于多个个体中的所有个体的第一媒体项目。
在一些实施方案中,第二详细用户界面包括第一区域,该第一区域包括幻灯片,该幻灯片包括第二视觉媒体的媒体项目,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与幻灯片的选择相对应的用户输入;响应于与幻灯片的选择相对应的用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示包括第二视觉媒体的媒体项目的视频,其中幻灯片和视频是不同的。
在一些实施方案中,第二详细用户界面包括第二区域,该第二区域包括策展视图,该策展视图包括第二视觉媒体的媒体项目子集。
在一些实施方案中,第二区域还包括第一示能表示,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与第一示能表示的选择相对应的用户输入;并且响应于接收到与第一示能表示的选择相对应的用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示第二视觉媒体的媒体项目的扩展视图。
在一些实施方案中,第二详细用户界面包括第三区域,该第三区域包括地理地图,并且期中显示详细用户界面还包括:(例如,使用显示使能单元1410)使能在显示单元1402上显示地理地图上的位置指示符,该位置指示符对应于与第二视觉媒体的第二媒体项目相关联的位置。
在一些实施方案中,第二详细用户界面包括第四区域,该第四区域包括共享一组共同特征的第一视觉媒体项目集合的表示,第一视觉媒体项目集合的视觉媒体项目与第二视觉媒体的视觉媒体项目共享第一特征,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收第一视觉媒体项目集合的表示的选择相对应的用户输入;并且响应于接收到与第一媒体项目集合的表示的选择相对应的用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示第一视觉媒体项目集合的视觉媒体项目的表示。
在一些实施方案中,第一视觉媒体项目集合排除第二视觉媒体的媒体项目。
在一些实施方案中,处理单元1408被进一步配置为:在显示第二详细用户界面时,(例如,使用显示使能单元1410)使能在显示单元1402上显示包括多个示能表示的第五区域,每个示能表示与多个个体中的单个不同个体相对应;(例如,使用接收单元1412)接收与第五区域中的多个示能表示中的示能表示的选择相对应的用户输入,其中该示能表示对应于第一个体;并且响应于接收到与对应于第一个体的示能表示的选择相对应的用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示包括第三视觉媒体的表示的第三详细用户界面,其中第三视觉媒体包括第三多个媒体项目,其中第三多个媒体项目中的每一个被识别为描绘第一个体,其中第三多个媒体项目包括与被识别为第一个体已参加的第四事件相对应的媒体项目,并且其中第二事件、第三事件和第四事件是不同的。
在一些实施方案中,处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与滚动第五区域的请求相对应的用户输入;响应于接收到与滚动第五区域的请求相对应的用户输入,(使用显示使能单元1410)在显示单元1402上滚动包括在第五区域中的多个示能表示,同时第五区域保持静止,其中滚动多个示能表示使得先前未显示的示能表示被显示在第五区域中,并且其中先前未显示的示能表示与未包括在多个个体中的第二个体相对应。
在一些实施方案中,处理单元1408被进一步配置为:在显示第三详细用户界面时,(例如,使用显示使能单元1410)使能在显示单元1402上显示第二示能表示;(例如,使用接收单元1412)接收与第二示能表示的选择相对应的用户输入;响应于接收到与第二示能表示的选择相对应的用户输入,(使用显示使能单元1410)使能在显示单元1402上显示包括已被识别为可能描绘第一个体的候选视觉媒体项目的个体确认用户界面,其中候选视觉媒体项目不包括在第三视觉媒体中。
在一些实施方案中,处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与个体确认用户界面相关联的用户输入;并且响应于接收到与个体确认用户界面相关联的用户输入:(例如,使用确定单元1414)确定与个体确认用户界面相关联的用户输入是表示确认输入还是拒绝输入;根据确定与个体确认用户界面相关联的用户输入表示确认输入,(例如,使用关联单元1416)将候选媒体项目与第一个体相关联;并且根据确定与个体确认用户界面相关联的用户输入表示拒绝输入,放弃(例如,使用关联单元1416)将候选媒体项目与第一个体相关联。
在一些实施方案中,设备包括耦接到显示单元1402和处理单元1408的触敏表面单元1404,与多个示能表示中的示能表示的选择相对应的用户输入是具有在触敏表面单元上检测到的第一特征强度的触摸用户输入,处理单元1408被进一步配置为:(例如,使用确定单元1414)确定用户输入的第一特征强度;根据确定用户输入满足强度依赖标准,其中强度依赖标准要求触摸用户输入的第一特征强度超过强度阈值以便满足强度依赖标准,显示上下文菜单用户界面。
在一些实施方案中,上下文菜单用户界面包括第一上下文示能表示,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与第一上下文示能表示的选择相对应的用户输入;响应于接收到与第一上下文示能表示的选择相对应的用户输入,(例如,使用显示使能单元1410)使能在显示单元1402上显示用于编辑用作第一个体的标识符的名称的名称编辑用户界面;在显示名称编辑用户界面时,(例如,使用接收单元1412)接收第一个体的更新名称;并且响应于接收到第一个体的更新名称,(例如,使用更新单元1418)将存储在回忆中的与第一个体相关联的现有名称更新为更新名称。
在一些实施方案中,处理单元1408被进一步配置为:(使用显示使能单元1410)使能在显示单元1402上显示对应于建议个体的示能表示,其中建议个体与设备可访问的联系人列表中的联系人相对应;(例如,使用接收单元1412)接收与对应于建议个体的示能表示的选择相对应的用户输入;并且响应于接收到与对应于建议个体的示能表示的选择相对应的用户输入,(例如,使用更新单元1418)将存储在回忆中的与第一个体相关联的现有名称更新为建议个体的名称。
在一些实施方案中,上下文菜单用户界面包括第二上下文示能表示,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与第二上下文示能表示的选择相对应的用户输入;响应于接收到与第二上下文示能表示的选择相对应的用户输入,(例如,使用关联单元1416)将第一个体的标识符与所选个体的标识符列表相关联;(例如,使用显示使能单元1410)使能在显示单元1402上显示包括第三示能表示和所识别个体的表示的用户界面,其中所识别个体的表示包括所选个体列表中的个体;(例如,使用接收单元1412)接收与第三示能表示的选择相对应的用户输入;并且响应于接收到与第三示能表示的选择相对应的用户输入,停止(例如,使用显示使能单元1410)在显示单元1402上显示不对应于与所选个体的所述标识符列表相关联的标识符的个体的表示。
在一些实施方案中,第二详细用户界面包括第四示能表示,并且处理单元1408被进一步配置为:(例如,使用接收单元1412)接收与第四示能表示的选择相对应的用户输入;响应于接收到与第四示能表示的选择相对应的用户输入,(例如,使用添加单元1420)将第二详细用户界面添加到用户保存的一组详细用户界面;停止(例如,使用显示使能单元1410)在显示单元1402上显示第二详细用户界面;在停止显示第二详细用户界面之后,(使用接收单元1412)接收与显示第二详细用户界面的请求相对应的用户输入;并且(例如,使用显示使能单元1410)使能在显示单元1402上显示第二详细用户界面;
上文参考图13所述的操作任选地由图1A-图1B或图14中描绘的部件来实现。例如,显示操作1302和接收操作1308任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测在触敏显示器112上的接触,并且事件分配器模块174将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义的事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
自动生成的回忆
图15A-图15E示出了根据一些实施方案的用于获得上下文相关回忆的示例性用户界面。这些附图中的用户界面用于示出下文描述的过程,包括图16A-图16D中的过程。
图15A示出了在设备1500上显示的示例性回忆时间线1502A。在一些实施方案中,设备1500包括上述设备100、设备300、设备500或设备600的一些或全部特征。回忆时间线1502A包括日期指示1504,其表示该示例中的当前日期(例如,4月25日星期一)。回忆时间线1502A还包括三个回忆的三个表示,分别标记为1506A-1506C。
根据一些实施方案,设备1500显示多个自动生成的视觉媒体集合相对应的多个示能表示。例如,表示1506A-1506C是与自动生成的视觉媒体集合(例如,回忆)相对应的示例性示能表示。在一些示例中,自动生成的视觉媒体集合是在打开照片应用程序时自动确定的集合。在一些示例中,自动生成的视觉媒体集合在该天中较早地(例如,在某个预定义时间,或者基于用户在设备上的活动)自动确定。
根据一些实施方案,在显示多个示能表示时,设备1500接收第一用户输入。例如,在图15A中的回忆时间线1502A处,设备1500接收与向下轻扫手势相对应的输入。
根据一些实施方案,响应于接收到第一用户输入,设备1500获得先前未包括在多个视觉媒体集合(第二回忆)中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合。在一些示例中,获得自动生成的媒体项目集合包括选择和/或生成媒体项目集合。例如,回忆时间线1502B描绘了在获得自动生成的视觉媒体集合时的设备1500。设备(例如,设备1500)响应于用户输入获得自动生成的媒体项目集合,并且用户不必执行过多数量的输入就能获得上下文相关内容,节省了设备资源和用户时间。
设备(例如,设备1500)通过响应于用户输入生成和/或选择自动生成的媒体项目集合中的媒体项目子集,通过在用户特定地请求时按需生成上下文相关的媒体集合来节省了设备资源,意味着与预先生成用户可能不希望的大批建议集合相比,内容更可能与用户的需求相关,节省了设备资源和用户时间。
图15B描绘了响应于用户输入而获得的新回忆的回忆块。根据一些实施方案,进一步响应于接收第一用户输入,设备1500向显示器上显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示。例如,图15B中的回忆时间线1502C描绘了在接收到用户输入之后并且在获得自动生成的第一视觉媒体集合之后的回忆时间线。在该示例中,回忆时间线1502C现在包括表示1508A和1508B,每个表示与先前未包括在多个视觉媒体集合中的视觉媒体集合相对应。因此,响应于用户输入显示新的回忆块,并且其对应于新创建的回忆。设备(例如,设备1500)通过将与自动生成的视觉媒体集合相对应的示能表示添加到其他上下文相关集合的显示,因此用户可以快速访问由于上下文相关性而显示的许多不同媒体项目集合,减少了用户手动浏览这些媒体集合所需的额外输入的数量,节省了设备资源和用户时间。
根据一些实施方案,设备1500接收与第一示能表示的选择相对应的第二用户输入,并且作为响应,设备1500显示包括第二视觉媒体集合(例如,回忆中的照片)的表示(例如,策展视图)的详细用户界面。例如,响应于表示1508A的选择,设备1500显示图15C的回忆详细视图1512。
根据一些实施方案,为了获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,设备1500响应于第一用户输入生成第一媒体项目集合。因此,在一些示例中,设备1500响应于用户输入动态地生成新的回忆。
根据一些实施方案,为了响应于第一用户输入生成第一媒体项目集合,设备1500确定共享一组共同特征的媒体项目集合,并选择共享该组共同特征的媒体项目集合中的集的较小子集以创建媒体项目的策展集。例如,作为生成回忆的一部分,设备1500确定具有一组共同特征(例如,上下文属性)的媒体项目,并选择将包括在所生成回忆的回忆详细视图的策展视图中的媒体项目子集。
图15B还示出了滚动回忆时间线以访问未显示的回忆。根据一些实施方案,在接收第二用户输入之前,设备1500接收第三用户输入。响应于接收到第三用户输入,设备1500滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示。例如,在回忆时间线1502D处,设备1500已滚动显示的表示(例如,向上),并且现在显示先前未显示的表示1510。
根据一些实施方案,为了滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示,设备1500滚动显示的多个示能表示以显示出与自动生成的第二视觉媒体集合相对应的第二示能表示,其中第二示能表示先前未包括在显示的多个示能表示中,其中第一示能表示与第一日期相关联,并且其中第二示能表示与不同于第一日期的第二日期相关联。例如,如上所述,表示1510是先前未显示的示例性示能表示。此外,如日期指示符1509所示,表示1510对应于日期4月24日,因此与示例性第一示能表示(表示1508A,其与4月25日相关联)不同的日期相关联。
在一些实施方案中,选择回忆选项卡允许加速返回导航。例如,在回忆中进行导航之后,用户可以轻击回忆选项卡以返回到回忆时间线中先前显示的滚动位置。该操作在图15B和图15C中示出。
根据一些实施方案,详细用户界面是第一详细用户界面,并且为了滚动显示的多个示能表示设备1500,将多个示能表示从第一视图滚动到第二视图。例如,回忆时间线1502D描绘了第二视图中的示例性显示的示能表示。
在显示第二视图中的多个示能表示时,设备1500接收与第一示能表示的选择相对应的第二用户输入,并且响应于接收到与第一示能表示的选择相对应的第二用户输入,在显示器上显示第一详细用户界面,其中第一详细用户界面包括与第三视觉媒体集合相对应的第二示能表示,并且其中第一详细用户界面包括第三示能表示(例如,回忆选项卡)。例如,响应于1508A的选择,设备1500显示图15C的示例性第一回忆详细用户界面1512。示例性第三集合由相关回忆示能表示1512A表示,并且示例性第三示能表示是回忆选项卡1514A。因此,在该示例中,用户是深入导航回忆的一个回忆。
在显示第一详细用户界面时,设备接收与第二示能表示的选择相对应的第二用户输入,并且作为响应,显示第二详细用户界面,该第二详细用户界面包括与第三示能表示相对应的视觉媒体集合的表示,并且其中该详细用户界面包括第三示能表示。例如,响应于表示1512A的选择,设备1500显示示例性第二回忆详细视图1514。仍然显示示例性第三示能表示(例如,回忆选项卡1514A)。因此,在该示例中,用户是深入导航回忆的两个回忆。
根据一些实施方案,在显示第二详细用户界面时,设备1500接收与第三示能表示的选择相对应的用户输入。例如,用户选择回忆选项卡。响应于接收到与第三示能表示的选择相对应的所述用户输入,设备1500显示第二视图中的多个示能表示。例如,设备1500返回到滚动位置(例如,第二视图)中的回忆时间线的显示,如图15B的回忆时间线1502D所示。因此,设备(例如,设备1500)通过允许加速返回导航以使用单个输入返回到先前视图(即使在一系列界面中下降多个级别深度之后)来减少在媒体项目集合之间进行导航所需的输入的过多数量,节省了设备资源和用户时间。
根据一些实施方案,与多个自动生成的视觉媒体集合相对应的显示的多个示能表示基于获得自动生成的集合中的每个相应的自动生成的集合的日期按时间顺序布置。例如,图15B的示例性回忆时间1502D上的回忆块(表示)基于获得(例如,生成和/或选择)每个回忆的日期来排列。
根据一些实施方案,为了显示与多个自动生成的视觉媒体集合相对应的多个示能表示,设备1500显示与当前时间段相对应的多个示能表示。例如,图15B的回忆时间线1502C包括与当前日期4月25日(例如,今天)相对应的两个回忆块。
根据一些实施方案,为了显示与多个自动生成的视觉媒体集合相对应的多个示能表示,设备1500显示针对多个不同时间段中的每一个的与时间段相对应的多个示能表示,其中多个示能表示是预先确定数量的示能表示。例如,设备1500可以显示每个时段的三个自动生成的回忆。在一些实施方案中,如上所述,设备1500可以获得附加回忆。例如,图15B的回忆时间线1502C示出了今天(4月25日)的多个回忆块。
根据一些实施方案,自动生成的视觉媒体集合被确定为与设备1500的一般上下文上下文相关。例如,设备1500的一般上下文是设备1500的将全天为真的上下文,诸如最近的事件、发生在设定时间量之前(诸如,1年前或1个月前)的事件或一般设备位置,诸如州或市。在一些示例中,设备1500的一般上下文是设备1500的基于延长时间段的信息的上下文。例如,一般上下文可以是设备1500在自动生成集合之前的24小时(例如,前一天)的整个时段中的上下文的集合。例如,一般上下文可以是用户在24小时内的平均位置。
根据一些实施方案,第一视觉媒体集合与设备1500的特定上下文上下文相关。例如,设备1500的特定上下文是设备1500的可能在一天中改变的上下文,诸如特定设备位置(诸如,街道地址或GPS坐标)、一天中的时间、其他用户的存在等。在一些示例中,设备1500的当前上下文包括当前位置、时间或日期。因此,在一些示例中,响应于用户输入而获得的集合可以与设备1500的特定上下文比与现有集合更相关。
根据一些实施方案,上下文包括周年纪念日、生日、最近旅行、上周、被识别为当前在设备1500的当前位置附近的个体的视觉媒体、当前在设备1500的当前位置附近的兴趣点的视觉媒体以及设备1500可访问的日历上的事件中的一者或多者。
根据一些实施方案,为了显示与多个自动生成的视觉媒体集合相对应的多个示能表示,设备1500显示具有多个示能表示中的每一个的上下文信息。例如,设备1500可以显示与回忆块相关联的文本。例如,在回忆时间线1516处,设备1500可以显示覆盖在表示1516A上的上下文信息,该表示对应于回忆“2019年七月四日”。这种上下文信息的示例是“2019年七月四日、2019年7月4日”。
根据一些实施方案,设备1500包括触敏表面,并且第二用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入。设备1500确定触摸用户输入的第一特征强度。根据确定触摸用户输入满足选择标准,其中选择标准不要求触摸用户输入的第一特征强度超过第一强度阈值或第二强度阈值以便满足选择标准,设备1500用详细用户界面的显示替换多个示能表示的显示。例如,当第二触摸用户输入是轻击输入时,其中接触的抬离在检测到接触的降落的预先确定的时间段内检测到,即满足选择标准。在这种情况下,作为响应显示回忆详细用户界面(例如,如上文参考至少图6A-图6R所描述的)。例如,如果用户选择图15D中所示的回忆时间线1516的表示1516A,则设备1500显示回忆详细视图“2019年七月四日”。
根据确定触摸用户输入满足第一强度依赖标准,设备1500在继续显示多个示能表示的一部分时,显示包括第二视觉媒体集合的表示的预览用户界面,其中第一强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值以便满足第一强度依赖标准,并且其中第一强度依赖标准不要求触摸用户输入的第一特征强度超过第二强度阈值以便满足第一强度依赖标准。例如,设备1500可以显示回忆中的媒体项目(例如,照片和视频)的预览(例如,“窥视”),而不进入回忆详细视图,如图15E的预览用户界面1518B的策展视图1520所示,该策展视图包括媒体项目1520A和1520B。设备(例如,设备1500)通过允许在实际显示回忆详细视图之前预览内容,允许用户快速确定他们是否想要查看媒体项目集合—如果不是,他们可以简单地移除单个输入接触,而不必输入另一个输入以从详细用户界面导航回来。因此,用户不必执行过多数量的输入来查看媒体内容的预览,节省了设备资源和用户时间。
根据一些实施方案,预览用户界面包括播放视频,该播放视频包括来自第二视觉媒体集合的内容并且在显示多个示能表示的至少一部分时播放。例如,用户界面1518A描绘了设备1500在示例性预览用户界面中显示视频1522A。在一些示例中,多个示能表示的部分在显示器上模糊(例如,由1518A和1518B中的阴影线表示)。根据一些实施方案,如果在触摸输入的特征强度达到第二强度阈值之前检测到接触的抬离,则重新显示多个示能表示。
根据一些实施方案,预览用户界面包括显示包括在第二视觉媒体集合中的媒体项目子集的策展视图,同时显示多个示能表示的至少一部分。例如,用户界面1518B描绘了设备1500在预览用户界面中显示示例性策展视图1520的一部分。
根据确定触摸用户输入满足第二强度依赖标准,设备1500用详细用户界面的显示替换多个示能表示的显示,其中第二强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值和第二强度阈值以便满足第二强度依赖标准。例如,如果用户在查看预览用户界面之后决定进入回忆,则他们可以增加其输入的强度并使得设备1500显示回忆详细用户界面(例如,而不必移除其手指并重新施加手指以选择回忆块)。
图16是示出根据一些实施方案的用于使用电子设备来查看和获得上下文相关的媒体项目集合的方法的流程图。在具有显示器和任选的触敏表面的设备(例如,100、300、500)处执行方法1600。方法1600中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下所述,方法1600提供了用于查看和获得上下文相关的媒体项目集合的直观方式。该方法减轻了用户在查看和获得上下文相关的媒体项目集合时的认知负担,从而创建了一种更有效的人机界面。对于电池驱动的计算设备,使得用户能够更快更有效地浏览和获得媒体项目,节省了功率并且增加了电池两次充电之间的时间间隔。
设备在显示器上显示(1602)与多个自动生成的视觉媒体集合相对应的多个示能表示(图15A中的1506A-1506B)。根据一些实施方案,与多个自动生成的视觉媒体集合相对应的显示的多个示能表示基于获得自动生成的集合中的每个相应的自动生成的集合的日期按时间顺序布置。根据一些实施方案,显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括在显示器上显示与当前时间段(例如,今天)相对应的多个示能表示。根据一些实施方案,显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括在显示器上显示针对多个不同时间段(例如,今天、昨天)中的每一个的与时间段相对应的多个示能表示,其中多个示能表示是预先确定数量的示能表示(例如,每天三个,如图15A的回忆时间线1502A所示)。根据一些实施方案,显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括在显示器上显示具有多个示能表示中的每一个的上下文信息。
设备在显示多个示能表示时接收(1604)第一用户输入。在一些实施方案中,第一用户输入是下拉刷新请求(例如,如图15A所示)。
响应于接收到第一用户输入(1606),设备获得(1608)先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合,并且在显示器上向显示的多个示能表示添加(1610)与第一视觉媒体集合相对应的第一示能表示(图15B中的回忆时间线1502C的表示1508A和1508B)。
根据一些实施方案,获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合包括响应于第一用户输入生成(1616)第一媒体项目集合。根据一些实施方案,响应于第一用户输入生成第一媒体项目集合包括确定(1618)共享一组共同特征的媒体项目集合(例如,图15E的媒体项目1520A和1520B),并选择共享该组共同特征的媒体项目集合中的集的较小子集以创建媒体项目的策展集。
根据一些实施方案,自动生成的视觉媒体集合被确定为与设备的一般上下文(例如,图6D和图6E中所列的示例性上下文)上下文相关(1620)。在一些示例中,设备的一般上下文是设备的基于延长时间段的信息的上下文。在一些示例中,一般上下文可以是设备在自动生成集合之前的24小时(例如,前一天)的整个时段中的上下文的集合。在一些示例中,一般上下文可以是用户在24小时内的平均位置。在一些示例中,设备的一般上下文将全天为真,诸如最近的事件、发生在设定时间量之前(诸如,1年前或1个月前)的事件或一般设备位置,诸如州或市。
根据一些实施方案,第一视觉媒体集合与设备的特定上下文(例如,图6D和图6E中所列的示例性上下文)上下文相关(1622)。在一些示例中,特定上下文是设备的可能在一天中改变的上下文,诸如特定设备位置(诸如,街道地址或GPS坐标)、一天中的时间、其他用户的存在。根据一些实施方案,上下文包括周年纪念日、生日、最近旅行、上周、被识别为当前在设备的当前位置附近的个体的视觉媒体、当前在设备的当前位置附近的兴趣点的视觉媒体以及设备可访问的日历上的事件中的一者或多者。
设备接收(1612)与第一示能表示的选择(例如,图15B的表示1508B的选择)相对应的第二用户输入。根据一些实施方案,设备在接收第二用户输入之前,接收(1626)第三用户输入,并且响应于接收到第三用户输入,滚动(1626)与多个自动生成的视觉媒体集合相对应的显示的多个示能表示(例如,如图15B的回忆时间线1502D所示)。根据一些实施方案,滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示包括滚动(1628)显示的多个示能表示以显示出与自动生成的第二视觉媒体集合相对应的第二示能表示(例如,图15B的示能表示1510),其中第二示能表示先前未包括在显示的多个示能表示中,第一示能表示与第一日期相关联,并且第二示能表示与不同于第一日期的第二日期相关联。
根据一些实施方案,设备包括触敏表面,并且第二用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入。根据一些实施方案,设备确定(1624)触摸用户输入的第一特征强度。根据确定触摸用户输入满足选择标准,其中选择标准不要求触摸用户输入的第一特征强度超过第一强度阈值(例如,图15D和图15E中的ITL)或第二强度阈值(例如,图15D和图15E中的ITD)以便满足选择标准,设备用详细用户界面(例如,用诸如图6J中描绘的详细用户界面)的显示替换(1624)多个示能表示的显示。根据确定触摸用户输入满足第一强度依赖标准,设备在继续显示多个示能表示的一部分时,在显示器上显示(1624)包括第二视觉媒体集合的表示的预览用户界面(例如,图15D和图15E的预览用户界面1518A或1518B),其中第一强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值(例如,图15D和图15E的ITL)以便满足第一强度依赖标准,并且第一强度依赖标准不要求触摸用户输入的第一特征强度超过第二强度阈值(例如,图15D和图15E的ITD)以便满足第一强度依赖标准。根据确定触摸用户输入满足第二强度依赖标准,设备用详细用户界面(例如,用诸如图6J中描绘的详细用户界面)的显示(1624)替换多个示能表示的显示,其中第二强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值和第二强度阈值以便满足第二强度依赖标准。在一些示例中,预览用户界面包括播放视频,该播放视频包括来自第二视觉媒体集合的内容并且在显示器上显示(例如,利用模糊)多个示能表示的至少一部分时播放。在一些示例中,如果在触摸输入的特征强度达到第二强度阈值之前检测到接触的抬离,则重新显示多个示能表示。
根据一些实施方案,详细用户界面是第一详细用户界面(例如,图15C的详细用户界面1512)。根据一些实施方案,滚动显示的多个示能表示包括将多个示能表示从第一视图滚动到第二视图(例如,在图15B的回忆时间线1502D处描绘的第二视图)。根据一些实施方案,设备在显示第二视图中的多个示能表示时(例如,在图15B的回忆时间线1502D的显示器处),接收与第一示能表示(例如,图15A的表示1506A)的选择相对应的第二用户输入。响应于接收到与第一示能表示的选择相对应的第二用户输入,设备在显示器上显示第一详细用户界面(例如,图15C的详细用户界面1512),其中第一详细用户界面包括与第三视觉媒体集合相对应的第二示能表示并且第一详细用户界面包括第三示能表示(例如,图15C的回忆选项卡1514A)。在显示第一详细用户界面时,设备接收与第二示能表示(例如,图15C的相关回忆示能表示1512A)的选择相对应的第二用户输入(例如,轻击)。响应于接收到与第二示能表示的选择相对应的用户输入,设备在显示器上显示第二详细用户界面,该第二详细用户界面包括与第三示能表示相对应的视觉媒体集合的表示,其中该详细用户界面包括第三示能表示(例如,图15C的回忆选项卡1514A)。在显示第二详细用户界面时,设备接收与第三示能表示(例如,图15C的回忆选项卡1514A)的选择相对应的用户输入。响应于接收到与第三示能表示的选择相对应的用户输入,设备在显示器上显示第二视图中的多个示能表示(例如,显示图15B的回忆时间线1502D)。
响应于接收到第二用户输入,设备在显示器上显示(1614)包括第二视觉媒体集合的表示的详细用户界面(例如,图15C的回忆详细视图1512)。
需注意,上文参考方法1600所述的过程(例如,图16)的详情也可以类似方式适用于上文所述的方法。例如,方法700、1000和1300任选地包括上文参考方法1600所述的各种方法的一个或多个特征。例如,可在根据方法700、1000和1300显示任何详细用户界面时查看上下文相关内容。为了简明起见,这些详情在下文中不再重复。
根据一些实施方案,图17示出了根据各种所述实施方案的原理进行配置的电子设备1700的示例性功能框图。根据一些实施方案,电子设备1700的功能块被配置为执行上文所述的技术。设备1700的功能块任选地由执行各种所述示例的原理的硬件、软件,或硬件和软件的组合来实现。本领域的技术人员应当理解,图17中所述的功能块任选地被组合或被分离为子块,以实现各种所述示例的原理。因此,本文的描述任选地支持本文所述的功能块的任何可能的组合或分离或进一步限定。
如图17所示,电子设备1700包括被配置为显示图形用户界面的显示单元1702、任选地被配置为接收接触的触敏表面单元1704以及耦接到显示单元1702和任选地触敏表面单元1704的处理单元1708。在一些实施方案中,处理单元1708包括显示使能单元1710、接收单元1712、获得单元1714和添加单元1716。在一些实施方案中,处理单元1708任选地包括生成单元1718、确定单元1720和选择单元1722中的一者或多者。
处理单元1708被配置为:(例如,使用显示使能单元1710)使能在显示单元1702上显示与多个自动生成的视觉媒体集合相对应的多个示能表示;在显示多个示能表示时,(例如,使用接收单元1712)接收第一用户输入;响应于接收到第一用户输入:(例如,使用获得单元1714)获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合,该第一视觉媒体集合不同于自动生成的视觉媒体集合中的每个集合;并且(例如,使用添加单元1716)在显示单元1702上向显示的多个示能表示添加与第一视觉媒体集合相对应的第一示能表示;(例如,使用接收单元1712)接收与第一示能表示的选择相对应的第二用户输入;并且响应于接收到第二用户输入,(例如,使用显示使能单元1710)使能在显示单元1702上显示包括第二视觉媒体集合的表示的详细用户界面。
在一些实施方案中,(例如,使用获得单元1714)获得先前未包括在多个视觉媒体集合中的自动生成的第一视觉媒体集合包括:响应于第一用户输入(例如,使用生成单元1718)生成第一媒体项目集合。
在一些实施方案中,响应于第一用户输入(例如,使用生成单元1718)生成第一媒体项目集合包括:(例如,使用确定单元1720)确定共享一组共同特征的媒体项目集合;并且(例如,使用选择单元1722)选择共享该组共同特征的媒体项目集合中的集的较小子集以创建媒体项目的策展集。
在一些实施方案中,处理单元1708被进一步配置为:在接收第二用户输入之前,(例如,使用接收单元1712)接收第三用户输入;响应于接收到第三用户输入,滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示。
根据一些实施方案,(例如,使用显示使能单元1710)在显示单元1702上滚动与多个自动生成的视觉媒体集合相对应的显示的多个示能表示包括:(例如,使用显示使能单元1710)在显示单元1702上滚动显示的多个示能表示以显示出与自动生成的第二视觉媒体集合相对应的第二示能表示,其中第二示能表示先前未包括在显示的多个示能表示中,其中第一示能表示与第一日期相关联,并且其中第二示能表示与不同于第一日期的第二日期相关联。
在一些实施方案中,详细用户界面是第一详细用户界面,(例如,使用显示使能单元1710)在显示单元1702上滚动显示的多个示能表示包括(例如,使用显示使能单元1710)在显示单元1702上将多个示能表示从第一视图滚动到第二视图,该方法还包括:在显示第二视图中的多个示能表示时,(例如,使用接收单元1712)接收与第一示能表示的选择相对应的第二用户输入;响应于接收到与第一示能表示的选择相对应的第二用户输入,(例如,使用显示使能单元1710)使能在显示单元1702上显示第一详细用户界面,其中第一详细用户界面包括与第三视觉媒体集合相对应的第二示能表示,并且其中第一详细用户界面包括第三示能表示;在显示第一详细用户界面时,(例如,使用接收单元1712)接收与第二示能表示的选择相对应的第二用户输入;响应于接收到与第二示能表示的选择相对应的用户输入,(例如,使用显示使能单元1710)使能在显示单元1702上显示第二详细用户界面,该第二详细用户界面包括与第三示能表示相对应的视觉媒体集合的表示,并且其中该详细用户界面包括第三示能表示;在显示第二详细用户界面时,(例如,使用接收单元1712)接收与第三示能表示的选择相对应的用户输入;响应于接收到与第三示能表示的选择相对应的用户输入,(例如,使用显示使能单元1710)使能在显示单元1702上显示第二视图中的多个示能表示。
在一些实施方案中,与多个自动生成的视觉媒体集合相对应的显示的多个示能表示基于获得自动生成的集合中的每个相应的自动生成的集合的日期按时间顺序布置。
在一些实施方案中,(例如,使用显示使能单元1710)在显示单元1702上显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括:(例如,使用显示使能单元1710)使能在显示单元1702上显示与当前时间段相对应的多个示能表示。
在一些实施方案中,(例如,使用显示使能单元1710)在显示单元1702上显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括:(例如,使用显示使能单元1710)使能在显示单元1702上显示针对多个不同时间段中的每一个的与时间段相对应的多个示能表示,其中多个示能表示是预先确定数量的示能表示。
在一些实施方案中,自动生成的视觉媒体集合被确定为与设备的一般上下文上下文相关。
在一些实施方案中,第一视觉媒体集合与设备的特定上下文上下文相关。
在一些实施方案中,上下文包括周年纪念日、生日、最近旅行、上周、被识别为当前在设备的当前位置附近的个体的视觉媒体、当前在设备的当前位置附近的兴趣点的视觉媒体以及设备可访问的日历上的事件中的一者或多者。
在一些实施方案中,(例如,使用显示使能单元1710)在显示单元1702上显示与多个自动生成的视觉媒体集合相对应的多个示能表示包括:(例如,使用显示使能单元1710)使能在显示单元1702上显示具有多个示能表示中的每一个的上下文信息。
在一些实施方案中,设备包括耦接到显示单元1702和处理单元1708的触敏表面单元1704,并且第二用户输入是具有在触敏表面上检测到的第一特征强度的触摸用户输入,并且处理单元1708被进一步配置为:(例如,使用确定单元1720)确定触摸用户输入的第一特征强度;根据确定触摸用户输入满足选择标准,其中选择标准不要求触摸用户输入的第一特征强度超过第一强度阈值或第二强度阈值以便满足选择标准,(例如,使用显示使能单元1710)用详细用户界面的显示替换多个示能表示在显示单元1702上的显示;根据确定触摸用户输入满足第一强度依赖标准,在继续显示多个示能表示的一部分时,(例如,使用显示使能单元1710)使能在显示单元1702上显示包括第二视觉媒体集合的表示的预览用户界面,其中第一强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值以便满足第一强度依赖标准,并且其中第一强度依赖标准不要求触摸用户输入的第一特征强度超过第二强度阈值以便满足第一强度依赖标准;并且根据确定触摸用户输入满足第二强度依赖标准,(例如,使用显示使能单元1710)用详细用户界面的显示替换多个示能表示在显示单元1702上的显示,其中第二强度依赖标准要求触摸用户输入的第一特征强度超过第一强度阈值和第二强度阈值以便满足第二强度依赖标准。
上文参考图16所述的操作任选地由图1A-图1B或图17中描绘的部件来实现。例如,显示操作1602、接收操作1604、获得操作1608和添加操作1610任选地由事件分类器170、事件识别器180和事件处理程序190来实现。事件分类器170中的事件监视器171检测在触敏显示器112上的接触,并且事件分配器模块174将事件信息传送到应用程序136-1。应用程序136-1的相应事件识别器180将事件信息与相应事件定义186进行比较,并且确定触敏表面上的第一位置处的第一接触是否对应于预定义的事件或子事件,诸如对用户界面上的示能表示的激活。当检测到相应的预定义的事件或子事件时,事件识别器180激活与对该事件或子事件的检测相关联的事件处理程序190。事件处理程序190任选地利用或调用数据更新器176或对象更新器177来更新应用程序内部状态192。在一些实施方案中,事件处理程序190访问相应GUI更新器178来更新应用程序所显示的内容。类似地,本领域的普通技术人员会清楚地知道可如何基于图1A至图1B中描绘的部件来实现其他过程。
出于解释的目的,前面的描述是通过参考具体实施方案来描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所预期的特定用途的各种修改的各种实施方案。
虽然参照附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。
如上所述,本发明技术的一个方面在于采集和使用得自各种来源的数据,以改进向用户递送其可能感兴趣的启发内容或任何其他内容。本公开设想,在一些实例中,该所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可包括人口数据、基于位置的数据、电话号码、电子邮件地址、家庭地址或任何其他识别信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,该个人信息数据可用于递送用户较感兴趣的目标内容。因此,使用此类个人信息数据使得能够对所递送的内容进行有计划的控制。此外,本公开还预期个人信息数据有益于用户的其他用途。
本公开还设想负责此类个人信息数据的收集、分析、公开、发送、存储或其他用途的实体将遵守已确立的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。例如,来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。另外,此类收集应当仅在用户知情同意之后进行。另外,此类实体应采取任何所需的步骤,以保障和保护对此类个人信息数据的访问,并且确保能够访问个人信息数据的其他人遵守他们的隐私政策和程序。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。
不管前述情况如何,本公开还预期用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就广告递送服务而言,本发明的技术可被配置为在注册服务期间允许用户选择“加入”或“退出”参与对个人信息数据的收集。在一些示例中,用户可以选择不为目标内容递送服务提供位置信息。在一些示例中,用户可以选择不提供精确的位置信息,但准许传输位置区域信息。
因此,虽然本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还预期各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。例如,可通过基于非个人信息数据或绝对最小量的个人信息诸如与用户相关联的设备所请求的内容、对内容递送服务可用的其他非个人信息或公开可用信息来推断偏好,从而选择内容并递送至用户。

Claims (90)

1.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在由具有显示器的电子设备执行时,使该设备:
接收显示上下文相关媒体的请求;以及
响应于所述请求,在所述显示器上显示表示共享一组共同特征并与第一上下文相关的第一媒体项目集合的第一示能表示;
在显示表示所述第一媒体项目集合的所述第一示能表示时,接收与所述第一示能表示的选择相对应的用户输入;
响应于接收到所述用户输入,在所述显示器上显示包括所述第一媒体项目集合的至少一部分的详细用户界面,其中:
所述详细用户界面包括第一区域,所述第一区域包括表示共享一组共同特征的第二媒体项目集合的第二示能表示,其中所述第二媒体项目集合包括未包括在所述第一媒体项目集合中的至少一个媒体项目,并且
所述第二媒体项目集合中的媒体项目与所述第一媒体项目集合中的媒体项目共享第一特征;
在显示表示所述第二媒体项目集合的所述第二示能表示时,接收与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的用户输入;以及
响应于接收到与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的所述用户输入,在所述显示器上显示包括所述第二媒体项目集合的至少一部分的详细用户界面。
2.根据权利要求1所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
根据确定所述设备处于所述第一上下文,在所述显示器上显示共享一组共同特征并与所述第一上下文相关的第三媒体项目集合的表示,其中所述第一媒体项目集合基于第一上下文属性与所述第一上下文相关,并且所述第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中所述第二上下文属性与所述第一上下文属性不同。
3.根据权利要求1所述的计算机可读存储介质,其中表示所述第一媒体项目集合的所述第一示能表示包括选自所述第一媒体项目集合中的媒体项目的缩小比例版本。
4.根据权利要求3所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
生成与所述第一媒体项目集合相关联的文本标识符;
识别所选择的媒体项目中的面部,其中所选择的媒体项目是图像;
在所述显示器上显示覆盖在表示所述第一媒体项目集合的所述第一示能表示上的所述文本标识符,其中覆盖文本标识符不与显示为表示所述第一媒体项目集合的所述第一示能表示的所选媒体项目中的所识别面部重叠。
5.根据权利要求4所述的计算机可读存储介质,其中与所述第一媒体项目集合相关联的所述文本标识符是基于所述第一媒体项目集合与所述第一上下文的相关性来选择的并包括解释所述第一媒体项目集合与所述第一上下文的相关性的一个或多个字词。
6.根据权利要求1所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面之前,在所述显示器上显示视觉上占据所述显示器的第一部分的表示所述第一媒体项目集合的所述第一示能表示;
在接收到与所述第一示能表示的选择相对应的所述用户输入之后,并且在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示视觉上占据所述显示器的第二部分的所述第一媒体项目集合的关键媒体项目,所述显示器的所述第二部分不同于所述显示器的所述第一部分;以及
进一步响应于接收到与所述第一示能表示的选择相对应的所述用户输入,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示过渡到所述关键媒体项目的动画过渡。
7.根据权利要求1所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的幻灯片;
接收与所述幻灯片的选择相对应的用户输入;以及
响应于接收到与所述幻灯片的所述选择相对应的所述用户输入,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的视频,其中所述幻灯片和所述视频是不同的。
8.根据权利要求7所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与编辑所述幻灯片的请求相对应的用户输入;以及
响应于接收到与编辑所述幻灯片的所述请求相对应的所述用户输入,在所述显示器上显示幻灯片编辑用户界面。
9.根据权利要求1所述的计算机可读存储介质,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第二区域,其中所述第二区域包括策展视图,所述策展视图包括所述第一媒体项目集合的媒体项目子集,其中选择所述媒体项目子集以便排除较低质量照片。
10.根据权利要求9所述的计算机可读存储介质,其中所述第二区域还包括第三示能表示,并且其中所述计算机可读存储介质还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与所述第三示能表示的选择相对应的用户输入;以及
响应于接收到与所述第三示能表示的选择相对应的所述用户输入,在所述显示器上显示扩展视图,所述扩展视图包括在接收到与所述第三示能表示的选择相对应的所述输入之前所述第一媒体项目集合中的未显示的附加媒体项目的表示。
11.根据权利要求9所述的计算机可读存储介质,其中所述策展视图中的所述媒体项目子集基于与所述媒体项目子集中的所述媒体项目相关联的时间来按时间顺序布置。
12.根据权利要求9所述的计算机可读存储介质,其中包括在所述策展视图中的所述媒体项目子集以策展布置结构来布置,并且其中包括在所述媒体项目的策展布置结构中的所述媒体项目子集被布置成使得所述媒体项目的边缘对齐以便在所述策展布置结构的顶部和底部处产生基本笔直的边界。
13.根据权利要求12所述的计算机可读存储介质,其中所述策展布置结构的所述底部处的所述基本笔直的边界由包括在所述策展视图中的第一多个媒体项目子集形成。
14.根据权利要求13所述的计算机可读存储介质,其中所述第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中所述第一尺寸和所述第二尺寸是不同的,其中所述第一纵横比和所述第二纵横比是不同的,并且其中所述策展布置结构的所述底部处的所述基本笔直的边界由所述第一多个媒体项目中的相邻媒体项目的边缘形成。
15.根据权利要求9所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
部分地基于所述媒体项目的尺寸从所述第一媒体项目集合中的所述媒体项目选择媒体项目的所述策展子集。
16.根据权利要求9所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与包括在所述策展视图中的所述媒体项目子集中的第三媒体项目的选择相对应的用户输入;
响应于接收到与包括在所述策展视图中的所述媒体项目子集中的所述第三媒体项目的选择相对应的所述用户输入,在所述显示器上显示所述第三媒体项目和搓擦示能表示;
接收与所述搓擦示能表示相对应的用户输入;以及
响应于接收到与所述搓擦示能表示相对应的所述用户输入,用媒体项目的所述策展子集中的第四媒体项目的显示替换所述第三媒体项目的显示,同时继续显示所述搓擦示能表示。
17.根据权利要求1所述的计算机可读存储介质,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第三区域,所述第三区域包括地理地图视图,并且其中显示所述详细用户界面还包括:
在所述显示器上显示所述地理地图视图上的位置指示符,所述位置指示符对应于与所述第一媒体项目集合中的第五媒体项目相关联的位置。
18.根据权利要求17所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示所述地理地图视图时,在所述显示器上显示第四示能表示;
接收与所述第四示能表示的选择相对应的用户输入;以及
响应于接收到与所述第四示能表示的选择相对应的所述用户输入,在所述显示器上显示所述地理地图视图中与未包括在所述第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
19.根据权利要求18所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示所述附加位置指示符之后:
在所述显示器上显示第五示能表示;
接收与所述第五示能表示的选择相对应的用户输入;以及
响应于接收到与所述第五示能表示的选择相对应的所述用户输入,停止显示所述地理地图视图中的所述附加位置指示符。
20.根据权利要求17所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与所述位置指示符的选择相对应的用户输入;以及
响应于接收到与所述位置指示符的选择相对应的用户输入,用所述第五媒体项目的显示替换所述地理地图视图的显示。
21.根据权利要求1所述的计算机可读存储介质,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第四区域,所述第四区域包括与所述第一媒体项目集合中的媒体项目中的所识别面部相对应的指示符,并且其中所述计算机可读存储介质还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与对应于所识别面部的所述指示符的选择相对应的用户输入;以及
响应于接收到与对应于所识别面部的所述指示符的选择相对应的用户输入,在所述显示器上显示第四媒体项目集合,其中所述第四媒体项目集合的所述媒体项目各自包括所识别面部。
22.根据权利要求1所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示包括所述第一媒体项目集合的所述详细用户界面之后:
接收表示共享一组共同特征的第五媒体项目集合的数据,其中所述第五媒体项目集合不同于所述第一媒体项目集合;
接收与显示包括所述第一媒体项目集合的所述详细用户界面的请求相对应的用户输入;以及
响应于接收到与显示包括所述第一媒体项目集合的所述详细用户界面的所述请求相对应的所述用户输入,在所述显示器上显示所述详细用户界面以及所述第一区域中的所述第五媒体项目集合的表示。
23.根据权利要求1所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
在显示包括所述第一媒体项目集合的所述详细用户界面时:
在所述显示器上显示第六示能表示;
接收与所述第六示能表示的选择相对应的用户输入;以及
响应于接收到与所述第六示能表示的选择相对应的所述用户输入,将所述第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
24.根据权利要求23所述的计算机可读存储介质,还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
接收与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的用户输入;以及
响应于接收到与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的所述用户输入,在所述显示器上显示所述第一媒体项目集合的所述表示。
25.根据权利要求1所述的计算机可读存储介质,其中显示上下文相关媒体的所述请求是在所述设备处于所述第一上下文时接收的第一请求,并且其中所述计算机可读存储介质还包括指令,所述指令当由所述电子设备的所述一个或多个处理器执行时,使所述设备:
响应于显示上下文相关媒体的所述第一请求:根据确定所述设备处于所述第一上下文,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示;
在所述设备处于第二上下文中时,接收显示上下文相关媒体的第二请求;
响应于显示上下文相关媒体的所述第二请求:根据确定所述设备处于第二上下文,在所述显示器上显示共享一组共同特征并且与所述第二上下文相关的第六媒体项目集合的表示,其中所述第六媒体项目集合与所述第一媒体项目集合不同。
26.根据权利要求1所述的计算机可读存储介质,其中所述第一特征是第三上下文属性。
27.根据权利要求26所述的计算机可读存储介质,其中所述第三上下文属性基于以下中的一者或多者:
一个或多个时间范围;
一年或假期中的特定一天;
一个或多个地理位置;和
包括在媒体项目中的一个或多个识别的人。
28.根据权利要求1所述的计算机可读存储介质,其中所述第一媒体项目集合与所述第二媒体项目集合不同。
29.根据权利要求1所述的计算机可读存储介质,其中所述第一媒体项目集合中的每个所述媒体项目与所述第二媒体项目集合中的每个所述媒体项目不同。
30.根据权利要求1所述的计算机可读存储介质,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括所述第一媒体项目集合中包括的各个媒体项目的多个表示,并且
其中包括所述第二媒体项目集合的至少一部分的所述详细用户界面包括所述第二媒体项目集合中包括的各个媒体项目的多个表示,其中这些表示不包括在所述第一媒体项目集合中包括的各个媒体项目的所述多个表示中。
31.一种电子设备,包括:
显示器;
一个或多个处理器;
存储器;和
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行以下操作的指令:
接收显示上下文相关媒体的请求;以及
响应于所述请求,在所述显示器上显示表示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的第一示能表示;
在显示表示所述第一媒体项目集合的所述第一示能表示时,接收与所述第一示能表示的选择相对应的用户输入;
响应于接收到所述用户输入,在所述显示器上显示包括所述第一媒体项目集合的至少一部分的详细用户界面,其中:
所述详细用户界面包括第一区域,所述第一区域包括表示共享一组共同特征的第二媒体项目集合的第二示能表示,其中所述第二媒体项目集合包括未包括在所述第一媒体项目集合中的至少一个媒体项目,并且
所述第二媒体项目集合中的媒体项目与所述第一媒体项目集合中的媒体项目共享第一特征;
在显示表示所述第二媒体项目集合的所述第二示能表示时,接收与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的用户输入;以及
响应于接收到与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的所述用户输入,在所述显示器上显示包括所述第二媒体项目集合的至少一部分的详细用户界面。
32.根据权利要求31所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
根据确定所述设备处于所述第一上下文,在所述显示器上显示共享一组共同特征并与所述第一上下文相关的第三媒体项目集合的表示,其中所述第一媒体项目集合基于第一上下文属性与所述第一上下文相关,并且所述第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中所述第二上下文属性与所述第一上下文属性不同。
33.根据权利要求31所述的电子设备,其中表示所述第一媒体项目集合的所述第一示能表示包括选自所述第一媒体项目集合中的媒体项目的缩小比例版本。
34.根据权利要求33所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
生成与所述第一媒体项目集合相关联的文本标识符;
识别所选择的媒体项目中的面部,其中所选择的媒体项目是图像;
在所述显示器上显示覆盖在表示所述第一媒体项目集合的所述第一示能表示上的所述文本标识符,其中覆盖文本标识符不与显示为表示所述第一媒体项目集合的所述第一示能表示的所选媒体项目中的所识别面部重叠。
35.根据权利要求34所述的电子设备,其中与所述第一媒体项目集合相关联的所述文本标识符是基于所述第一媒体项目集合与所述第一上下文的相关性来选择的并包括解释所述第一媒体项目集合与所述第一上下文的相关性的一个或多个字词。
36.根据权利要求31所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面之前,在所述显示器上显示视觉上占据所述显示器的第一部分的表示所述第一媒体项目集合的所述第一示能表示;
在接收到与所述第一示能表示的选择相对应的所述用户输入之后,并且在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示视觉上占据所述显示器的第二部分的所述第一媒体项目集合的关键媒体项目,所述显示器的所述第二部分不同于所述显示器的所述第一部分;以及
进一步响应于接收到与所述第一示能表示的选择相对应的所述用户输入,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示过渡到所述关键媒体项目的动画过渡。
37.根据权利要求31所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的幻灯片;
接收与所述幻灯片的选择相对应的用户输入;以及
响应于接收到与所述幻灯片的所述选择相对应的所述用户输入,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的视频,其中所述幻灯片和所述视频是不同的。
38.根据权利要求37所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
接收与编辑所述幻灯片的请求相对应的用户输入;以及
响应于接收到与编辑所述幻灯片的所述请求相对应的所述用户输入,在所述显示器上显示幻灯片编辑用户界面。
39.根据权利要求31所述的电子设备,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第二区域,其中所述第二区域包括策展视图,所述策展视图包括所述第一媒体项目集合的媒体项目子集,其中选择所述媒体项目子集以便排除较低质量照片。
40.根据权利要求39所述的电子设备,其中所述第二区域还包括第三示能表示,并且所述一个或多个程序还包括用于进行以下操作的指令:
接收与所述第三示能表示的选择相对应的用户输入;以及
响应于接收到与所述第三示能表示的选择相对应的所述用户输入,在所述显示器上显示扩展视图,所述扩展视图包括在接收到与所述第三示能表示的选择相对应的所述输入之前所述第一媒体项目集合中的未显示的附加媒体项目的表示。
41.根据权利要求39所述的电子设备,其中所述策展视图中的所述媒体项目子集基于与所述媒体项目子集的所述媒体项目相关联的时间来按时间顺序布置。
42.根据权利要求39所述的电子设备,其中包括在所述策展视图中的所述媒体项目子集以策展布置结构来布置,并且其中包括在所述媒体项目的策展布置结构中的所述媒体项目子集被布置成使得所述媒体项目的边缘对齐以便在所述策展布置结构的顶部和底部处产生基本笔直的边界。
43.根据权利要求42所述的电子设备,其中所述策展布置结构的所述底部处的所述基本笔直的边界由包括在所述策展视图中的第一多个媒体项目子集形成。
44.根据权利要求43所述的电子设备,其中所述第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中所述第一尺寸和所述第二尺寸是不同的,其中所述第一纵横比和所述第二纵横比是不同的,并且其中所述策展布置结构的所述底部处的所述基本笔直的边界由所述第一多个媒体项目中的相邻媒体项目的边缘形成。
45.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
部分地基于所述媒体项目的尺寸从所述第一媒体项目集合中的所述媒体项目中选择媒体项目的所述策展子集。
46.根据权利要求39所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
接收与包括在所述策展视图中的所述媒体项目子集中的第三媒体项目的选择相对应的用户输入;
响应于接收到与包括在所述策展视图中的所述媒体项目子集中的所述第三媒体项目的选择相对应的所述用户输入,在所述显示器上显示所述第三媒体项目和搓擦示能表示;
接收与所述搓擦示能表示相对应的用户输入;以及
响应于接收到与所述搓擦示能表示相对应的所述用户输入,用媒体项目的所述策展子集中的第四媒体项目的显示替换所述第三媒体项目的显示,同时继续显示所述搓擦示能表示。
47.根据权利要求31所述的电子设备,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第三区域,所述第三区域包括地理地图视图,并且其中显示所述详细用户界面还包括:
在所述显示器上显示所述地理地图视图上的位置指示符,所述位置指示符对应于与所述第一媒体项目集合中的第五媒体项目相关联的位置。
48.根据权利要求47所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示所述地理地图视图时,在所述显示器上显示第四示能表示;
接收与所述第四示能表示的选择相对应的用户输入;以及
响应于接收到与所述第四示能表示的选择相对应的所述用户输入,在所述显示器上显示所述地理地图视图中与未包括在所述第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
49.根据权利要求48所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示所述附加位置指示符之后:
在所述显示器上显示第五示能表示;
接收与所述第五示能表示的选择相对应的用户输入;以及
响应于接收到与所述第五示能表示的选择相对应的所述用户输入,停止显示所述地理地图视图中的所述附加位置指示符。
50.根据权利要求47所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
接收与所述位置指示符的选择相对应的用户输入;以及
响应于接收到与所述位置指示符的选择相对应的用户输入,用所述第五媒体项目的显示替换所述地理地图视图的显示。
51.根据权利要求31所述的电子设备,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第四区域,所述第四区域包括与所述第一媒体项目集合中的媒体项目中的所识别面部相对应的指示符,并且所述一个或多个程序还包括用于进行以下操作的指令:
接收与对应于所识别面部的所述指示符的选择相对应的用户输入;以及
响应于接收到与对应于所识别面部的所述指示符的选择相对应的用户输入,在所述显示器上显示第四媒体项目集合,其中所述第四媒体项目集合中的所述媒体项目各自包括所识别面部。
52.根据权利要求31所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示包括所述第一媒体项目集合的所述详细用户界面之后:
接收表示共享一组共同特征的第五媒体项目集合的数据,其中所述第五媒体项目集合不同于所述第一媒体项目集合;
接收与显示包括所述第一媒体项目集合的所述详细用户界面的请求相对应的用户输入;以及
响应于接收到与显示包括所述第一媒体项目集合的所述详细用户界面的所述请求相对应的所述用户输入,在所述显示器上显示所述详细用户界面以及所述第一区域中的所述第五媒体项目集合的表示。
53.根据权利要求31所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
在显示包括所述第一媒体项目集合的所述详细用户界面时:
在所述显示器上显示第六示能表示;
接收与所述第六示能表示的选择相对应的用户输入;以及
响应于接收到与所述第六示能表示的选择相对应的所述用户输入,将所述第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
54.根据权利要求53所述的电子设备,所述一个或多个程序还包括用于进行以下操作的指令:
接收与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的用户输入;并且
响应于接收到与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的所述用户输入,在所述显示器上显示所述第一媒体项目集合的所述表示。
55.权利要求31所述的电子设备,其中显示上下文相关媒体的所述请求是在所述设备处于所述第一上下文时接收的第一请求,并且所述一个或多个程序还包括用于进行以下操作的指令:
响应于显示上下文相关媒体的所述第一请求:根据确定所述设备处于所述第一上下文,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示;
在所述设备处于第二上下文中时,接收显示上下文相关媒体的第二请求;
响应于显示上下文相关媒体的所述第二请求:根据确定所述设备处于第二上下文,在所述显示器上显示共享一组共同特征并且与所述第二上下文相关的第六媒体项目集合的表示,其中所述第六媒体项目集合与所述第一媒体项目集合不同。
56.根据权利要求31所述的电子设备,其中所述第一特征是第三上下文属性。
57.根据权利要求56所述的电子设备,其中所述第三上下文属性基于以下中的一者或多者:
一个或多个时间范围;
一年或假期中的特定一天;
一个或多个地理位置;并且
包括在媒体项目中的一个或多个识别的人。
58.根据权利要求31所述的电子设备,其中所述第一媒体项目集合与所述第二媒体项目集合不同。
59.根据权利要求31所述的电子设备,其中所述第一媒体项目集合中的每个所述媒体项目与所述第二媒体项目集合中的每个所述媒体项目不同。
60.根据权利要求31所述的电子设备,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括所述第一媒体项目集合中包括的各个媒体项目的多个表示,并且
其中包括所述第二媒体项目集合的至少一部分的所述详细用户界面包括所述第二媒体项目集合中包括的各个媒体项目的多个表示,其中这些表示不包括在所述第一媒体项目集合中包括的各个媒体项目的所述多个表示中。
61.一种方法,包括:
在具有显示器的设备处:
接收显示上下文相关媒体的请求;以及
响应于所述请求,在所述显示器上显示表示共享一组共同特征并且与第一上下文相关的第一媒体项目集合的第一示能表示;
在显示表示所述第一媒体项目集合的所述第一示能表示时,接收与所述第一示能表示的选择相对应的用户输入;
响应于接收到所述用户输入,在所述显示器上显示包括所述第一媒体项目集合的至少一部分的详细用户界面,其中:
所述详细用户界面包括第一区域,所述第一区域包括表示共享一组共同特征的第二媒体项目集合的第二示能表示,其中所述第二媒体项目集合包括未包括在所述第一媒体项目集合中的至少一个媒体项目,并且
所述第二媒体项目集合中的媒体项目与所述第一媒体项目集合中的媒体项目共享第一特征;
在显示表示所述第二媒体项目集合的所述第二示能表示时,接收与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的用户输入;以及
响应于接收到与表示所述第二媒体项目集合的所述第二示能表示的选择相对应的所述用户输入,在所述显示器上显示包括所述第二媒体项目集合的至少一部分的详细用户界面。
62.根据权利要求61所述的方法,还包括:
根据确定所述设备处于所述第一上下文,在所述显示器上显示共享一组共同特征并且与所述第一上下文相关的第三媒体项目集合的表示,其中所述第一媒体项目集合基于第一上下文属性与所述第一上下文相关,并且所述第三媒体项目集合基于第二上下文属性与第一上下文相关,并且其中所述第二上下文属性与所述第一上下文属性不同。
63.根据权利要求61所述的方法,其中表示所述第一媒体项目集合的所述第一示能表示包括选自所述第一媒体项目集合中的媒体项目的缩小比例版本。
64.根据权利要求63所述的方法,还包括:
生成与所述第一媒体项目集合相关联的文本标识符;
识别所选择的媒体项目中的面部,其中所选择的媒体项目是图像;
在所述显示器上显示覆盖在表示所述第一媒体项目集合的所述第一示能表示上的所述文本标识符,其中覆盖文本标识符不与显示为表示所述第一媒体项目集合的所述第一示能表示的所选媒体项目中的所识别面部重叠。
65.根据权利要求64所述的方法,其中与所述第一媒体项目集合相关联的所述文本标识符基于所述第一媒体项目集合与所述第一上下文的相关性来选择,并且包括解释所述第一媒体项目集合与所述第一上下文的相关性的一个或多个字词。
66.根据权利要求61所述的方法,还包括:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面之前,在所述显示器上显示视觉上占据所述显示器的第一部分的表示所述第一媒体项目集合的所述第一示能表示;
在接收到与所述第一示能表示的选择相对应的所述用户输入之后,并且在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示视觉上占据所述显示器的第二部分的所述第一媒体项目集合的关键媒体项目,所述显示器的所述第二部分不同于所述显示器的所述第一部分;并且
进一步响应于接收到与所述第一示能表示的选择相对应的所述用户输入,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示过渡到所述关键媒体项目的动画过渡。
67.根据权利要求61所述的方法,还包括:
在显示包括所述第一媒体项目集合的至少一部分的所述详细用户界面时,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的幻灯片;
接收与所述幻灯片的选择相对应的用户输入;并且
响应于接收到与所述幻灯片的所述选择相对应的所述用户输入,在所述显示器上显示包括所述第一媒体项目集合中的多个媒体项目的视频,其中所述幻灯片和所述视频是不同的。
68.根据权利要求67所述的方法,还包括:
接收与编辑所述幻灯片的请求相对应的用户输入;并且
响应于接收到与编辑所述幻灯片的所述请求相对应的所述用户输入,在所述显示器上显示幻灯片编辑用户界面。
69.根据权利要求61所述的方法,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第二区域,其中所述第二区域包括策展视图,所述策展视图包括所述第一媒体项目集合中的媒体项目子集,其中选择所述媒体项目子集以便排除较低质量照片。
70.根据权利要求69所述的方法,其中所述第二区域还包括第三示能表示,所述方法还包括:
接收与所述第三示能表示的选择相对应的用户输入;并且
响应于接收到与所述第三示能表示的选择相对应的所述用户输入,在所述显示器上显示扩展视图,所述扩展视图包括所述第一媒体项目集合中在接收到与所述第三示能表示的选择相对应的所述输入之前未显示的附加媒体项目的表示。
71.根据权利要求69所述的方法,其中所述策展视图中的所述媒体项目子集基于与所述媒体项目子集的所述媒体项目相关联的时间来按时间顺序排列。
72.根据权利要求69所述的方法,其中包括在所述策展视图中的所述媒体项目子集以策展布置结构来布置,并且其中包括在所述媒体项目的策展布置结构中的所述媒体项目子集被布置成使得所述媒体项目的边缘对齐以便在所述策展布置结构的顶部和底部处产生基本笔直的边界。
73.根据权利要求72所述的方法,其中所述策展布置结构的所述底部处的所述基本笔直的边界由包括在所述策展视图中的第一多个媒体项目子集形成。
74.根据权利要求73所述的方法,其中所述第一多个媒体项目包括具有第一尺寸和第一纵横比的第一媒体项目以及具有第二尺寸和第二纵横比的第二媒体项目,其中所述第一尺寸和所述第二尺寸是不同的,其中所述第一纵横比和所述第二纵横比是不同的,并且其中所述策展布置结构的所述底部处的所述基本笔直的边界由所述第一多个媒体项目中的相邻媒体项目的边缘形成。
75.根据权利要求69所述的方法,还包括:
部分地基于所述媒体项目的尺寸从所述第一媒体项目集合的所述媒体项目中选择媒体项目的所述策展子集。
76.根据权利要求69所述的方法,还包括:
接收与包括在所述策展视图中的所述媒体项目子集中的第三媒体项目的选择相对应的用户输入;
响应于接收到与包括在所述策展视图中的所述媒体项目子集中的所述第三媒体项目的选择相对应的所述用户输入,在所述显示器上显示所述第三媒体项目和搓擦示能表示;
接收与所述搓擦示能表示相对应的用户输入;并且
响应于接收到与所述搓擦示能表示相对应的所述用户输入,用媒体项目的所述策展子集中的第四媒体项目的显示替换所述第三媒体项目的显示,同时继续显示所述搓擦示能表示。
77.根据权利要求61所述的方法,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第三区域,所述第三区域包括地理地图视图,并且其中显示所述详细用户界面还包括:
在所述显示器上显示所述地理地图视图上的位置指示符,所述位置指示符对应于与所述第一媒体项目集合中的第五媒体项目相关联的位置。
78.根据权利要求77所述的方法,还包括:
在显示所述地理地图视图时,在所述显示器上显示第四示能表示;
接收与所述第四示能表示的选择相对应的用户输入;并且
响应于接收到与所述第四示能表示的选择相对应的所述用户输入,在所述显示器上显示所述地理地图视图中与未包括在所述第一媒体项目集合中的媒体项目的位置相对应的附加位置指示符。
79.根据权利要求78所述的方法,还包括:
在显示所述附加位置指示符之后:
在所述显示器上显示第五示能表示;
接收与所述第五示能表示的选择相对应的用户输入;并且
响应于接收到与所述第五示能表示的选择相对应的所述用户输入,停止显示所述地理地图视图中的所述附加位置指示符。
80.根据权利要求77所述的方法,还包括:
接收与所述位置指示符的选择相对应的用户输入;并且
响应于接收到与所述位置指示符的选择相对应的用户输入,用所述第五媒体项目的显示替换所述地理地图视图的显示。
81.根据权利要求61所述的方法,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括第四区域,所述第四区域包括与所述第一媒体项目集合中的媒体项目中的所识别面部相对应的指示符,所述方法还包括:
接收与对应于所识别面部的所述指示符的选择相对应的用户输入;并且
响应于接收到与对应于所识别面部的所述指示符的选择相对应的用户输入,在所述显示器上显示第四媒体项目集合,其中所述第四媒体项目集合的所述媒体项目各自包括所识别面部。
82.根据权利要求61所述的方法,还包括:
在显示包括所述第一媒体项目集合的所述详细用户界面之后:
接收表示共享一组共同特征的第五媒体项目集合的数据,其中所述第五媒体项目集合不同于所述第一媒体项目集合;
接收与显示包括所述第一媒体项目集合的所述详细用户界面的请求相对应的用户输入;并且
响应于接收到与显示包括所述第一媒体项目集合的所述详细用户界面的所述请求相对应的所述用户输入,在所述显示器上显示所述详细用户界面以及所述第一区域中的所述第五媒体项目集合的表示。
83.根据权利要求61所述的方法,还包括:
在显示包括所述第一媒体项目集合的所述详细用户界面时:
在所述显示器上显示第六示能表示;
接收与所述第六示能表示的选择相对应的用户输入;并且
响应于接收到与所述第六示能表示的选择相对应的所述用户输入,将所述第一媒体项目集合的标识符与存储在回忆中的所选媒体项目集合的列表相关联。
84.根据权利要求83所述的方法,还包括:
接收与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的用户输入;并且
响应于接收到与查看所选媒体项目集合的所述列表中的媒体项目集合的表示的请求相对应的所述用户输入,在所述显示器上显示所述第一媒体项目集合的所述表示。
85.根据权利要求61所述的方法,其中显示上下文相关媒体的所述请求是在所述设备处于所述第一上下文时接收的第一请求,所述方法还包括:
响应于显示上下文相关媒体的所述第一请求:根据确定所述设备处于所述第一上下文,在所述显示器上显示表示所述第一媒体项目集合的所述第一示能表示;
在所述设备处于第二上下文中时,接收显示上下文相关媒体的第二请求;
响应于显示上下文相关媒体的所述第二请求:根据确定所述设备处于第二上下文,在所述显示器上显示共享一组共同特征并且与所述第二上下文相关的第六媒体项目集合的表示,其中所述第六媒体项目集合与所述第一媒体项目集合不同。
86.根据权利要求61所述的方法,其中所述第一特征是第三上下文属性。
87.根据权利要求86所述的方法,其中所述第三上下文属性基于以下中的一者或多者:
一个或多个时间范围;
一年或假期中的特定一天;
一个或多个地理位置;并且
包括在媒体项目中的一个或多个识别的人。
88.根据权利要求61所述的方法,其中所述第一媒体项目集合与所述第二媒体项目集合不同。
89.根据权利要求61所述的方法,其中所述第一媒体项目集合中的每个所述媒体项目与所述第二媒体项目集合中的每个所述媒体项目不同。
90.根据权利要求61所述的方法,其中包括所述第一媒体项目集合的至少一部分的所述详细用户界面包括所述第一媒体项目集合中包括的各个媒体项目的多个表示,并且
其中包括所述第二媒体项目集合的至少一部分的所述详细用户界面包括所述第二媒体项目集合中包括的各个媒体项目的多个表示,其中这些表示不包括在所述第一媒体项目集合中包括的各个媒体项目的所述多个表示中。
CN201811616429.8A 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面 Active CN109684491B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662349109P 2016-06-12 2016-06-12
US62/349,109 2016-06-12
DKPA201670609 2016-08-10
DKPA201670608A DK201670608A1 (en) 2016-06-12 2016-08-10 User interfaces for retrieving contextually relevant media content
DKPA201670609A DK201670609A1 (en) 2016-06-12 2016-08-10 User interfaces for retrieving contextually relevant media content
DKPA201670608 2016-08-10
CN201780033901.2A CN109313651A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201780033901.2A Division CN109313651A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面

Publications (2)

Publication Number Publication Date
CN109684491A CN109684491A (zh) 2019-04-26
CN109684491B true CN109684491B (zh) 2020-10-23

Family

ID=60572656

Family Applications (3)

Application Number Title Priority Date Filing Date
CN202011127969.7A Pending CN112231496A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面
CN201780033901.2A Pending CN109313651A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面
CN201811616429.8A Active CN109684491B (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN202011127969.7A Pending CN112231496A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面
CN201780033901.2A Pending CN109313651A (zh) 2016-06-12 2017-05-31 用于检索上下文相关媒体内容的用户界面

Country Status (7)

Country Link
US (2) US10073584B2 (zh)
EP (2) EP3472731A4 (zh)
JP (4) JP6550545B1 (zh)
KR (4) KR102128388B1 (zh)
CN (3) CN112231496A (zh)
AU (6) AU2017284958B2 (zh)
DK (2) DK201670608A1 (zh)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
EP2480957B1 (en) 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
KR102111769B1 (ko) * 2013-02-08 2020-06-08 삼성전자주식회사 추천 패널 제공 방법 및 이를 위한 디바이스, 추천 아이템 제공 방법 및 이를 위한 서버
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
USD778942S1 (en) * 2016-01-11 2017-02-14 Apple Inc. Display screen or portion thereof with graphical user interface
CN107015998A (zh) * 2016-01-28 2017-08-04 阿里巴巴集团控股有限公司 一种图片处理方法、装置和智能终端
US10534503B1 (en) 2016-06-06 2020-01-14 Google Llc Motion stills experience
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
KR20180003884A (ko) * 2016-07-01 2018-01-10 삼성전자주식회사 전자 장치 및 그의 정보 제공 방법
KR20210013323A (ko) 2016-09-23 2021-02-03 애플 인크. 아바타 생성 및 편집
USD845974S1 (en) * 2016-12-30 2019-04-16 Adobe Inc. Graphical user interface for displaying a marketing campaign on a screen
USD849029S1 (en) * 2016-12-30 2019-05-21 Adobe Inc. Display screen with graphical user interface for a marketing campaign
US10817895B2 (en) 2016-12-30 2020-10-27 Adobe Inc. Marketing campaign system and method
US10158828B2 (en) 2017-04-05 2018-12-18 Facebook, Inc. Customized graphics for video conversations
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US11323398B1 (en) * 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
USD880493S1 (en) * 2017-08-14 2020-04-07 Hong Kong Liveme Corporation Limited Mobile communication terminal display screen with a transitional graphical user interface
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US10524010B2 (en) * 2017-11-07 2019-12-31 Facebook, Inc. Social interaction user interface for videos
USD861025S1 (en) * 2018-01-23 2019-09-24 Whatsapp Inc. Display screen with an animated graphical user interface
USD870742S1 (en) 2018-01-26 2019-12-24 Facebook, Inc. Display screen or portion thereof with animated user interface
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
WO2020028870A1 (en) * 2018-08-03 2020-02-06 Panoramiq Markets Inc. Location-based verification of user requests, identification of matching users based on image analysis, and generation of notifications on mobile devices
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11657082B2 (en) * 2018-10-08 2023-05-23 Google Llc Systems and methods for displaying media files
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
CN109905772B (zh) * 2019-03-12 2022-07-22 腾讯科技(深圳)有限公司 视频片段查询方法、装置、计算机设备及存储介质
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN114302210A (zh) * 2019-03-24 2022-04-08 苹果公司 用于查看和访问电子设备上的内容的用户界面
DK201970535A1 (en) * 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
WO2020227273A1 (en) * 2019-05-06 2020-11-12 Apple Inc. Media browsing user interface with intelligently selected representative media items
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US20220174145A1 (en) * 2019-05-31 2022-06-02 Apple Inc. Device, Method, and Graphical User Interface for Updating a Background for Home and Wake Screen User Interfaces
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
USD970516S1 (en) * 2019-06-20 2022-11-22 Yandex Europe Ag Display screen or portion thereof with graphical user interface
US11237716B2 (en) 2019-10-14 2022-02-01 Sling TV L.L.C. Devices, systems and processes for facilitating user adaptive progressions through content
DK202070613A1 (en) 2020-02-14 2021-10-15 Apple Inc User interfaces for workout content
CN111294656B (zh) * 2020-03-12 2021-09-14 北京字节跳动网络技术有限公司 用于调节视频播放的方法、装置和电子设备
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11843574B2 (en) * 2020-05-21 2023-12-12 Snap Inc. Featured content collection interface
US11294538B2 (en) * 2020-06-03 2022-04-05 Snap Inc. Timeline media content navigation system
CN111813303B (zh) * 2020-06-10 2022-01-28 维沃移动通信有限公司 文本处理方法、装置、电子设备及可读存储介质
US11539647B1 (en) * 2020-06-17 2022-12-27 Meta Platforms, Inc. Message thread media gallery
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11416917B2 (en) * 2020-08-04 2022-08-16 Contextlogic, Inc. Content carousel
CN114095905A (zh) * 2020-08-05 2022-02-25 华为技术有限公司 设备交互方法和电子设备
CN112087661B (zh) * 2020-08-25 2022-07-22 腾讯科技(上海)有限公司 视频集锦生成方法、装置、设备及存储介质
USD962279S1 (en) * 2020-10-14 2022-08-30 Kwai Games Pte, Ltd. Display screen or portion thereof with graphical user interface
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
USD1013715S1 (en) * 2021-04-01 2024-02-06 Instasize, Inc. Display screen or portion thereof with a graphical user interface
USD1013716S1 (en) * 2021-04-01 2024-02-06 Instasize, Inc. Display screen or portion thereof with a graphical user interface
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
USD1012099S1 (en) * 2021-05-25 2024-01-23 Beijing Kuaimajiabian Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
US20220382811A1 (en) * 2021-06-01 2022-12-01 Apple Inc. Inclusive Holidays
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
CN115525783B (zh) * 2022-01-14 2023-06-16 荣耀终端有限公司 图片显示方法及电子设备
JP1738171S (ja) * 2022-02-22 2023-03-03 X線ct装置
WO2023229932A1 (en) * 2022-05-23 2023-11-30 Snap Inc. Context cards for media supplementation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483758A (zh) * 2009-08-24 2012-05-30 伊斯曼柯达公司 处理关联数字图像文件的地理位置信息
CN102693311A (zh) * 2012-05-28 2012-09-26 中国人民解放军信息工程大学 基于随机化视觉词典组和上下文语义信息的目标检索方法
CN105103154A (zh) * 2013-03-15 2015-11-25 苹果公司 用于组织和呈现媒体项目的集合的设备、方法和图形用户界面

Family Cites Families (385)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
JPH03217976A (ja) 1990-01-23 1991-09-25 Canon Inc 画像処理システム
US5196838A (en) 1990-12-28 1993-03-23 Apple Computer, Inc. Intelligent scrolling
US5416895A (en) 1992-04-08 1995-05-16 Borland International, Inc. System and methods for improved spreadsheet interface with user-familiar objects
US5583542A (en) 1992-05-26 1996-12-10 Apple Computer, Incorporated Method for deleting objects on a computer display
US5604861A (en) 1992-12-28 1997-02-18 International Business Machines Corporation Method and apparatus for improved notebook control in a data procesing system
JPH06309138A (ja) 1993-04-26 1994-11-04 Toshiba Corp タッチパネルを使用した画面制御方法
JP3337798B2 (ja) 1993-12-24 2002-10-21 キヤノン株式会社 画像データ及び音声データを処理する装置、データ処理装置並びにデータ処理方法
JP3974948B2 (ja) 1994-10-07 2007-09-12 株式会社日立製作所 ページめくり表示方法および装置
US5565888A (en) 1995-02-17 1996-10-15 International Business Machines Corporation Method and apparatus for improving visibility and selectability of icons
US5757368A (en) 1995-03-27 1998-05-26 Cirque Corporation System and method for extending the drag function of a computer pointing device
US5677708A (en) 1995-05-05 1997-10-14 Microsoft Corporation System for displaying a list on a display screen
US5973694A (en) 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
JPH099072A (ja) 1995-06-26 1997-01-10 Aibitsukusu Kk 情報通信システム
US5784061A (en) 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
JPH1093848A (ja) 1996-09-17 1998-04-10 Nikon Corp 電子カメラ
US6128012A (en) 1996-09-19 2000-10-03 Microsoft Corporation User interface for a portable data management device with limited size and processing capability
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
US5956035A (en) 1997-05-15 1999-09-21 Sony Corporation Menu selection with menu stem and submenu size enlargement
US6233015B1 (en) 1997-06-27 2001-05-15 Eastman Kodak Company Camera with user compliant browse and display modes
US6920619B1 (en) 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
US6237010B1 (en) 1997-10-06 2001-05-22 Canon Kabushiki Kaisha Multimedia application using flashpix file format
US6301586B1 (en) 1997-10-06 2001-10-09 Canon Kabushiki Kaisha System for managing multimedia objects
JP4280314B2 (ja) 1997-11-27 2009-06-17 富士フイルム株式会社 画面表示部を有する機器の操作装置
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100595925B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6784925B1 (en) 1998-03-24 2004-08-31 Canon Kabushiki Kaisha System to manage digital camera images
US6252596B1 (en) 1998-03-31 2001-06-26 Canon Kabushiki Kaisha Command entry highlight editing for a menu selection system and method
US6167469A (en) 1998-05-18 2000-12-26 Agilent Technologies, Inc. Digital camera having display device for displaying graphical representation of user input and method for transporting the selected digital images thereof
US6292273B1 (en) 1998-08-07 2001-09-18 Hewlett-Packard Company Appliance and method of using same having a delete capability for saved data
US6972792B2 (en) 1998-08-07 2005-12-06 Hewlett-Packard Development Company, L.P. Appliance and method for capturing images having a user error interface
US6453078B2 (en) 1998-08-28 2002-09-17 Eastman Kodak Company Selecting, arranging, and printing digital images from thumbnail images
US6606411B1 (en) 1998-09-30 2003-08-12 Eastman Kodak Company Method for automatically classifying images into events
JP2000138883A (ja) 1998-11-02 2000-05-16 Olympus Optical Co Ltd 画像取り扱い装置
US6351556B1 (en) 1998-11-20 2002-02-26 Eastman Kodak Company Method for automatically comparing content of images for classification into events
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6279018B1 (en) 1998-12-21 2001-08-21 Kudrollis Software Inventions Pvt. Ltd. Abbreviating and compacting text to cope with display space constraint in computer software
US6441824B2 (en) 1999-01-25 2002-08-27 Datarover Mobile Systems, Inc. Method and apparatus for dynamic text resizing
JP3519007B2 (ja) 1999-01-29 2004-04-12 シャープ株式会社 地図情報表示機能を有する情報機器及び地図情報表示方法並びに地図情報表示プログラムを記録した記録媒体
JP2000244637A (ja) * 1999-02-23 2000-09-08 Hitachi Telecom Technol Ltd 連接回線障害時における接続方法
JP2000244673A (ja) 1999-02-24 2000-09-08 Matsushita Electric Ind Co Ltd 携帯電話装置及び方法
JP2000350134A (ja) 1999-06-08 2000-12-15 Sony Corp デジタルカメラ
JP3941292B2 (ja) 1999-07-26 2007-07-04 日本電気株式会社 ページ情報表示方法及び装置並びにページ情報表示用のプログラム又はデータを記憶した記憶媒体
US6452597B1 (en) 1999-08-24 2002-09-17 Microsoft Corporation Displaying text on a limited-area display surface
JP2003512676A (ja) 1999-10-20 2003-04-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像コレクションをブラウズする装置及び方法
JP4264170B2 (ja) 1999-11-02 2009-05-13 富士フイルム株式会社 撮像装置およびその制御方法
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US6686938B1 (en) 2000-01-05 2004-02-03 Apple Computer, Inc. Method and system for providing an embedded application toolbar
US7415662B2 (en) 2000-01-31 2008-08-19 Adobe Systems Incorporated Digital media management apparatus and methods
GB2359177A (en) 2000-02-08 2001-08-15 Nokia Corp Orientation sensitive display and selection mechanism
US20020021758A1 (en) 2000-03-15 2002-02-21 Chui Charles K. System and method for efficient transmission and display of image details by re-usage of compressed data
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP4325075B2 (ja) 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
JP3396718B2 (ja) 2000-04-24 2003-04-14 株式会社ヘリオス 通信端末装置、画像情報記憶方法および情報記憶媒体
US6477117B1 (en) 2000-06-30 2002-11-05 International Business Machines Corporation Alarm interface for a smart watch
US7657916B2 (en) 2000-07-31 2010-02-02 Cisco Technology, Inc. Digital subscriber television networks with local physical storage devices and virtual storage
WO2002012990A2 (en) 2000-08-04 2002-02-14 Copan Inc. Method and system for presenting digital media
US8701022B2 (en) * 2000-09-26 2014-04-15 6S Limited Method and system for archiving and retrieving items based on episodic memory of groups of people
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
JP2002152559A (ja) 2000-11-07 2002-05-24 Olympus Optical Co Ltd 電子カメラ装置および画像処理装置
KR100377936B1 (ko) 2000-12-16 2003-03-29 삼성전자주식회사 이동통신 단말기의 감정 아이콘 입력방법
US6950989B2 (en) 2000-12-20 2005-09-27 Eastman Kodak Company Timeline-based graphical user interface for efficient image database browsing and retrieval
US7139982B2 (en) 2000-12-21 2006-11-21 Xerox Corporation Navigation methods, systems, and computer program products for virtual three-dimensional books
US7015910B2 (en) 2000-12-21 2006-03-21 Xerox Corporation Methods, systems, and computer program products for the display and operation of virtual three-dimensional books
ES2261527T3 (es) 2001-01-09 2006-11-16 Metabyte Networks, Inc. Sistema, procedimiento y aplicacion de software para publicidad dirigida mediante una agrupacion de modelos de comportamiento, y preferencias de programacion basadas en grupos de modelos de comportamiento.
US20020093531A1 (en) 2001-01-17 2002-07-18 John Barile Adaptive display for video conferences
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6964025B2 (en) 2001-03-20 2005-11-08 Microsoft Corporation Auto thumbnail gallery
US6915011B2 (en) 2001-03-28 2005-07-05 Eastman Kodak Company Event clustering of images using foreground/background segmentation
US7930624B2 (en) 2001-04-20 2011-04-19 Avid Technology, Inc. Editing time-based media with enhanced content
US8028249B2 (en) 2001-05-23 2011-09-27 Eastman Kodak Company Method and system for browsing large digital multimedia object collections
US6996782B2 (en) 2001-05-23 2006-02-07 Eastman Kodak Company Using digital objects organized according to a histogram timeline
JP2003076647A (ja) 2001-08-31 2003-03-14 Hitachi Ltd メール送受信方法およびそれを用いる装置
FI114175B (fi) 2001-09-10 2004-08-31 Myorigo Oy Navigointimenetelmä, ohjelmatuote ja laite tiedon esittämiseksi käyttöliittymässä
US7299418B2 (en) 2001-09-10 2007-11-20 International Business Machines Corporation Navigation method for visual presentations
JP2003091347A (ja) 2001-09-18 2003-03-28 Sony Corp 情報処理装置、並びに画面表示方法、画面表示プログラム及び画面表示プログラムが記録された記録媒体
FR2830093A3 (fr) 2001-09-25 2003-03-28 Bahia 21 Corp Procede de navigation par ecran tactile
US7480864B2 (en) 2001-10-12 2009-01-20 Canon Kabushiki Kaisha Zoom editor
US6970200B2 (en) 2001-10-26 2005-11-29 Hewlett-Packard Development Company, L.P. System and method for a simplified digital camera interface for viewing images and controlling camera operation
US6961908B2 (en) 2001-12-05 2005-11-01 International Business Machines Corporation System and method for navigating graphical images
US7970240B1 (en) 2001-12-17 2011-06-28 Google Inc. Method and apparatus for archiving and visualizing digital images
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US7266836B2 (en) 2002-02-04 2007-09-04 Nokia Corporation Tune alerts for remotely adjusting a tuner
AU2003220400A1 (en) 2002-03-19 2003-10-08 America Online, Inc. Controlling content display
US7433546B2 (en) 2004-10-25 2008-10-07 Apple Inc. Image scaling arrangement
US6882337B2 (en) 2002-04-18 2005-04-19 Microsoft Corporation Virtual keyboard for touch-typing using audio feedback
JP3977684B2 (ja) 2002-05-21 2007-09-19 株式会社東芝 デジタルスチルカメラ
JP2003345491A (ja) 2002-05-24 2003-12-05 Sharp Corp 表示入力装置、表示入力方法、プログラムおよび記録媒体
JP2004032346A (ja) 2002-06-26 2004-01-29 Toshiba Corp 画像撮影装置
US20040019640A1 (en) 2002-07-25 2004-01-29 Bartram Linda Ruth System and method for distributing shared storage for collaboration across multiple devices
JP2004145291A (ja) 2002-10-03 2004-05-20 Casio Comput Co Ltd 画像表示装置、画像表示方法及びプログラム
US7515903B1 (en) 2002-10-28 2009-04-07 At&T Mobility Ii Llc Speech to message processing
US20040085457A1 (en) 2002-10-31 2004-05-06 Thorland Miles K. Reviewing stored images
KR100471594B1 (ko) 2002-11-26 2005-03-10 엔에이치엔(주) 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체
US7360172B2 (en) 2002-12-19 2008-04-15 Microsoft Corporation Contact controls
JP2004213129A (ja) 2002-12-27 2004-07-29 Fuji Photo Film Co Ltd 画像分類方法および装置並びにプログラム
US7325198B2 (en) 2002-12-31 2008-01-29 Fuji Xerox Co., Ltd. Calendar-based interfaces for browsing and manipulation of digital images
US7663605B2 (en) 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
US7509321B2 (en) 2003-01-21 2009-03-24 Microsoft Corporation Selection bins for browsing, annotating, sorting, clustering, and filtering media objects
US20040158555A1 (en) 2003-02-11 2004-08-12 Terradigtal Systems Llc. Method for managing a collection of media objects
US7478096B2 (en) 2003-02-26 2009-01-13 Burnside Acquisition, Llc History preservation in a computer storage system
US7380212B2 (en) 2003-03-18 2008-05-27 Microsoft Corporation Dynamic-template incorporation of digital images in an electronic mail message
JP4374610B2 (ja) 2003-04-18 2009-12-02 カシオ計算機株式会社 撮像装置、画像データ記憶方法、及び、プログラム
CN100370799C (zh) 2003-04-18 2008-02-20 卡西欧计算机株式会社 具有通信功能的成像设备和图像数据存储方法
JP4236986B2 (ja) 2003-05-09 2009-03-11 富士フイルム株式会社 撮影装置および方法並びにプログラム
JP2004363892A (ja) 2003-06-04 2004-12-24 Canon Inc 携帯機器
JP4145746B2 (ja) 2003-07-17 2008-09-03 シャープ株式会社 情報出力装置、情報出力方法、情報出力プログラム、および該プログラムを記録した記録媒体
US7164410B2 (en) 2003-07-28 2007-01-16 Sig G. Kupka Manipulating an on-screen object using zones surrounding the object
US7747625B2 (en) 2003-07-31 2010-06-29 Hewlett-Packard Development Company, L.P. Organizing a collection of objects
US7398479B2 (en) 2003-08-20 2008-07-08 Acd Systems, Ltd. Method and system for calendar-based image asset organization
JP2005102126A (ja) 2003-08-21 2005-04-14 Casio Comput Co Ltd 通信機能付撮像装置および表示処理方法
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
US7078785B2 (en) 2003-09-23 2006-07-18 Freescale Semiconductor, Inc. Semiconductor device and making thereof
JP2005100084A (ja) 2003-09-25 2005-04-14 Toshiba Corp 画像処理装置及び方法
US20050071736A1 (en) 2003-09-26 2005-03-31 Fuji Xerox Co., Ltd. Comprehensive and intuitive media collection and management tool
US7484175B2 (en) 2003-09-30 2009-01-27 International Business Machines Corporation Method and apparatus for increasing personability of instant messaging with user images
US7313574B2 (en) 2003-10-02 2007-12-25 Nokia Corporation Method for clustering and querying media items
US7545428B2 (en) 2003-10-02 2009-06-09 Hewlett-Packard Development Company, L.P. System and method for managing digital images
US7636733B1 (en) 2003-10-03 2009-12-22 Adobe Systems Incorporated Time-based image management
US7343568B2 (en) 2003-11-10 2008-03-11 Yahoo! Inc. Navigation pattern on a directory tree
JP2005150836A (ja) 2003-11-11 2005-06-09 Canon Inc 撮影装置
US7680340B2 (en) 2003-11-13 2010-03-16 Eastman Kodak Company Method of using temporal context for image classification
JP4292399B2 (ja) 2003-12-12 2009-07-08 ソニー株式会社 画像処理装置および画像処理方法
JP4457660B2 (ja) 2003-12-12 2010-04-28 パナソニック株式会社 画像分類装置、画像分類システム、画像分類に関するプログラム、およびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20050134945A1 (en) 2003-12-17 2005-06-23 Canon Information Systems Research Australia Pty. Ltd. 3D view for digital photograph management
JP4373199B2 (ja) 2003-12-17 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 電子メール作成装置および通信端末
JP2005202483A (ja) 2004-01-13 2005-07-28 Sony Corp 情報処理装置および方法、並びにプログラム
JP2005202651A (ja) 2004-01-15 2005-07-28 Canon Inc 情報処理装置、情報処理方法、プログラムを記録した記録媒体及び制御プログラム
US20050195221A1 (en) * 2004-03-04 2005-09-08 Adam Berger System and method for facilitating the presentation of content via device displays
JP2007531113A (ja) 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
JP2005303728A (ja) 2004-04-13 2005-10-27 Fuji Photo Film Co Ltd デジタルカメラ
JP2005321516A (ja) 2004-05-07 2005-11-17 Mitsubishi Electric Corp 携帯機器
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
JP5055684B2 (ja) 2004-05-13 2012-10-24 ソニー株式会社 画像フォルダ切替装置
JP4855654B2 (ja) 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
US7464110B2 (en) 2004-06-30 2008-12-09 Nokia Corporation Automated grouping of image and other user data
TWI248576B (en) 2004-07-05 2006-02-01 Elan Microelectronics Corp Method for controlling rolling of scroll bar on a touch panel
JP4903371B2 (ja) 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
JP2006067344A (ja) 2004-08-27 2006-03-09 Mitsubishi Electric Corp 画像付きメールの送信方法および通信端末装置
CN1756273A (zh) 2004-09-27 2006-04-05 华为技术有限公司 一种在手持设备电话簿中增加联系人信息的方法
KR101058011B1 (ko) 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
US7778671B2 (en) 2004-10-08 2010-08-17 Nokia Corporation Mobile communications terminal having an improved user interface and method therefor
US20060077266A1 (en) 2004-10-08 2006-04-13 Nokia Corporation Image processing in a communication device having a camera
KR101058013B1 (ko) 2004-10-13 2011-08-19 삼성전자주식회사 터치 스크린을 갖는 디지털 저장 장치의 섬네일 이미지검색 방법
JP4565495B2 (ja) 2004-11-10 2010-10-20 富士通株式会社 端末装置、端末装置のメール処理方法及びメール処理プログラム
JP4306592B2 (ja) 2004-11-15 2009-08-05 ソニー株式会社 再生装置、表示制御方法
US20060136839A1 (en) 2004-12-22 2006-06-22 Nokia Corporation Indicating related content outside a display area
US7865215B2 (en) 2005-01-07 2011-01-04 Research In Motion Limited Magnification of currently selected menu item
US8024658B1 (en) 2005-01-09 2011-09-20 Apple Inc. Application for designing photo albums
JP4932159B2 (ja) 2005-01-11 2012-05-16 Necカシオモバイルコミュニケーションズ株式会社 通信端末、通信端末の表示方法、及び、コンピュータプログラム
US7606437B2 (en) 2005-01-11 2009-10-20 Eastman Kodak Company Image processing based on ambient air attributes
US7716194B2 (en) 2005-01-12 2010-05-11 Microsoft Corporation File management system employing time line based representation of data
US7852317B2 (en) * 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US7788592B2 (en) 2005-01-12 2010-08-31 Microsoft Corporation Architecture and engine for time line based visualization of data
US20060156237A1 (en) 2005-01-12 2006-07-13 Microsoft Corporation Time line based user interface for visualization of data
US7421449B2 (en) 2005-01-12 2008-09-02 Microsoft Corporation Systems and methods for managing a life journal
JP4481842B2 (ja) 2005-01-24 2010-06-16 キヤノン株式会社 撮像装置及びその制御方法
JP2006236249A (ja) 2005-02-28 2006-09-07 Fuji Photo Film Co Ltd 電子メールの添付画像ファイル生成装置ならびにその方法およびその制御プログラム
US7403642B2 (en) * 2005-04-21 2008-07-22 Microsoft Corporation Efficient propagation for face annotation
US7587671B2 (en) 2005-05-17 2009-09-08 Palm, Inc. Image repositioning, storage and retrieval
US8085318B2 (en) 2005-10-11 2011-12-27 Apple Inc. Real-time image capture and manipulation based on streaming data
FI20055369A0 (fi) 2005-06-30 2005-06-30 Nokia Corp Menetelmä ja laite digitaalisten mediatiedostojen käsittelemiseksi
US8339420B2 (en) 2005-06-30 2012-12-25 Panasonic Corporation Method and apparatus for producing size-appropriate images to be displayed by an electronic device with a small display area
US20070008321A1 (en) 2005-07-11 2007-01-11 Eastman Kodak Company Identifying collection images with special events
JP4600203B2 (ja) 2005-08-08 2010-12-15 株式会社日立製作所 映像再生示装置
US7697040B2 (en) 2005-10-31 2010-04-13 Lightbox Network, Inc. Method for digital photo management and distribution
US7663671B2 (en) 2005-11-22 2010-02-16 Eastman Kodak Company Location based image classification with map segmentation
US20070136778A1 (en) 2005-12-09 2007-06-14 Ari Birger Controller and control method for media retrieval, routing and playback
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7812826B2 (en) 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US7978936B1 (en) * 2006-01-26 2011-07-12 Adobe Systems Incorporated Indicating a correspondence between an image and an object
US7864978B2 (en) 2006-02-06 2011-01-04 Microsoft Corporation Smart arrangement and cropping for photo views
US7559027B2 (en) 2006-02-28 2009-07-07 Palm, Inc. Master multimedia software controls
US20070229678A1 (en) 2006-03-31 2007-10-04 Ricoh Company, Ltd. Camera for generating and sharing media keys
US7627828B1 (en) 2006-04-12 2009-12-01 Google Inc Systems and methods for graphically representing users of a messaging system
KR20070102346A (ko) * 2006-04-13 2007-10-18 삼성전자주식회사 디바이스의 XHTML-Print 데이터 생성 방법 및장치
JP2007287014A (ja) * 2006-04-19 2007-11-01 Seiko Epson Corp 画像処理装置、画像処理方法
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8402382B2 (en) 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
US7503007B2 (en) 2006-05-16 2009-03-10 International Business Machines Corporation Context enhanced messaging and collaboration system
CN101196786B (zh) 2006-06-12 2010-04-14 左莉 光学鼠标的可更换部件和重复使用部件
US20080030456A1 (en) 2006-07-19 2008-02-07 Sony Ericsson Mobile Communications Ab Apparatus and Methods for Providing Motion Responsive Output Modifications in an Electronic Device
US7791594B2 (en) 2006-08-30 2010-09-07 Sony Ericsson Mobile Communications Ab Orientation based multiple mode mechanically vibrated touch screen display
US7855714B2 (en) 2006-09-01 2010-12-21 Research In Motion Limited Method and apparatus for controlling a display in an electronic device
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080091637A1 (en) 2006-10-17 2008-04-17 Terry Dwain Escamilla Temporal association between assets in a knowledge system
JP5156217B2 (ja) 2006-10-24 2013-03-06 株式会社E−マテリアル 耐火被覆材、耐火被覆材の塗工方法、及び耐火被覆の被膜
US7779358B1 (en) 2006-11-30 2010-08-17 Adobe Systems Incorporated Intelligent content organization based on time gap analysis
KR100912877B1 (ko) 2006-12-02 2009-08-18 한국전자통신연구원 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법
US20080133697A1 (en) 2006-12-05 2008-06-05 Palm, Inc. Auto-blog from a mobile device
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
JPWO2008111115A1 (ja) 2007-03-09 2010-06-17 パイオニア株式会社 Av処理装置およびプログラム
JP5287716B2 (ja) 2007-04-13 2013-09-11 日本電気株式会社 写真グループ化装置、写真グループ化方法、および写真グループ化用プログラム
JP4564512B2 (ja) 2007-04-16 2010-10-20 富士通株式会社 表示装置、表示プログラム、および表示方法
US7843454B1 (en) 2007-04-25 2010-11-30 Adobe Systems Incorporated Animated preview of images
US8732161B2 (en) * 2007-04-27 2014-05-20 The Regents Of The University Of California Event based organization and access of digital photos
US7979809B2 (en) 2007-05-11 2011-07-12 Microsoft Corporation Gestured movement of object to display edge
US8934717B2 (en) 2007-06-05 2015-01-13 Intellectual Ventures Fund 83 Llc Automatic story creation using semantic classifiers for digital assets and associated metadata
US8681104B2 (en) 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US20090006965A1 (en) 2007-06-26 2009-01-01 Bodin William K Assisting A User In Editing A Motion Picture With Audio Recast Of A Legacy Web Page
US8717412B2 (en) 2007-07-18 2014-05-06 Samsung Electronics Co., Ltd. Panoramic image production
JP5128880B2 (ja) * 2007-08-30 2013-01-23 オリンパスイメージング株式会社 画像取扱装置
US20090063542A1 (en) 2007-09-04 2009-03-05 Bull William E Cluster Presentation of Digital Assets for Electronic Devices
US20090066648A1 (en) * 2007-09-07 2009-03-12 Apple Inc. Gui applications for use with 3d remote controller
US20090113315A1 (en) 2007-10-26 2009-04-30 Yahoo! Inc. Multimedia Enhanced Instant Messaging Engine
US20090113350A1 (en) 2007-10-26 2009-04-30 Stacie Lynn Hibino System and method for visually summarizing and interactively browsing hierarchically structured digital objects
KR20090050577A (ko) 2007-11-16 2009-05-20 삼성전자주식회사 멀티미디어 컨텐츠를 표시 및 재생하는 사용자인터페이스및 그 장치와 제어방법
JP4709199B2 (ja) 2007-11-19 2011-06-22 デジタル・アドバタイジング・コンソーシアム株式会社 広告評価システム及び広告評価方法
US8150098B2 (en) 2007-12-20 2012-04-03 Eastman Kodak Company Grouping images by location
CN104866553A (zh) * 2007-12-31 2015-08-26 应用识别公司 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序
US8099679B2 (en) * 2008-02-14 2012-01-17 Palo Alto Research Center Incorporated Method and system for traversing digital records with multiple dimensional attributes
US20090216806A1 (en) * 2008-02-24 2009-08-27 Allofme Ltd. Digital assets internet timeline aggregation and sharing platform
US8132116B1 (en) 2008-02-28 2012-03-06 Adobe Systems Incorporated Configurable iconic image representation
US8907990B2 (en) 2008-04-01 2014-12-09 Takatoshi Yanase Display system, display method, program, and recording medium
US8788967B2 (en) 2008-04-10 2014-07-22 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
JP5383668B2 (ja) 2008-04-30 2014-01-08 株式会社アクロディア キャラクタ表示用データの生成装置および方法
WO2009137688A2 (en) 2008-05-07 2009-11-12 Carrot Medical Llc Integration system for medical instruments with remote control
US8620641B2 (en) 2008-05-16 2013-12-31 Blackberry Limited Intelligent elision
KR101488726B1 (ko) 2008-05-27 2015-02-06 삼성전자주식회사 위젯 창을 표시하는 디스플레이 장치 및 이를 포함하는디스플레이 시스템과 그 디스플레이 방법
GB2460844B (en) 2008-06-10 2012-06-06 Half Minute Media Ltd Automatic detection of repeating video sequences
US8339451B2 (en) * 2008-06-27 2012-12-25 Nokia Corporation Image navigation with multiple images
AU2008358849A1 (en) 2008-06-30 2010-01-07 Accenture Global Services Limited Gaming system
WO2010000074A1 (en) 2008-07-03 2010-01-07 Germann Stephen R Method and system for applying metadata to data sets of file objects
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8200669B1 (en) 2008-08-21 2012-06-12 Adobe Systems Incorporated Management of smart tags via hierarchy
US20100076976A1 (en) 2008-09-06 2010-03-25 Zlatko Manolov Sotirov Method of Automatically Tagging Image Data
JP4752897B2 (ja) 2008-10-31 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
KR20100052676A (ko) 2008-11-11 2010-05-20 삼성전자주식회사 컨텐츠 앨범화 장치 및 그 방법
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US8611677B2 (en) 2008-11-19 2013-12-17 Intellectual Ventures Fund 83 Llc Method for event-based semantic classification
JP5289022B2 (ja) 2008-12-11 2013-09-11 キヤノン株式会社 情報処理装置及び情報処理方法
US8122024B2 (en) * 2008-12-12 2012-02-21 Research In Motion Limited Method and system for storing multiple geo-tagged media files and rendering the same
US8566403B2 (en) 2008-12-23 2013-10-22 At&T Mobility Ii Llc Message content management system
TWM361674U (en) 2009-02-19 2009-07-21 Sentelic Corp Touch control module
US8698920B2 (en) 2009-02-24 2014-04-15 Olympus Imaging Corp. Image display apparatus and image display method
CN101854278A (zh) * 2009-04-01 2010-10-06 升东网络科技发展(上海)有限公司 即时通讯中的多媒体传输系统和方法
JP2010259064A (ja) 2009-04-03 2010-11-11 Olympus Imaging Corp 表示装置及び撮像装置
US8745139B2 (en) 2009-05-22 2014-06-03 Cisco Technology, Inc. Configuring channels for sharing media
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US20110145275A1 (en) * 2009-06-19 2011-06-16 Moment Usa, Inc. Systems and methods of contextual user interfaces for display of media items
US20110035700A1 (en) 2009-08-05 2011-02-10 Brian Meaney Multi-Operation User Interface Tool
US8670597B2 (en) * 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US20110050564A1 (en) 2009-09-01 2011-03-03 Motorola, Inc. Dynamic Picture Frame in Electronic Handset
US20110050640A1 (en) 2009-09-03 2011-03-03 Niklas Lundback Calibration for a Large Scale Multi-User, Multi-Touch System
US20110099199A1 (en) 2009-10-27 2011-04-28 Thijs Stalenhoef Method and System of Detecting Events in Image Collections
US8839128B2 (en) * 2009-11-25 2014-09-16 Cooliris, Inc. Gallery application for content viewing
US8571331B2 (en) 2009-11-30 2013-10-29 Xerox Corporation Content based image selection for automatic photo album generation
US8736561B2 (en) * 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
JP2011209887A (ja) 2010-03-29 2011-10-20 Sannetto:Kk アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
US8326880B2 (en) 2010-04-05 2012-12-04 Microsoft Corporation Summarizing streams of information
US8495057B2 (en) * 2010-05-17 2013-07-23 Microsoft Corporation Image searching with recognition suggestion
US8694899B2 (en) 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US8484562B2 (en) 2010-06-25 2013-07-09 Apple Inc. Dynamic text adjustment in a user interface element
US9727128B2 (en) * 2010-09-02 2017-08-08 Nokia Technologies Oy Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
US8564728B2 (en) * 2010-09-08 2013-10-22 Telefonaktiebolaget L M Ericsson (Publ) Gesture-based control of IPTV system
US9195637B2 (en) 2010-11-03 2015-11-24 Microsoft Technology Licensing, Llc Proportional font scaling
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US8612441B2 (en) 2011-02-04 2013-12-17 Kodak Alaris Inc. Identifying particular images from a collection
CN103502986B (zh) 2011-03-07 2015-04-29 科宝2股份有限公司 用于从事件或地理位置处的图像提供者进行分析数据采集的系统及方法
TW201239869A (en) 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for adjusting font size on screen
JP5735330B2 (ja) 2011-04-08 2015-06-17 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
US20120311444A1 (en) * 2011-06-05 2012-12-06 Apple Inc. Portable multifunction device, method, and graphical user interface for controlling media playback using gestures
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US9552376B2 (en) * 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8582828B2 (en) * 2011-06-24 2013-11-12 Google Inc. Using photographs to manage groups
US9411506B1 (en) 2011-06-28 2016-08-09 Google Inc. Providing additional functionality for a group messaging application
US20130022282A1 (en) 2011-07-19 2013-01-24 Fuji Xerox Co., Ltd. Methods for clustering collections of geo-tagged photographs
KR101552194B1 (ko) 2011-07-20 2015-09-11 네이버 주식회사 영상을 앨범 단위로 관리 및 공유하는 시스템 및 방법
KR101832959B1 (ko) 2011-08-10 2018-02-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US8625904B2 (en) 2011-08-30 2014-01-07 Intellectual Ventures Fund 83 Llc Detecting recurring themes in consumer image collections
CN102271241A (zh) 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及系统
CN103718172A (zh) * 2011-09-21 2014-04-09 株式会社尼康 图像处理装置、程序、图像处理方法及摄像装置
JP5983983B2 (ja) 2011-10-03 2016-09-06 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5967794B2 (ja) * 2011-10-06 2016-08-10 Kddi株式会社 閲覧者と被写体人物との関係に応じて表示サイズを決定する画面出力装置、プログラム及び方法
US9143601B2 (en) 2011-11-09 2015-09-22 Microsoft Technology Licensing, Llc Event-based media grouping, playback, and sharing
US9230223B2 (en) 2011-12-05 2016-01-05 Houzz, Inc. Consistent presentation of content and passive relevance determination of content relationship in an on-line commerce system
US9256620B2 (en) * 2011-12-20 2016-02-09 Amazon Technologies, Inc. Techniques for grouping images
US9292195B2 (en) 2011-12-29 2016-03-22 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
KR101303166B1 (ko) * 2012-01-26 2013-09-09 엘지전자 주식회사 이동 단말기 및 그의 사진 검색방법
KR101907136B1 (ko) 2012-01-27 2018-10-11 라인 가부시키가이샤 유무선 웹을 통한 아바타 서비스 시스템 및 방법
KR102024587B1 (ko) 2012-02-02 2019-09-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2013120851A1 (en) 2012-02-13 2013-08-22 Mach-3D Sàrl Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
US9301114B2 (en) 2012-02-22 2016-03-29 Nokia Technologies Oy Method and apparatus for determining significant places
US20130239030A1 (en) 2012-03-06 2013-09-12 Apple Inc. Application for publishing journals
WO2013143141A1 (en) 2012-03-31 2013-10-03 Peking University Tag refinement strategies for social tagging systems
CN102681847B (zh) * 2012-04-28 2015-06-03 华为终端有限公司 触屏终端对象处理方法及触屏终端
US20130293686A1 (en) 2012-05-03 2013-11-07 Qualcomm Incorporated 3d reconstruction of human subject using a mobile device
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9021034B2 (en) 2012-07-09 2015-04-28 Facebook, Inc. Incorporating external event information into a social networking system
US9092455B2 (en) * 2012-07-17 2015-07-28 Microsoft Technology Licensing, Llc Image curation
WO2014014459A1 (en) 2012-07-19 2014-01-23 Empire Technology Development, Llc Content suggestion for posting on communication network
US20140055495A1 (en) 2012-08-22 2014-02-27 Lg Cns Co., Ltd. Responsive user interface engine for display devices
US9147008B2 (en) 2012-09-13 2015-09-29 Cisco Technology, Inc. Activity based recommendations within a social networking environment based upon graph activation
US20140082533A1 (en) 2012-09-20 2014-03-20 Adobe Systems Incorporated Navigation Interface for Electronic Content
JP5925655B2 (ja) 2012-09-28 2016-05-25 富士フイルム株式会社 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
KR102004287B1 (ko) 2012-10-17 2019-07-26 에스케이플래닛 주식회사 이모티콘 생성 장치 및 이모티콘 생성 방법
US9870554B1 (en) 2012-10-23 2018-01-16 Google Inc. Managing documents based on a user's calendar
JP2014093003A (ja) 2012-11-05 2014-05-19 Robot:Kk 書籍作成システム及び書籍印刷システム
JP2014095979A (ja) * 2012-11-08 2014-05-22 Sony Corp 電子機器、画像データ処理方法およびプログラム
KR102083209B1 (ko) 2012-11-22 2020-03-02 삼성전자 주식회사 데이터 제공 방법 및 휴대 단말
JP2014109881A (ja) 2012-11-30 2014-06-12 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
US9778819B2 (en) * 2012-12-07 2017-10-03 Google Inc. Displaying a stream of content
US20140172622A1 (en) * 2012-12-14 2014-06-19 Rawllin International Inc. Selecting and scrolling media content associated with media content items
CN104782120B (zh) 2012-12-17 2018-08-10 英特尔公司 化身动画制作方法、计算设备和存储介质
WO2014105916A2 (en) 2012-12-26 2014-07-03 Google Inc. Promoting sharing in a social network system
US20140189584A1 (en) 2012-12-27 2014-07-03 Compal Communications, Inc. Method for switching applications in user interface and electronic apparatus using the same
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
US10051103B1 (en) 2013-01-10 2018-08-14 Majen Tech, LLC Screen interface for a mobile device apparatus
CN103927190A (zh) 2013-01-11 2014-07-16 腾讯科技(深圳)有限公司 网络表情下载方法与装置
US9380431B1 (en) 2013-01-31 2016-06-28 Palantir Technologies, Inc. Use of teams in a mobile application
US9323855B2 (en) 2013-02-05 2016-04-26 Facebook, Inc. Processing media items in location-based groups
JP2014157390A (ja) 2013-02-14 2014-08-28 Sony Corp 情報処理装置及び記憶媒体
US10191945B2 (en) 2013-02-20 2019-01-29 The Florida International University Board Of Trustees Geolocating social media
JP5697058B2 (ja) 2013-02-27 2015-04-08 株式会社ユピテル ナビゲーション装置及びプログラム
US9411831B2 (en) 2013-03-01 2016-08-09 Facebook, Inc. Photo clustering into moments
EP2973138A4 (en) 2013-03-11 2016-09-07 Hewlett Packard Entpr Dev Lp CORRELATION OF EVENTS ACCORDING TO TRUST FACTOR
KR102367838B1 (ko) * 2013-03-15 2022-02-24 애플 인크. 동시에 열린 소프트웨어 애플리케이션들을 관리하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9317188B2 (en) 2013-03-15 2016-04-19 Arris Enterprises, Inc. Devices and methods for providing navigation images associated with adaptive bit rate video content
US9654761B1 (en) 2013-03-15 2017-05-16 Google Inc. Computer vision algorithm for capturing and refocusing imagery
US9286546B2 (en) 2013-03-15 2016-03-15 Google Inc. Identifying labels for image collections
JP6314975B2 (ja) 2013-04-01 2018-04-25 ソニー株式会社 表示制御装置、表示制御方法および表示制御プログラム
CN103279261B (zh) 2013-04-23 2016-06-29 惠州Tcl移动通信有限公司 无线通讯设备及其窗口小部件的添加方法
US10341421B2 (en) 2013-05-10 2019-07-02 Samsung Electronics Co., Ltd. On-device social grouping for automated responses
US9760803B2 (en) 2013-05-15 2017-09-12 Google Inc. Associating classifications with images
CN104184760B (zh) 2013-05-22 2018-08-07 阿里巴巴集团控股有限公司 通讯过程中的信息交互方法、客户端及服务器
US9449027B2 (en) * 2013-06-04 2016-09-20 Nokia Technologies Oy Apparatus and method for representing and manipulating metadata
WO2014194439A1 (en) 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
US10168882B2 (en) * 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
US9325783B2 (en) 2013-08-07 2016-04-26 Google Inc. Systems and methods for inferential sharing of photos
US9338242B1 (en) 2013-09-09 2016-05-10 Amazon Technologies, Inc. Processes for generating content sharing recommendations
US9652475B2 (en) * 2013-09-17 2017-05-16 Google Technology Holdings LLC Highlight reels
CN104462113B (zh) 2013-09-17 2018-10-23 腾讯科技(深圳)有限公司 搜索方法、装置及电子设备
US20150143234A1 (en) 2013-10-22 2015-05-21 Forbes Holten Norris, III Ergonomic micro user interface display and editing
US10417588B1 (en) * 2013-12-06 2019-09-17 Guidewire Software, Inc. Processing insurance related address information
WO2015092489A1 (en) 2013-12-20 2015-06-25 Sony Corporation Method of controlling a graphical user interface for a mobile electronic device
US9811245B2 (en) * 2013-12-24 2017-11-07 Dropbox, Inc. Systems and methods for displaying an image capturing mode and a content viewing mode
US20150180980A1 (en) 2013-12-24 2015-06-25 Dropbox, Inc. Systems and methods for preserving shared virtual spaces on a content management system
US9519408B2 (en) 2013-12-31 2016-12-13 Google Inc. Systems and methods for guided user actions
WO2015107640A1 (ja) 2014-01-15 2015-07-23 富士通株式会社 アルバム作成プログラム、アルバム作成方法およびアルバム作成装置
US20150227166A1 (en) * 2014-02-13 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof
US9462054B2 (en) 2014-02-27 2016-10-04 Dropbox, Inc. Systems and methods for providing a user with a set of interactivity features locally on a user device
US20150256491A1 (en) 2014-03-04 2015-09-10 Microsoft Corporation Recipient suggestion system
US20150262062A1 (en) * 2014-03-17 2015-09-17 Microsoft Corporation Decision tree threshold coding
US9891794B2 (en) * 2014-04-25 2018-02-13 Dropbox, Inc. Browsing and selecting content items based on user gestures
US11170037B2 (en) 2014-06-11 2021-11-09 Kodak Alaris Inc. Method for creating view-based representations from multimedia collections
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
KR20160017954A (ko) 2014-08-07 2016-02-17 삼성전자주식회사 전자장치 및 전자장치의 전송 제어 방법
KR101540544B1 (ko) 2014-09-05 2015-07-30 서용창 캐릭터를 이용한 메시지 서비스 방법, 상기 방법을 수행하는 사용자 단말, 상기 방법을 포함하는 메시지 애플리케이션
KR102188267B1 (ko) 2014-10-02 2020-12-08 엘지전자 주식회사 이동단말기 및 그 제어방법
US10318575B2 (en) 2014-11-14 2019-06-11 Zorroa Corporation Systems and methods of building and using an image catalog
US9906772B2 (en) 2014-11-24 2018-02-27 Mediatek Inc. Method for performing multi-camera capturing control of an electronic device, and associated apparatus
KR20160087640A (ko) 2015-01-14 2016-07-22 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6152125B2 (ja) 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
US10284537B2 (en) 2015-02-11 2019-05-07 Google Llc Methods, systems, and media for presenting information related to an event based on metadata
WO2016160629A1 (en) 2015-03-27 2016-10-06 Google Inc. Providing selected images from a set of images
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
KR101611895B1 (ko) * 2015-07-23 2016-04-12 연세대학교 산학협력단 감정 기반의 자동 문구 디자인 장치 및 그 방법
US20170063753A1 (en) 2015-08-27 2017-03-02 Pinterest, Inc. Suggesting object identifiers to include in a communication
US9781392B2 (en) 2015-09-16 2017-10-03 Intel Corporation Facilitating personal assistance for curation of multimedia and generation of stories at computing devices
EP3274878A1 (en) 2015-09-28 2018-01-31 Google LLC Sharing images and image albums over a communication network
US10122674B2 (en) 2015-11-03 2018-11-06 Ipxlu, Llc Method of creating a PXLgram
JP6223405B2 (ja) 2015-11-11 2017-11-01 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP2017097407A (ja) 2015-11-18 2017-06-01 株式会社東芝 電子機器及び表示制御方法
US20170192625A1 (en) 2015-12-31 2017-07-06 Young Kim Data managing and providing method and system for the same
US10976923B2 (en) 2016-02-11 2021-04-13 Hyperkey, Inc. Enhanced virtual keyboard
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
US20170244959A1 (en) * 2016-02-19 2017-08-24 Adobe Systems Incorporated Selecting a View of a Multi-View Video
US11227017B2 (en) 2016-05-17 2022-01-18 Google Llc Providing suggestions for interaction with an automated assistant in a multi-user message exchange thread
DK201670608A1 (en) 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
US10664157B2 (en) 2016-08-03 2020-05-26 Google Llc Image search query predictions by a keyboard
KR20210013323A (ko) 2016-09-23 2021-02-03 애플 인크. 아바타 생성 및 편집
KR20180057366A (ko) 2016-11-22 2018-05-30 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN110495125B (zh) 2017-03-24 2022-07-15 苹果公司 用于传输或接收下行链路控制信息的方法和装置
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
CN110932673A (zh) 2018-09-19 2020-03-27 恩智浦美国有限公司 一种包含并联陷波滤波器的斩波稳定放大器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483758A (zh) * 2009-08-24 2012-05-30 伊斯曼柯达公司 处理关联数字图像文件的地理位置信息
CN102693311A (zh) * 2012-05-28 2012-09-26 中国人民解放军信息工程大学 基于随机化视觉词典组和上下文语义信息的目标检索方法
CN105103154A (zh) * 2013-03-15 2015-11-25 苹果公司 用于组织和呈现媒体项目的集合的设备、方法和图形用户界面

Also Published As

Publication number Publication date
AU2019271873B2 (en) 2020-12-10
JP2019523477A (ja) 2019-08-22
AU2022201561B2 (en) 2022-08-04
CN109313651A (zh) 2019-02-05
KR20200022541A (ko) 2020-03-03
CN112231496A (zh) 2021-01-15
AU2022263576B2 (en) 2023-12-21
KR20190028574A (ko) 2019-03-18
AU2020267310A1 (en) 2020-12-10
JP6820381B2 (ja) 2021-01-27
JP6956910B2 (ja) 2021-11-02
US10073584B2 (en) 2018-09-11
EP4064064A1 (en) 2022-09-28
AU2019271873A1 (en) 2019-12-12
US10891013B2 (en) 2021-01-12
CN109684491A (zh) 2019-04-26
AU2017284958A1 (en) 2018-12-20
EP3472731A4 (en) 2020-02-12
KR102124285B1 (ko) 2020-06-23
KR20180133531A (ko) 2018-12-14
AU2022201561A1 (en) 2022-03-31
EP3472731A1 (en) 2019-04-24
KR20200090876A (ko) 2020-07-29
US20170357382A1 (en) 2017-12-14
AU2024201844A1 (en) 2024-04-11
JP2021073559A (ja) 2021-05-13
AU2022263576A1 (en) 2022-12-08
KR102128388B1 (ko) 2020-06-30
US20180364872A1 (en) 2018-12-20
JP6550545B1 (ja) 2019-07-24
DK201670609A1 (en) 2018-01-02
AU2020267310B2 (en) 2022-03-10
DK201670608A1 (en) 2018-01-02
KR101959328B1 (ko) 2019-03-18
JP2021144739A (ja) 2021-09-24
AU2017284958B2 (en) 2019-09-12
JP2019215874A (ja) 2019-12-19
KR102257131B1 (ko) 2021-05-26
JP6895028B2 (ja) 2021-06-30

Similar Documents

Publication Publication Date Title
CN109684491B (zh) 用于检索上下文相关媒体内容的用户界面
US11941223B2 (en) User interfaces for retrieving contextually relevant media content
WO2017218194A1 (en) User interfaces for retrieving contextually relevant media content
CN114115667A (zh) 具有智能选择的代表性媒体项的媒体浏览用户界面
CN111684403A (zh) 用于图形用户界面的媒体捕获锁定示能表示

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant