CN113330488A - 基于面部特征移动的虚拟头像动画 - Google Patents

基于面部特征移动的虚拟头像动画 Download PDF

Info

Publication number
CN113330488A
CN113330488A CN202080009772.5A CN202080009772A CN113330488A CN 113330488 A CN113330488 A CN 113330488A CN 202080009772 A CN202080009772 A CN 202080009772A CN 113330488 A CN113330488 A CN 113330488A
Authority
CN
China
Prior art keywords
avatar
feature
movement
facial
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080009772.5A
Other languages
English (en)
Inventor
N·斯卡佩尔
G·P·A·巴利尔
A·古兹曼
J·瑞克瓦德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN113330488A publication Critical patent/CN113330488A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开整体涉及显示视觉效果诸如虚拟头像。一种具有相机和显示装置的电子设备显示响应于所述相机的视场中的面部的变化而改变外观的虚拟头像。响应于检测到所述相机的所述视场中的所述面部的一个或多个物理特征的变化,所述电子设备修改所述虚拟头像的一个或多个特征。

Description

基于面部特征移动的虚拟头像动画
相关申请的交叉引用
本申请要求2019年1月18日提交的标题为“VIRTUAL AVATAR ANIMATION BASED ONFACIAL FEATURE MOVEMENT”的美国临时申请序列号62/794,496和2019年10月24日提交的标题为“VIRTUAL AVATAR ANIMATION BASED ON FACIAL FEATURE MOVEMENT”的美国非临时申请序列号16/663,062的优先权。这两个专利申请的内容全文以引用方式并入本文以用于所有目的。
技术领域
本公开整体涉及计算机用户界面,并且更具体地涉及用于显示视觉效果的技术。
背景技术
视觉效果用于在使用电子设备捕获和查看媒体时增强用户的体验。视觉效果可改变图像数据的外观,或可表示在图像中捕获到的环境的理想化或完全虚构表示。
发明内容
然而,用于使用电子设备来显示视觉效果的一些技术通常很麻烦且效率低下。例如,一些现有技术使用复杂且耗时的用户界面,该用户界面可包括多次按键或击键。现有技术需要比所需更多的时间,这导致浪费用户的时间和设备能量。这后一考虑在电池驱动的设备中是特别重要的。
因此,本技术为电子设备提供了更快、更有效的方法和界面,以用于显示视觉效果。此类方法和界面任选地补充或替换用于显示视觉效果的其他方法。此类方法和界面减少对用户所造成的认知负担,并且产生更有效的人机界面。对于电池驱动的计算设备,此类方法和界面节省功率,并且增大电池充电之间的时间间隔。
本公开描述了一种方法。该方法在具有一个或多个相机和显示装置的电子设备上执行。该方法包括:经由显示装置显示具有多个头像特征的虚拟头像,所述多个头像特征响应于检测到一个或多个相机的视场中的面部的姿势的变化而改变外观,多个头像特征包括:第一头像特征;不同于第一头像特征的第二头像特征;以及不同于第一头像特征和第二头像特征的第三头像特征;当在所述一个或多个相机的所述视场中检测到所述面部时,检测所述面部的一个或多个面部特征的移动,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及响应于检测到一个或多个面部特征的移动:根据确定检测到的一个或多个面部特征的移动包括第一面部特征沿第一方向的移动:基于检测到的第一面部特征沿第一方向的移动,沿第一方向移动第一头像特征;以及沿不同于第一方向的第二方向并且基于检测到的第一面部特征沿第一方向的移动而移动第二头像特征和第三头像特征;以及根据确定检测到的一个或多个面部特征的移动包括第二面部特征的移动:基于第二面部特征的移动的方向和量值中的至少一者来移动第二头像特征。
本公开描述了一种非暂态计算机可读存储介质。非暂态计算机可读存储介质存储被配置为由具有一个或多个相机和显示装置的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示装置显示具有多个头像特征的虚拟头像,多个头像特征响应于检测到一个或多个相机的视场中的面部的姿势的变化而改变外观,多个头像特征包括:第一头像特征;不同于第一头像特征的第二头像特征;以及不同于第一头像特征和第二头像特征的第三头像特征;当在所述一个或多个相机的所述视场中检测到所述面部时,检测所述面部的一个或多个面部特征的移动,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及响应于检测到一个或多个面部特征的移动:根据确定检测到的一个或多个面部特征的移动包括第一面部特征沿第一方向的移动:基于检测到的第一面部特征沿第一方向的移动,沿第一方向移动第一头像特征;以及沿不同于第一方向的第二方向并且基于检测到的第一面部特征沿第一方向的移动而移动第二头像特征和第三头像特征;以及根据确定检测到的一个或多个面部特征的移动包括第二面部特征的移动:基于第二面部特征的移动的方向和量值中的至少一者来移动第二头像特征。
本公开描述了一种暂态计算机可读存储介质。暂态计算机可读存储介质存储被配置为由具有一个或多个相机和显示装置的电子设备的一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示装置显示具有多个头像特征的虚拟头像,多个头像特征响应于检测到一个或多个相机的视场中的面部的姿势的变化而改变外观,多个头像特征包括:第一头像特征;不同于第一头像特征的第二头像特征;以及不同于第一头像特征和第二头像特征的第三头像特征;当在一个或多个相机的视场中检测到面部时,检测面部的一个或多个面部特征的移动,面部包括多个检测到的面部特征,多个检测到的面部特征包括第一面部特征和不同于第一面部特征的第二面部特征;以及响应于检测到一个或多个面部特征的移动:根据确定检测到的一个或多个面部特征的移动包括第一面部特征沿第一方向的移动:基于检测到的第一面部特征沿第一方向的移动,沿第一方向移动第一头像特征;以及沿不同于第一方向的第二方向并且基于检测到的第一面部特征沿第一方向的移动而移动第二头像特征和第三头像特征;以及根据确定检测到的一个或多个面部特征的移动包括第二面部特征的移动:基于第二面部特征的移动的方向和量值中的至少一者来移动第二头像特征。
本公开描述了一种电子设备。该电子设备包括:显示装置;一个或多个相机;一个或多个处理器;以及存储器,该存储器存储被配置为由该一个或多个处理器执行的一个或多个程序,该一个或多个程序包括用于执行以下操作的指令:经由显示装置显示具有多个头像特征的虚拟头像,多个头像特征响应于检测到一个或多个相机的视场中的面部的姿势的变化而改变外观,多个头像特征包括:第一头像特征;不同于第一头像特征的第二头像特征;以及不同于第一头像特征和第二头像特征的第三头像特征;当在一个或多个相机的视场中检测到面部时,检测面部的一个或多个面部特征的移动,面部包括多个检测到的面部特征,多个检测到的面部特征包括第一面部特征和不同于第一面部特征的第二面部特征;以及响应于检测到一个或多个面部特征的移动:根据确定检测到的一个或多个面部特征的移动包括第一面部特征沿第一方向的移动:基于检测到的第一面部特征沿第一方向的移动,沿第一方向移动第一头像特征;以及沿不同于第一方向的第二方向并且基于检测到的第一面部特征沿第一方向的移动而移动第二头像特征和第三头像特征;以及根据确定检测到的一个或多个面部特征的移动包括第二面部特征的移动:基于第二面部特征的移动的方向和量值中的至少一者来移动第二头像特征。
本公开描述了一种电子设备。该电子设备包括:显示装置;一个或多个相机;用于经由显示装置显示具有多个头像特征的虚拟头像的装置,多个头像特征响应于检测到一个或多个相机的视场中的面部的姿势的变化而改变外观,多个头像特征包括:第一头像特征;不同于第一头像特征的第二头像特征;以及不同于第一头像特征和第二头像特征的第三头像特征;用于当在一个或多个相机的视场中检测到面部时检测面部的一个或多个面部特征的移动的装置,面部包括多个检测到的面部特征,多个检测到的面部特征包括第一面部特征和不同于第一面部特征的第二面部特征;以及用于以下操作的装置:响应于检测到一个或多个面部特征的移动:根据确定检测到的一个或多个面部特征的移动包括第一面部特征沿第一方向的移动:基于检测到的第一面部特征沿第一方向的移动,沿第一方向移动第一头像特征;以及沿不同于第一方向的第二方向并且基于检测到的第一面部特征沿第一方向的移动而移动第二头像特征和第三头像特征;以及用于用于以下操作的装置:根据确定检测到的一个或多个面部特征的移动包括第二面部特征的移动:基于第二面部特征的移动的方向和量值中的至少一者来移动第二头像特征。
用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的非暂态计算机可读存储介质或其他计算机程序产品中。用于执行这些功能的可执行指令任选地被包括在被配置用于由一个或多个处理器执行的暂态计算机可读存储介质或其他计算机程序产品中。
因此,为设备提供更快更有效的方法和界面以用于显示视觉效果,由此提高此类设备的有效性、效率和用户满意度。此类方法和界面可以补充或替换用于显示视觉效果的其他方法。
附图说明
为了更好地理解各种所描述的实施方案,应当结合以下附图来参考以下具体实施方式,在附图中类似的附图标号在所有附图中指示对应的部件。
图1A为示出根据一些实施方案的具有触敏显示器的便携式多功能设备的框图。
图1B是示出根据一些实施方案的用于事件处理的示例性部件的框图。
图2示出根据一些实施方案的具有触摸屏的便携式多功能设备。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。
图4A示出根据一些实施方案的用于便携式多功能设备上应用程序的菜单的示例性用户界面。
图4B示出根据一些实施方案的用于具有与显示器分开的触敏表面的多功能设备的示例性用户界面。
图5A示出根据一些实施方案的个人电子设备。
图5B为示出根据一些实施方案的个人电子设备的框图。
图6A至图6F示出了根据一些实施方案的用于显示视觉效果的示例性用户界面。
图7是示出了根据一些实施方案的用于显示视觉效果的方法的流程图。
具体实施方式
以下描述阐述了示例性方法、参数等。然而,应当认识到,此类描述并非意在限制本公开的范围,而是作为对示例性实施方案的描述来提供。
电子设备需要提供更有效的方法和界面以用于显示视觉效果。例如,虽然已经存在用于显示视觉效果的程序,但与下面允许用户在各种应用程序中显示视觉效果的技术相比,这些程序效率低下且难以使用。此类技术可减轻在应用程序中显示视觉效果的用户的认知负担,由此提高生产率。此外,此类技术可减少以其他方式浪费在冗余用户输入上的处理器功率和电池功率。
下面图1A至图1B、图2、图3、图4A至图4B和图5A至图5B提供了对用于执行显示视觉效果的技术的示例性设备的描述。图6A至图6F示出了根据一些实施方案的用于显示视觉效果的示例性用户界面。图7是示出了根据一些实施方案用于视觉效果的方法的流程图。图6A至图6F中的用户界面被用于示出下文所述的过程,这些过程包括图7中的过程。
尽管以下描述使用术语“第一”、“第二”等来描述各种元件,但这些元件不应受所述术语的限制。这些术语只是用于将一个元件与另一元件区分开。例如,第一触摸可被命名为第二触摸并且类似地第二触摸可被命名为第一触摸,而不脱离各种所述实施方案的范围。第一触摸和第二触摸两者均为触摸,但是它们不是同一触摸。
在本文中对各种所述实施方案的描述中所使用的术语只是为了描述特定实施方案的目的,而并非旨在进行限制。如在对各种所述实施方案中的描述和所附权利要求书中所使用的那样,单数形式“一个(“a”,“an”)”和“该”旨在也包括复数形式,除非上下文另外明确地指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”(“includes”、“including”、“comprises”和/或“comprising”)在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件和/或其分组。
根据上下文,术语“如果”任选地被解释为意指“当......时”、“在......时”或“响应于确定”或“响应于检测到”。类似地,根据上下文,短语“如果确定……”或“如果检测到[所陈述的条件或事件]”任选地被解释为是指“在确定……时”或“响应于确定……”或“在检测到[所陈述的条件或事件]时”或“响应于检测到[所陈述的条件或事件]”。
本文描述了电子设备、此类设备的用户界面和使用此类设备的相关过程的实施方案。在一些实施方案中,该设备为还包含其他功能诸如PDA和/或音乐播放器功能的便携式通信设备,诸如移动电话。便携式多功能设备的示例性实施方案包括但不限于来自AppleInc.(Cupertino,California)的
Figure BDA0003167333140000071
设备、iPod
Figure BDA0003167333140000072
设备、和
Figure BDA0003167333140000073
设备。任选地使用其他便携式电子设备,诸如具有触敏表面(例如,触摸屏显示器和/或触摸板)的膝上型电脑或平板电脑。还应当理解的是,在一些实施方案中,该设备并非便携式通信设备,而是具有触敏表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在下面的讨论中,描述了一种包括显示器和触敏表面的电子设备。然而,应当理解,该电子设备任选地包括一个或多个其他物理用户界面设备,诸如物理键盘、鼠标和/或操纵杆。
该设备通常支持各种应用程序,诸如以下应用程序中的一个或多个应用程序:绘图应用程序、展示应用程序、文字处理应用程序、网站创建应用程序、盘编辑应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息应用程序、健身支持应用程序、照片管理应用程序、数字相机应用程序、数字摄像机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
在设备上执行的各种应用程序任选地使用至少一个共用的物理用户界面设备,诸如触敏表面。触敏表面的一种或多种功能以及被显示在设备上的对应信息任选地对于不同应用程序被调整和/或变化,和/或在相应应用程序内被调整和/或变化。这样,设备的共用物理架构(诸如触敏表面)任选地利用对于用户而言直观且清楚的用户界面来支持各种应用程序。
现在将注意力转到具有触敏显示器的便携式设备的实施方案。图1A是示出了根据一些实施方案的具有触敏显示器系统112的便携式多功能设备100的框图。触敏显示器112有时为了方便被叫做“触摸屏”,并且有时被称为或被叫做“触敏显示器系统”。设备100包括存储器102(其任选地包括一个或多个计算机可读存储介质)、存储器控制器122、一个或多个处理单元(CPU)120、外围设备接口118、RF电路108、音频电路110、扬声器111、麦克风113、输入/输出(I/O)子系统106、其他输入控制设备116和外部端口124。设备100任选地包括一个或多个光学传感器164。设备100任选地包括用于检测设备100(例如,触敏表面,诸如设备100的触敏显示器系统112)上的接触的强度的一个或多个接触强度传感器165。设备100任选地包括用于在设备100上生成触觉输出的一个或多个触觉输出发生器167(例如,在触敏表面(诸如设备100的触敏显示器系统112或设备300的触摸板355)上生成触觉输出)。这些部件任选地通过一个或多个通信总线或信号线103进行通信。
如在本说明书和权利要求书中所使用的那样,触敏表面上的接触的“强度”这一术语是指触敏表面上的接触(例如,手指接触)的力或压力(每单位面积的力),或者是指触敏表面上的接触的力或压力的替代物(代用物)。接触的强度具有值范围,该值范围包括至少四个不同的值并且更典型地包括上百个不同的值(例如,至少256个)。接触的强度任选地使用各种方法和各种传感器或传感器的组合来确定(或测量)。例如,在触敏表面下方或相邻于触敏表面的一个或多个力传感器任选地用于测量触敏表面上的不同点处的力。在一些具体实施中,来自多个力传感器的力测量值被组合(例如,加权平均)以确定所估计的接触力。类似地,触笔的压敏顶端任选地用于确定触笔在触敏表面上的压力。另选地,在触敏表面上检测到的接触区域的大小和/或其变化、接触附近的触敏表面的电容和/或其变化以及/或者接触附近的触敏表面的电阻和/或其变化任选地被用作触敏表面上的接触的力或压力的替代物。在一些具体实施中,接触力或压力的替代物测量直接用于确定是否已经超过强度阈值(例如,强度阈值以对应于替代物测量的单位来描述)。在一些具体实施中,接触力或压力的替代物测量被转换成估计的力或压力,并且估计的力或压力用于确定是否已超过强度阈值(例如,强度阈值是以压力的单位进行测量的压力阈值)。使用接触的强度作为用户输入的属性,从而允许用户访问用户在实地面积有限的尺寸更小的设备上本来不可访问的附加设备功能,该尺寸更小的设备用于(例如,在触敏显示器上)显示示能表示和/或接收用户输入(例如,经由触敏显示器、触敏表面或物理控件/机械控件,诸如旋钮或按钮)。
如本说明书和权利要求书中所使用的那样,术语“触觉输出”是指将由用户通过用户的触摸感检测到的设备相对于设备的先前位置的物理位移、设备的部件(例如,触敏表面)相对于设备的另一个部件(例如,外壳)的物理位移或部件相对于设备的质心的位移。例如,在设备或设备的部件与用户对触摸敏感的表面(例如,手指、手掌或用户手部的其他部分)接触的情况下,通过物理位移生成的触觉输出将由用户解释为触感,该触感对应于设备或设备的部件的物理特征的所感知的变化。例如,触敏表面(例如,触敏显示器或触控板)的移动任选地由用户解释为对物理致动按钮的“按下点击”或“松开点击”。在一些情况下,用户将感觉到触感,诸如“按下点击”或“松开点击”,即使在通过用户的移动而物理地被按压(例如,被移位)的与触敏表面相关联的物理致动按钮没有移动时。又如,即使在触敏表面的光滑度无变化时,触敏表面的移动也会任选地由用户解释或感测为触敏表面的“粗糙度”。虽然用户对触摸的此类解释将受到用户的个体化感官知觉的限制,但是对触摸的许多感官知觉是大多数用户共有的。因此,当触觉输出被描述为对应于用户的特定感官知觉(例如,“松开点击”、“按下点击”、“粗糙度”)时,除非另外陈述,否则所生成的触觉输出对应于设备或其部件的物理位移,该物理位移将会生成典型(或普通)用户的所述感官知觉。
应当理解,设备100仅为便携式多功能设备的一个示例,并且设备100任选地具有比所示出的更多或更少的部件,任选地组合两个或更多个部件,或者任选地具有这些部件的不同配置或布置。图1A中所示的各种部件以硬件、软件或硬件与软件两者的组合来实现,包括一个或多个信号处理和/或专用集成电路。
存储器102任选地包括高速随机存取存储器,并且任选地还包括非易失性存储器,诸如一个或多个磁盘存储设备、闪存存储器设备或其他非易失性固态存储器设备。存储器控制器122任选地控制设备100的其他部件访问存储器102。
外围设备接口118可用于将设备的输入外围设备和输出外围设备耦接到CPU 120和存储器102。一个或多个处理器120运行或执行存储器102中所存储的各种软件程序和/或指令集以执行设备100的各种功能并处理数据。在一些实施方案中,外围设备接口118、CPU120和存储器控制器122任选地被实现在单个芯片诸如芯片104上。在一些其他实施方案中,它们任选地在独立的芯片上实现。
RF(射频)电路108接收和发送也被称为电磁信号的RF信号。RF电路108将电信号转换为电磁信号/将电磁信号转换为电信号,并且经由电磁信号与通信网络及其他通信设备进行通信。RF电路108任选地包括用于执行这些功能的熟知的电路,包括但不限于天线系统、RF收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码芯片组、用户身份模块(SIM)卡、存储器等等。RF电路108任选地通过无线通信来与网络和其他设备进行通信,这些网络为诸如互联网(也被称为万维网(WWW))、内联网和/或无线网络(诸如,蜂窝电话网络、无线局域网(LAN)和/或城域网(MAN))。RF电路108任选地包括用于诸如通过近程通信无线电部件来检测近场通信(NFC)场的熟知的电路。无线通信任选地使用多种通信标准、协议和技术中的任一者,包括但不限于全球移动通信系统(GSM)、增强型数据GSM环境(EDGE)、高速下行链路分组接入(HSDPA)、高速上行链路分组接入(HSUPA)、演进、纯数据(EV-DO)、HSPA、HSPA+、双单元HSPA(DC-HSPDA)、长期演进(LTE)、近场通信(NFC)、宽带码分多址(W-CDMA)、码分多址(CDMA)、时分多址(TDMA)、蓝牙、蓝牙低功耗(BTLE)、无线保真(Wi-Fi)(例如,IEEE 802.11a、IEEE802.11b、IEEE 802.11g、IEEE 802.11n和/或IEEE802.11ac)、互联网协议语音(VoIP)、Wi-MAX、电子邮件协议(例如,互联网消息访问协议(IMAP)和/或邮局协议(POP))、即时消息(例如,可扩展消息处理和存在协议(XMPP)、用于即时消息和存在利用扩展的会话发起协议(SIMPLE)、即时消息和存在服务(IMPS))、和/或短消息服务(SMS),或者包括在本文档提交日期时还未开发出的通信协议的任何其他适当的通信协议。
音频电路110、扬声器111和麦克风113提供用户与设备100之间的音频接口。音频电路110从外围设备接口118接收音频数据,将音频数据转换为电信号,并将电信号传输到扬声器111。扬声器111将电信号转换为人类可听到的声波。音频电路110还接收由麦克风113从声波转换的电信号。音频电路110将电信号转换为音频数据,并且将音频数据传输到外围设备接口118以用于处理。音频数据任选地由外围设备接口118检索自和/或传输至存储器102和/或RF电路108。在一些实施方案中,音频电路110还包括耳麦插孔(例如,图2中的212)。耳麦插孔提供音频电路110与可移除音频输入/输出外围设备之间的接口,该外围设备为诸如仅输出的耳机或者具有输出(例如,单耳耳机或双耳耳机)和输入(例如,麦克风)两者的耳麦。
I/O子系统106将设备100上的输入/输出外围设备诸如触摸屏112和其他输入控制设备116耦接到外围设备接口118。I/O子系统106任选地包括显示控制器156、光学传感器控制器158、深度相机控制器169、强度传感器控制器159、触觉反馈控制器161,以及用于其他输入或控制设备的一个或多个输入控制器160。该一个或多个输入控制器160从其他输入控制设备116接收电信号/将电信号发送到该其他输入控制设备。该其他输入控制设备116任选地包括物理按钮(例如,下压按钮、摇臂按钮等)、拨号盘、滑动开关、操纵杆、点击式转盘等。在一些另选实施方案中,输入控制器160任选地耦接至以下各项中的任一者(或不耦接至以下各项中的任一者):键盘、红外线端口、USB端口以及指向设备诸如鼠标。一个或多个按钮(例如,图2中的208)任选地包括用于扬声器111和/或麦克风113音量控制的增大/减小按钮。该一个或多个按钮任选地包括下压按钮(例如,图2中的206)。
快速按压下压按钮任选地解除对触摸屏112的锁定或者任选地开始使用触摸屏上的手势来对设备进行解锁的过程,如2005年12月23日提交的名称为“Unlocking a Deviceby Performing Gestures on an Unlock Image”的美国专利申请11/322,549(即美国专利No.7,657,849)中所述,该美国专利申请据此全文以引用方式并入本文。长按下压按钮(例如206)任选地使设备100开机或关机。一个或多个按钮的功能任选地为用户可定制的。触摸屏112用于实现虚拟按钮或软按钮以及一个或多个软键盘。
触敏显示器112提供设备与用户之间的输入接口和输出接口。显示控制器156从触摸屏112接收电信号和/或将电信号发送到触摸屏112。触摸屏112向用户显示视觉输出。视觉输出任选地包括图形、文本、图标、视频以及它们的任何组合(统称为“图形”)。在一些实施方案中,一些视觉输出或全部的视觉输出任选地与用户界面对象对应。
触摸屏112具有基于触觉和/或触感接触来接受来自用户的输入的触敏表面、传感器或传感器组。触摸屏112和显示控制器156(与存储器102中的任何相关联的模块和/或指令集一起)检测触摸屏112上的接触(和该接触的任何移动或中断),并且将检测到的接触转换为与被显示在触摸屏112上的用户界面对象(例如,一个或多个软键、图标、网页或图像)的交互。在示例性实施方案中,触摸屏112与用户之间的接触点对应于用户的手指。
触摸屏112任选地使用LCD(液晶显示器)技术、LPD(发光聚合物显示器)技术或LED(发光二极管)技术,但是在其他实施方案中使用其他显示技术。触摸屏112和显示控制器156任选地使用现在已知的或以后将开发出的多种触摸感测技术中的任何技术以及其他接近传感器阵列或用于确定与触摸屏112接触的一个或多个点的其他元件来检测接触及其任何移动或中断,该多种触摸感测技术包括但不限于电容性的、电阻性的、红外线的、和表面声波技术。在示例性实施方案中,使用投射式互电容感测技术,诸如在来自Apple Inc.(Cupertino,California)的
Figure BDA0003167333140000121
和iPod
Figure BDA0003167333140000122
中使用的技术。
触摸屏112的一些实施方案中的触敏显示器任选地类似于以下美国专利中所述的多点触敏触控板:6,323,846(Westerman等人)、6,570,557(Westerman等人)和/或6,677,932(Westerman等人)和/或美国专利公开2002/0015024A1,这些专利公开中的每个专利公开据此全文以引用方式并入。然而,触摸屏112显示来自设备100的视觉输出,而触敏触摸板不提供视觉输出。
在一些实施方案中,触摸屏112的触敏显示器如以下专利申请所述:(1)2006年5月2日提交的名称为“Multipoint Touch Surface Controller”的美国专利申请No.11/381,313;(2)2004年5月6日提交的名称为“Multipoint Touchscreen”的美国专利申请No.10/840,862;(3)2004年7月30日提交的名称为“Gestures For Touch Sensitive InputDevices”的美国专利申请No.10/903,964;(4)2005年1月31日提交的名称为“Gestures ForTouch Sensitive Input Devices”的美国专利申请No.11/048,264;(5)2005年1月18日提交的名称为“Mode-Based Graphical User Interfaces For Touch Sensitive InputDevices”的美国专利申请No.11/038,590;(6)2005年9月16日提交的名称为“VirtualInput Device Placement On A Touch Screen User Interface”的美国专利申请No.11/228,758;(7)2005年9月16日提交的名称为“Operation Of A Computer With A TouchScreen Interface”的美国专利申请No.11/228,700;(8)2005年9月16日提交的名称为“Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”的美国专利申请No.11/228,737;以及(9)2006年3月3日提交的名称为“Multi-Functional Hand-HeldDevice”的美国专利申请No.11/367,749。所有这些申请全文以引用方式并入本文。
触摸屏112任选地具有超过100dpi的视频分辨率。在一些实施方案中,触摸屏具有约160dpi的视频分辨率。用户任选地使用任何合适的物体或附加物诸如触笔、手指等等来与触摸屏112接触。在一些实施方案中,将用户界面设计为主要通过基于手指的接触和手势来工作,由于手指在触摸屏上的接触区域较大,因此这可能不如基于触笔的输入精确。在一些实施方案中,设备将基于手指的粗略输入转化为精确的指针/光标位置或命令以用于执行用户所期望的动作。
在一些实施方案中,除了触摸屏之外,设备100任选地包括用于激活或去激活特定功能的触控板。在一些实施方案中,触摸板是设备的触敏区域,与触摸屏不同,该触敏区域不显示视觉输出。触摸板任选地是与触摸屏112分开的触敏表面,或者是由触摸屏形成的触敏表面的延伸部分。
设备100还包括用于为各种部件供电的电力系统162。电力系统162任选地包括电力管理系统、一个或多个电源(例如,电池、交流电(AC))、再充电系统、电力故障检测电路、功率转换器或逆变器、电源状态指示符(例如,发光二极管(LED))以及与便携式设备中的电力的生成、管理和分配相关联的任何其他部件。
设备100任选地还包括一个或多个光学传感器164。图1A示出了耦接到I/O子系统106中的光学传感器控制器158的光学传感器。光学传感器164任选地包括电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)光电晶体管。光学传感器164从环境接收通过一个或多个透镜而投射的光,并且将光转换为表示图像的数据。结合成像模块143(也叫做相机模块),光学传感器164任选地捕获静态图像或视频。在一些实施方案中,光学传感器位于设备100的后部上,与设备前部上的触摸屏显示器112相背对,使得触摸屏显示器能够用作用于静态图像和/或视频图像采集的取景器。在一些实施方案中,光学传感器位于设备的前部上,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取该用户的图像以用于视频会议。在一些实施方案中,光学传感器164的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得单个光学传感器164与触摸屏显示器一起使用,以用于视频会议和静态图像和/或视频图像采集两者。
设备100任选地还包括一个或多个深度相机传感器175。图1A示出了耦接到I/O子系统106中的深度相机控制器169的深度相机传感器。深度相机传感器175从环境接收数据以从视点(例如,深度相机传感器)创建场景内的对象(例如,面部)的三维模型。在一些实施方案中,结合成像模块143(也称为相机模块),深度相机传感器175可选地用于确定由成像模块143捕获的图像的不同部分的深度图。在一些实施方案中,深度相机传感器位于设备100的前部,使得在用户在触摸屏显示器上查看其他视频会议参与者的同时任选地获取具有深度信息的用户图像以用于视频会议,并且捕捉具有深度图数据的自拍。在一些实施方案中,深度相机传感器175位于设备的后部,或者设备100的后部和前部。在一些实施方案中,深度相机传感器175的位置可由用户改变(例如,通过旋转设备外壳中的透镜和传感器),使得深度相机传感器175与触摸屏显示器一起使用以用于视频会议和静态图像和/或视频图像采集两者。
在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象距视点(例如,相机、光学传感器、深度相机传感器)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素定义视点的Z轴中其对应的二维像素所在的位置。在一些实施方案中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机、光学传感器、深度相机传感器)最远处的像素,“255”值表示位于“三维”场景中距离视点最近处的像素。在其他实施方案中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。
设备100任选地还包括一个或多个接触强度传感器165。图1A示出了耦接到I/O子系统106中的强度传感器控制器159的接触强度传感器。接触强度传感器165任选地包括一个或多个压阻应变仪、电容式力传感器、电气力传感器、压电力传感器、光学力传感器、电容式触敏表面或其他强度传感器(例如,用于测量触敏表面上的接触的力(或压力)的传感器)。接触强度传感器165从环境接收接触强度信息(例如,压力信息或压力信息的代用物)。在一些实施方案中,至少一个接触强度传感器与触敏表面(例如,触敏显示器系统112)并置排列或邻近。在一些实施方案中,至少一个接触强度传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个接近传感器166。图1A示出了耦接到外围设备接口118的接近传感器166。另选地,接近传感器166任选地耦接到I/O子系统106中的输入控制器160。接近传感器166任选地如以下美国专利申请中所述的那样执行:No.11/241,839,名称为“Proximity Detector In Handheld Device”;No.11/240,788,名称为“ProximityDetector In Handheld Device”;No.11/620,702,名称为“Using Ambient Light SensorTo Augment Proximity Sensor Output”;No.11/586,862,名称为“Automated ResponseTo And Sensing Of User Activity In Portable Devices”;以及No.11/638,251,名称为“Methods And Systems For Automatic Configuration Of Peripherals”,这些美国专利申请据此全文以引用方式并入本文。在一些实施方案中,当多功能设备被置于用户的耳朵附近时(例如,当用户正在进行电话呼叫时),接近传感器关闭并且禁用触摸屏112。
设备100任选地还包括一个或多个触觉输出发生器167。图1A示出了耦接到I/O子系统106中的触觉反馈控制器161的触觉输出发生器。触觉输出发生器167任选地包括一个或多个电声设备诸如扬声器或其他音频部件;和/或用于将能量转换成线性运动的机电设备诸如电机、螺线管、电活性聚合物、压电致动器、静电致动器或其他触觉输出生成部件(例如,用于将电信号转换成设备上的触觉输出的部件)。接触强度传感器165从触觉反馈模块133接收触觉反馈生成指令,并且在设备100上生成能够由设备100的用户感觉到的触觉输出。在一些实施方案中,至少一个触觉输出发生器与触敏表面(例如,触敏显示器系统112)并置排列或邻近,并且任选地通过竖直地(例如,向设备100的表面内/外)或侧向地(例如,在与设备100的表面相同的平面中向后和向前)移动触敏表面来生成触觉输出。在一些实施方案中,至少一个触觉输出发生器传感器位于设备100的后部上,与位于设备100的前部上的触摸屏显示器112相背对。
设备100任选地还包括一个或多个加速度计168。图1A示出了耦接到外围设备接口118的加速度计168。另选地,加速度计168任选地耦接到I/O子系统106中的输入控制器160。加速度计168任选地如以下美国专利公开中所述的那样执行:美国专利公开No.20050190059,名称为“Acceleration-based Theft Detection System for PortableElectronic Devices”和美国专利公开No.20060017692,名称为“Methods AndApparatuses For Operating A Portable Device Based On An Accelerometer”,这两个美国专利公开均全文以引用方式并入本文。在一些实施方案中,基于对从一个或多个加速度计接收的数据的分析来在触摸屏显示器上以纵向视图或横向视图显示信息。设备100任选地除了加速度计168之外还包括磁力仪和GPS(或GLONASS或其他全球导航系统)接收器,以用于获取关于设备100的位置和取向(例如,纵向或横向)的信息。
在一些实施方案中,被存储在存储器102中的软件部件包括操作系统126、通信模块(或指令集)128、接触/运动模块(或指令集)130、图形模块(或指令集)132、文本输入模块(或指令集)134、全球定位系统(GPS)模块(或指令集)135、以及应用程序(或指令集)136。此外,在一些实施方案中,存储器102(图1A)或370(图3)存储设备/全局内部状态157,如图1A和图3中所示。设备/全局内部状态157包括以下中的一者或多者:活动应用程序状态,其指示哪些应用程序(如果有的话)当前是活动的;显示状态,其指示什么应用程序、视图或其他信息占据触摸屏显示器112的各个区域;传感器状态,包括从设备的各个传感器和输入控制设备116获得的信息;以及关于设备的位置和/或姿态的位置信息。
操作系统126(例如,Darwin、RTXC、LINUX、UNIX、OS X、iOS、WINDOWS或嵌入式操作系统诸如VxWorks)包括用于控制和管理一般系统任务(例如,存储器管理、存储设备控制、功率管理等)的各种软件部件和/或驱动器,并且促进各种硬件部件和软件部件之间的通信。
通信模块128有利于通过一个或多个外部端口124来与其他设备进行通信,并且还包括用于处理由RF电路108和/或外部端口124所接收的数据的各种软件部件。外部端口124(例如,通用串行总线(USB)、火线等)适于直接耦接到其他设备,或间接地通过网络(例如,互联网、无线LAN等)进行耦接。在一些实施方案中,外部端口是与
Figure BDA0003167333140000171
(Apple Inc.的商标)设备上所使用的30针连接器相同的或类似的和/或与其兼容的多针(例如,30针)连接器。
接触/运动模块130任选地检测与触摸屏112(结合显示控制器156)和其他触敏设备(例如,触摸板或物理点击式转盘)的接触。接触/运动模块130包括各种软件部件以用于执行与接触检测相关的各种操作,诸如确定是否已经发生了接触(例如,检测手指按下事件)、确定接触强度(例如,接触的力或压力,或者接触的力或压力的替代物)、确定是否存在接触的移动并跟踪在触敏表面上的移动(例如,检测一个或多个手指拖动事件),以及确定接触是否已经停止(例如,检测手指抬起事件或者接触断开)。接触/运动模块130从触敏表面接收接触数据。确定接触点的移动任选地包括确定接触点的速率(量值)、速度(量值和方向)和/或加速度(量值和/或方向的改变),所述接触点的移动由一系列接触数据表示。这些操作任选地被应用于单点接触(例如,单指接触)或者多点同时接触(例如,“多点触摸”/多个手指接触)。在一些实施方案中,接触/运动模块130和显示控制器156检测触控板上的接触。
在一些实施方案中,接触/运动模块130使用一组一个或多个强度阈值来确定操作是否已由用户执行(例如,确定用户是否已“点击”图标)。在一些实施方案中,根据软件参数来确定强度阈值的至少一个子集(例如,强度阈值不是由特定物理致动器的激活阈值来确定的,并且可在不改变设备100的物理硬件的情况下被调节)。例如,在不改变触控板或触摸屏显示器硬件的情况下,触控板或触摸屏的鼠标“点击”阈值可被设定成预定义的阈值的大范围中的任一个阈值。另外,在一些具体实施中,向设备的用户提供用于调节一组强度阈值中的一个或多个强度阈值(例如,通过调节各个强度阈值和/或通过利用对“强度”参数的系统级点击来一次调节多个强度阈值)的软件设置。
接触/运动模块130任选地检测用户的手势输入。触敏表面上的不同手势具有不同的接触模式(例如,检测到的接触的不同运动、计时和/或强度)。因此,任选地通过检测特定接触模式来检测手势。例如,检测手指轻击手势包括检测手指按下事件,然后在与手指按下事件相同的位置(或基本上相同的位置)处(例如,在图标的位置处)检测手指抬起(抬离)事件。作为另一个示例,在触敏表面上检测手指轻扫手势包括检测手指按下事件,然后检测一个或多个手指拖动事件,并且随后检测手指抬起(抬离)事件。
图形模块132包括用于在触摸屏112或其他显示器上呈现和显示图形的各种已知的软件部件,包括用于改变所显示的图形的视觉冲击(例如,亮度、透明度、饱和度、对比度或其他视觉属性)的部件。如本文所用,术语“图形”包括可被显示给用户的任何对象,其非限制性地包括文本、网页、图标(诸如包括软键的用户界面对象)、数字图像、视频、动画等。
在一些实施方案中,图形模块132存储表示待使用的图形的数据。每个图形任选地被分配有对应的代码。图形模块132从应用程序等接收用于指定待显示的图形的一个或多个代码,在必要的情况下还一起接收坐标数据和其他图形属性数据,并且然后生成屏幕图像数据,以输出至显示控制器156。
触觉反馈模块133包括用于生成指令的各种软件部件,该指令由触觉输出发生器167用于响应于用户与设备100的交互而在设备100上的一个或多个位置处产生触觉输出。
任选地作为图形模块132的部件的文本输入模块134提供用于在各种应用程序(例如,联系人137、电子邮件140、即时消息141、浏览器147和需要文本输入的任何其他应用程序)中输入文本的软键盘。
GPS模块135确定设备的位置,并提供该信息以供在各种应用程序中使用(例如提供给电话138以供在基于位置的拨号中使用;提供给相机143作为图片/视频元数据;以及提供给提供基于位置的服务的应用,诸如天气桌面小程序、本地黄页桌面小程序和地图/导航桌面小程序)。
应用程序136任选地包括以下模块(或指令集)或者其子集或超集:
·联系人模块137(有时称为通讯录或联系人列表);
·电话模块138;
·视频会议模块139;
·电子邮件客户端模块140;
·即时消息(IM)模块141;
·健身支持模块142;
·用于静态图像和/或视频图像的相机模块143;
·图像管理模块144;
·视频播放器模块;
·音乐播放器模块;
·浏览器模块147;
·日历模块148;
·桌面小程序模块149,其任选地包括以下各项中的一者或多者:天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4、词典桌面小程序149-5、和由用户获取的其他桌面小程序、以及用户创建的桌面小程序149-6;
·用于形成用户创建的桌面小程序149-6的桌面小程序创建器模块150;
·搜索模块151;
·视频和音乐播放器模块152,其合并视频播放器模块和音乐播放器模块;
·记事本模块153;
·地图模块154;以及/或者
·在线视频模块155。
任选地被存储在存储器102中的其他应用程序136的示例包括其他文字处理应用程序、其他图像编辑应用程序、绘图应用程序、展示应用程序、支持JAVA的应用程序、加密、数字权益管理、语音识别和语音复制。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、和文本输入模块134,联系人模块137任选地用于管理通讯录或联系人列表(例如,存储在存储器102或存储器370中的联系人模块137的应用程序内部状态192中),包括:向通讯录添加一个或多个姓名;从通讯录删除姓名;将电话号码、电子邮件地址、物理地址或其他信息与姓名关联;将图像与姓名关联;对姓名进行归类和分类;提供电话号码或电子邮件地址来发起和/或促进通过电话138、视频会议模块139、电子邮件140或IM 141进行的通信;等等。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电话模块138任选地用于输入与电话号码对应的字符序列、访问联系人模块137中的一个或多个电话号码、修改已输入的电话号码、拨打相应的电话号码、进行会话,以及当会话完成时断开或挂断。如上所述,无线通信任选地使用多种通信标准、协议和技术中的任一种。
结合RF电路108、音频电路110、扬声器111、麦克风113、触摸屏112、显示控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132、文本输入模块134、联系人模块137和电话模块138,视频会议模块139包括根据用户指令来发起、进行和终止用户与一个或多个其他参与方之间的视频会议的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,电子邮件客户端模块140包括响应于用户指令来创建、发送、接收和管理电子邮件的可执行指令。结合图像管理模块144,电子邮件客户端模块140使得非常容易创建和发送具有由相机模块143拍摄的静态图像或视频图像的电子邮件。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,即时消息模块141包括用于以下操作的可执行指令:输入与即时消息对应的字符序列、修改先前输入的字符、传输相应即时消息(例如,使用短消息服务(SMS)或多媒体消息服务(MMS)协议以用于基于电话的即时消息或者使用XMPP、SIMPLE或IMPS以用于基于互联网的即时消息)、接收即时消息以及查看所接收的即时消息。在一些实施方案中,所传输和/或接收的即时消息任选地包括图形、照片、音频文件、视频文件和/或MMS和/或增强消息服务(EMS)中所支持的其他附件。如本文所用,“即时消息”是指基于电话的消息(例如,使用SMS或MMS发送的消息)和基于互联网的消息(例如,使用XMPP、SIMPLE或IMPS发送的消息)两者。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135、地图模块154和音乐播放器模块,健身支持模块142包括用于以下操作的可执行指令:创建健身(例如,具有时间、距离和/或卡路里燃烧目标);与健身传感器(运动设备)进行通信;接收健身传感器数据;校准用于监视健身的传感器;为健身选择和播放音乐;以及显示、存储和传输健身数据。
结合触摸屏112、显示器控制器156、光学传感器164、光学传感器控制器158、接触/运动模块130、图形模块132和图像管理模块144,相机模块143包括可执行指令以捕获静态图像或视频(包括视频流)并将其存储在存储器102中;修改静态图像或视频的特征;或从存储器102中删除静态图像或视频。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和相机模块143,图像管理模块144包括用于排列、修改(例如,编辑)或以其他方式操控、加标签、删除、呈现(例如,在数字幻灯片或相册中)以及存储静态图像和/或视频图像的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,浏览器模块147包括根据用户指令来浏览互联网(包括搜索、链接至、接收和显示网页或其部分,以及链接至网页的附件和其他文件)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、电子邮件客户端模块140和浏览器模块147,日历模块148包括用于根据用户指令来创建、显示、修改和存储日历以及与日历相关联的数据(例如,日历条目、待办事项等)的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序模块149为任选地由用户下载和使用的微型应用程序(例如,天气桌面小程序149-1、股市桌面小程序149-2、计算器桌面小程序149-3、闹钟桌面小程序149-4和词典桌面小程序149-5)或由用户创建的微型应用程序(例如,用户创建的桌面小程序149-6)。在一些实施方案中,桌面小程序包括HTML(超文本标记语言)文件、CSS(层叠样式表)文件和JavaScript文件。在一些实施方案中,桌面小程序包括XML(可扩展标记语言)文件和JavaScript文件(例如,Yahoo!桌面小程序)。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134和浏览器模块147,桌面小程序创建器模块150任选地被用户用于创建桌面小程序(例如,将网页的用户指定部分转到桌面小程序中)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,搜索模块151包括根据用户指令在存储器102中搜索匹配一个或多个搜索条件(例如,一个或多个用户指定的搜索词)的文本、音乐、声音、图像、视频和/或其他文件的可执行指令。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108和浏览器模块147,视频和音乐播放器模块152包括允许用户下载和回放以一种或多种文件格式,诸如MP3或AAC文件存储的所录制的音乐和其他声音文件的可执行指令,以及用于显示、展示或以其他方式回放视频(例如,在触摸屏112上或在经由外部端口124连接的外部显示器上)的可执行指令。在一些实施方案中,设备100任选地包括MP3播放器诸如iPod(Apple Inc.的商标)的功能。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132和文本输入模块134,记事本模块153包括用于根据用户指令来创建和管理记事本、待办事项等的可执行指令。
结合RF电路108、触摸屏112、显示控制器156、接触/运动模块130、图形模块132、文本输入模块134、GPS模块135和浏览器模块147,地图模块154任选地用于根据用户指令来接收、显示、修改和存储地图以及与地图相关联的数据(例如,行车路线、与特定位置处或附近的商店及其他兴趣点有关的数据、以及其他基于位置的数据)。
结合触摸屏112、显示控制器156、接触/运动模块130、图形模块132、音频电路110、扬声器111、RF电路108、文本输入模块134、电子邮件客户端模块140和浏览器模块147,在线视频模块155包括允许用户访问、浏览、接收(例如,流式传输和/或下载)、回放(例如,在触摸屏上或在经由外部端口124连接的外部显示器上)、发送具有到特定在线视频的链接的电子邮件,以及以其他方式管理一种或多种文件格式诸如H.264的在线视频的指令。在一些实施方案中,使用即时消息模块141而不是电子邮件客户端模块140来发送特定在线视频的链接。在线视频应用程序的其他描述可见于2007年6月20日提交的名称为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国临时专利申请No.60/936,562和2007年12月31日提交的名称为“PortableMultifunction Device,Method,and Graphical User Interface for Playing OnlineVideos”的美国专利申请No.11/968,067,这两个专利申请的内容据此全文以引用方式并入本文。
上述模块和应用程序中的每一者与用于执行上文描述的一种或多种功能以及在本申请中描述的方法(例如,本文所述的计算机实现的方法和其他信息处理方法)的一组可执行指令相对应。这些模块(例如,指令集)不必以独立的软件程序、过程或模块实现,因此这些模块的各种子集任选地在各种实施方案中组合或以其他方式重新布置。例如,视频播放器模块任选地与音乐播放器模块组合成单个模块(例如,图1A中的视频和音乐播放器模块152)。在一些实施方案中,存储器102任选地存储上述模块和数据结构的子组。此外,存储器102任选地存储上文未描述的另外的模块和数据结构。
在一些实施方案中,设备100是该设备上的预定义的一组功能的操作唯一地通过触摸屏和/或触摸板来执行的设备。通过使用触摸屏和/或触控板作为用于操作设备100的主要输入控制设备,任选地减少设备100上的物理输入控制设备(例如,下压按钮、拨盘等等)的数量。
唯一地通过触摸屏和/或触控板执行的该预定义的一组功能任选地包括用户界面之间的导航。在一些实施方案中,触摸板在被用户触摸时将设备100从设备100上显示的任何用户界面导航到主菜单、home菜单或根菜单。在此类实施方案中,使用触控板来实现“菜单按钮”。在一些其他实施方案中,菜单按钮是物理下压按钮或者其他物理输入控制设备,而不是触控板。
图1B是示出根据一些实施方案的用于事件处理的示例性部件的框图。在一些实施方案中,存储器102(图1A)或存储器370(图3)包括事件分类器170(例如,在操作系统126中)以及相应的应用程序136-1(例如,前述应用程序137至151、155、380至390中的任一个应用程序)。
事件分类器170接收事件信息并确定要将事件信息递送到的应用程序136-1和应用程序136-1的应用程序视图191。事件分类器170包括事件监视器171和事件分配器模块174。在一些实施方案中,应用程序136-1包括应用程序内部状态192,该应用程序内部状态指示当应用程序是活动的或正在执行时被显示在触敏显示器112上的一个或多个当前应用程序视图。在一些实施方案中,设备/全局内部状态157被事件分类器170用来确定哪个(哪些)应用程序当前是活动的,并且应用程序内部状态192被事件分类器170用来确定要将事件信息递送到的应用程序视图191。
在一些实施方案中,应用程序内部状态192包括附加信息,诸如以下中的一者或多者:当应用程序136-1恢复执行时要使用的恢复信息、指示正被应用程序136-1显示的信息或准备好用于被该应用程序显示的信息的用户界面状态信息、用于使得用户能够返回到应用程序136-1的前一状态或视图的状态队列,以及用户采取的先前动作的重复/撤销队列。
事件监视器171从外围设备接口118接收事件信息。事件信息包括关于子事件(例如,触敏显示器112上的用户触摸,作为多点触摸手势的一部分)的信息。外围设备接口118传输其从I/O子系统106或传感器诸如接近传感器166、一个或多个加速度计168和/或麦克风113(通过音频电路110)接收的信息。外围设备接口118从I/O子系统106接收的信息包括来自触敏显示器112或触敏表面的信息。
在一些实施方案中,事件监视器171以预先确定的间隔将请求发送至外围设备接口118。作为响应,外围设备接口118传输事件信息。在其他实施方案中,外围设备接口118仅当存在显著事件(例如,接收到高于预先确定的噪声阈值和/或接收到超过预先确定的持续时间的输入)时才传输事件信息。
在一些实施方案中,事件分类器170还包括命中视图确定模块172和/或活动事件识别器确定模块173。
当触敏显示器112显示多于一个视图时,命中视图确定模块172提供用于确定子事件已在一个或多个视图内的什么地方发生的软件过程。视图由用户能够在显示器上看到的控件和其他元素构成。
与应用程序相关联的用户界面的另一方面为一组视图,本文中有时也称为应用程序视图或用户界面窗口,在其中显示信息并且发生基于触摸的手势。在其中检测到触摸的(相应应用程序的)应用程序视图任选地对应于在应用程序的程序化或视图分级结构内的程序化水平。例如,在其中检测到触摸的最低水平视图任选地被称为命中视图,并且被识别为正确输入的事件集任选地至少部分地基于初始触摸的命中视图来确定,所述初始触摸开始基于触摸的手势。
命中视图确定模块172接收与基于触摸的手势的子事件相关的信息。当应用程序具有以分级结构组织的多个视图时,命中视图确定模块172将命中视图识别为应当对子事件进行处理的分级结构中的最低视图。在大多数情况下,命中视图是发起子事件(例如,形成事件或潜在事件的子事件序列中的第一子事件)在其中发生的最低水平视图。一旦命中视图被命中视图确定模块172识别,命中视图便通常接收与其被识别为命中视图所针对的同一触摸或输入源相关的所有子事件。
活动事件识别器确定模块173确定视图分级结构内的哪个或哪些视图应当接收特定的子事件序列。在一些实施方案中,活动事件识别器确定模块173确定仅命中视图应接收特定子事件序列。在其他实施方案中,活动事件识别器确定模块173确定包括子事件的物理位置的所有视图是活跃参与的视图,并因此确定所有活跃参与的视图都应接收特定子事件序列。在其他实施方案中,即使触摸子事件完全被局限到与一个特定视图相关联的区域,分级结构中的较高视图将仍然保持为活跃参与的视图。
事件分配器模块174将事件信息分配到事件识别器(例如,事件识别器180)。在包括活动事件识别器确定模块173的实施方案中,事件分配器模块174将事件信息递送到由活动事件识别器确定模块173确定的事件识别器。在一些实施方案中,事件分配器模块174在事件队列中存储事件信息,该事件信息由相应事件接收器182进行检索。
在一些实施方案中,操作系统126包括事件分类器170。另选地,应用程序136-1包括事件分类器170。在又一个实施方案中,事件分类器170是独立模块,或者是存储在存储器102中的另一个模块(诸如,接触/运动模块130)的一部分。
在一些实施方案中,应用程序136-1包括多个事件处理程序190和一个或多个应用程序视图191,其中的每一个都包括用于处理发生在应用程序的用户界面的相应视图内的触摸事件的指令。应用程序136-1的每个应用程序视图191包括一个或多个事件识别器180。通常,相应应用程序视图191包括多个事件识别器180。在其他实施方案中,事件识别器180中的一个或多个事件识别器是独立模块的一部分,该独立模块为诸如用户界面工具包或应用程序136-1从中继承方法和其他属性的更高级别的对象。在一些实施方案中,相应事件处理程序190包括以下各项中的一者或多者:数据更新器176、对象更新器177、GUI更新器178、和/或从事件分类器170接收的事件数据179。事件处理程序190任选地利用或调用数据更新器176、对象更新器177或GUI更新器178来更新应用程序内部状态192。另选地,应用程序视图191中的一个或多个应用程序视图包括一个或多个相应事件处理程序190。另外,在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178中的一者或多者被包括在相应应用程序视图191中。
相应的事件识别器180从事件分类器170接收事件信息(例如,事件数据179),并且从该事件信息识别事件。事件识别器180包括事件接收器182和事件比较器184。在一些实施方案中,事件识别器180还包括元数据183和事件传递指令188(其任选地包括子事件递送指令)的至少一个子集。
事件接收器182从事件分类器170接收事件信息。事件信息包括关于子事件例如触摸或触摸移动的信息。根据子事件,事件信息还包括附加信息,诸如子事件的位置。当子事件涉及触摸的运动时,事件信息任选地还包括子事件的速率和方向。在一些实施方案中,事件包括设备从一个取向旋转到另一取向(例如,从纵向取向旋转到横向取向,或反之亦然),并且事件信息包括关于设备的当前取向(也被称为设备姿态)的对应信息。
事件比较器184将事件信息与预定义的事件或子事件定义进行比较,并且基于该比较来确定事件或子事件,或者确定或更新事件或子事件的状态。在一些实施方案中,事件比较器184包括事件定义186。事件定义186包含事件的定义(例如,预定义的子事件序列),例如事件1(187-1)、事件2(187-2)以及其他。在一些实施方案中,事件(187)中的子事件例如包括触摸开始、触摸结束、触摸移动、触摸取消和多点触摸。在一个示例中,事件1(187-1)的定义是被显示对象上的双击。例如,双击包括被显示对象上的预先确定时长的第一触摸(触摸开始)、预先确定时长的第一抬离(触摸结束)、被显示对象上的预先确定时长的第二触摸(触摸开始)以及预先确定时长的第二抬离(触摸结束)。在另一个示例中,事件2(187-2)的定义是被显示对象上的拖动。例如,拖动包括被显示对象上的预先确定时长的触摸(或接触)、触摸在触敏显示器112上的移动、以及触摸的抬离(触摸结束)。在一些实施方案中,事件还包括用于一个或多个相关联的事件处理程序190的信息。
在一些实施方案中,事件定义187包括用于相应用户界面对象的事件的定义。在一些实施方案中,事件比较器184执行命中测试以确定哪个用户界面对象与子事件相关联。例如,在触敏显示器112上显示三个用户界面对象的应用程序视图中,当在触敏显示器112上检测到触摸时,事件比较器184执行命中测试以确定这三个用户界面对象中的哪一个用户界面对象与该触摸(子事件)相关联。如果每个所显示对象与相应事件处理程序190相关联,则事件比较器使用该命中测试的结果来确定哪个事件处理程序190应当被激活。例如,事件比较器184选择与子事件和触发该命中测试的对象相关联的事件处理程序。
在一些实施方案中,相应事件(187)的定义还包括延迟动作,该延迟动作延迟事件信息的递送,直到已确定子事件序列确实对应于或不对应于事件识别器的事件类型。
当相应事件识别器180确定子事件序列不与事件定义186中的任何事件匹配时,该相应事件识别器180进入事件不可能、事件失败或事件结束状态,在此之后忽略基于触摸的手势的后续子事件。在这种情况下,对于命中视图保持活动的其他事件识别器(如果有的话)继续跟踪并处理持续进行的基于触摸的手势的子事件。
在一些实施方案中,相应事件识别器180包括元数据183,该元数据具有指示事件递送系统应该如何执行对活跃参与的事件识别器的子事件递送的可配置属性、标记和/或列表。在一些实施方案中,元数据183包括指示事件识别器彼此如何交互或如何能够交互的可配置属性、标志和/或列表。在一些实施方案中,元数据183包括指示子事件是否递送到视图或程序化分级结构中的不同层级的可配置属性、标志和/或列表。
在一些实施方案中,当事件的一个或多个特定子事件被识别时,相应事件识别器180激活与事件相关联的事件处理程序190。在一些实施方案中,相应事件识别器180将与事件相关联的事件信息递送到事件处理程序190。激活事件处理程序190不同于将子事件发送(和延期发送)到相应命中视图。在一些实施方案中,事件识别器180抛出与所识别的事件相关联的标记,并且与该标记相关联的事件处理程序190获取该标记并执行预定义过程。
在一些实施方案中,事件递送指令188包括递送关于子事件的事件信息而不激活事件处理程序的子事件递送指令。相反,子事件递送指令将事件信息递送到与子事件序列相关联的事件处理程序或者递送到活跃参与的视图。与子事件序列或与活跃参与的视图相关联的事件处理程序接收事件信息并执行预先确定的过程。
在一些实施方案中,数据更新器176创建和更新在应用程序136-1中使用的数据。例如,数据更新器176对联系人模块137中所使用的电话号码进行更新,或者对视频播放器模块中所使用的视频文件进行存储。在一些实施方案中,对象更新器177创建并更新在应用程序136-1中使用的对象。例如,对象更新器177创建新的用户界面对象或更新用户界面对象的位置。GUI更新器178更新GUI。例如,GUI更新器178准备显示信息,并且将显示信息发送到图形模块132用以显示在触敏显示器上。
在一些实施方案中,事件处理程序190包括数据更新器176、对象更新器177和GUI更新器178,或具有对该数据更新器、对象更新器和GUI更新器的访问权限。在一些实施方案中,数据更新器176、对象更新器177和GUI更新器178被包括在相应应用程序136-1或应用程序视图191的单个模块中。在其他实施方案中,它们被包括在两个或更多个软件模块中。
应当理解,前述关于触敏显示器上的用户触摸的事件处理的讨论还适用于利用输入设备来操作多功能设备100的其他形式的用户输入,并不是所有用户输入都是在触摸屏上发起的。例如,任选地与单次或多次键盘按下或按住协作的鼠标移动和鼠标按钮按下;触控板上的接触移动,诸如轻击、拖动、滚动等;触笔输入;设备的移动;口头指令;检测到的眼睛移动;生物特征输入;和/或它们的任何组合任选地被用作对应于限定要识别的事件的子事件的输入。
图2示出了根据一些实施方案的具有触摸屏112的便携式多功能设备100。触摸屏任选地在用户界面(UI)200内显示一个或多个图形。在本实施方案以及下文所述的其他实施方案中,用户能够通过例如利用一根或多根手指202(在图中未按比例绘制)或一支或多支触笔203(在图中未按比例绘制)在图形上作出手势来选择这些图形中的一个或多个图形。在一些实施方案中,当用户中断与一个或多个图形的接触时,将发生对一个或多个图形的选择。在一些实施方案中,手势任选地包括一次或多次轻击、一次或多次轻扫(从左向右、从右向左、向上和/或向下)和/或已与设备100发生接触的手指的滚动(从右向左、从左向右、向上和/或向下)。在一些具体实施中或在一些情况下,不经意地与图形接触不会选择图形。例如,当与选择对应的手势是轻击时,在应用程序图标上方扫动的轻扫手势任选地不会选择对应的应用程序。
设备100任选地还包括一个或多个物理按钮,诸如“home”或菜单按钮204。如前所述,菜单按钮204任选地用于导航到任选地在设备100上被执行的一组应用程序中的任何应用程序136。另选地,在一些实施方案中,菜单按钮被实现为被显示在触摸屏112上的GUI中的软键。
在一些实施方案中,设备100包括触摸屏112、菜单按钮204、用于使设备开机/关机和用于锁定设备的下压按钮206、音量调节按钮208、用户身份模块(SIM)卡槽210、耳麦插孔212、和对接/充电外部端口124。下压按钮206任选地用于通过压下该按钮并且将该按钮保持在压下状态持续预定义的时间间隔来对设备进行开/关机;通过压下该按钮并在该预定义的时间间隔过去之前释放该按钮来锁定设备;和/或对设备进行解锁或发起解锁过程。在另选的实施方案中,设备100还通过麦克风113接受用于激活或去激活某些功能的语音输入。设备100还任选地包括用于检测触摸屏112上的接触的强度的一个或多个接触强度传感器165,和/或用于为设备100的用户生成触觉输出的一个或多个触觉输出发生器167。
图3是根据一些实施方案的具有显示器和触敏表面的示例性多功能设备的框图。设备300不必是便携式的。在一些实施方案中,设备300是膝上型电脑、台式计算机、平板电脑、多媒体播放器设备、导航设备、教育设备(诸如儿童学习玩具)、游戏系统或控制设备(例如,家用控制器或工业用控制器)。设备300通常包括一个或多个处理单元(CPU)310、一个或多个网络或其他通信接口360、存储器370和用于使这些部件互连的一条或多条通信总线320。通信总线320任选地包括使系统部件互连并且控制系统部件之间的通信的电路(有时称作芯片组)。设备300包括具有显示器340的输入/输出(I/O)接口330,该显示器通常是触摸屏显示器。I/O接口330还任选地包括键盘和/或鼠标(或其他指向设备)350和触摸板355、用于在设备300上生成触觉输出的触觉输出发生器357(例如,类似于上文参考图1A所述的触觉输出发生器167)、传感器359(例如,光学传感器、加速度传感器、接近传感器、触敏传感器和/或接触强度传感器(类似于上文参考图1A所述的接触强度传感器165))。存储器370包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM,或其他随机存取固态存储器设备;并且任选地包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器370任选地包括远离CPU 310定位的一个或多个存储设备。在一些实施方案中,存储器370存储与便携式多功能设备100(图1A)的存储器102中存储的程序、模块和数据结构类似的程序、模块和数据结构或其子集。此外,存储器370任选地存储在便携式多功能设备100的存储器102中不存在的附加程序、模块和数据结构。例如,设备300的存储器370任选地存储绘图模块380、呈现模块382、文字处理模块384、网站创建模块386、盘编辑模块388、和/或电子表格模块390,而便携式多功能设备100(图1A)的存储器102任选地不存储这些模块。
图3中的上述识别的元件中的每个元件任选地存储于先前提到的存储器设备的一个或多个存储器设备中。上述模块中的每个模块对应于用于执行上述功能的指令集。上述模块或程序(例如,指令集)不必被实现为单独的软件程序、过程或模块,并且因此这些模块的各种子集任选地在各种实施方案中被组合或以其他方式重新布置。在一些实施方案中,存储器370任选地存储上述模块和数据结构的子组。此外,存储器370任选地存储上文未描述的附加模块和数据结构。
现在将注意力转到任选地在例如便携式多功能设备100上实现的用户界面的实施方案。
图4A示出了根据一些实施方案的便携式多功能设备100上的应用程序的菜单的示例性用户界面。类似的用户界面任选地在设备300上实现。在一些实施方案中,用户界面400包括以下元件或者其子集或超集:
·无线通信诸如蜂窝信号和Wi-Fi信号的信号强度指示符402;
·时间404;
·蓝牙指示符405;
·电池状态指示符406;
·具有针对常用应用程序的图标的托盘408,该图标诸如:
o电话模块138的被标记为“电话”的图标416,该图标416任选地包括未接来电或语音信箱的数量的指示符414;
o电子邮件客户端模块140的被标记为“邮件”的图标418,该图标418任选地包括未读电子邮件的数量的指示符410;
o浏览器模块147的标记为“浏览器”的图标420;以及
o视频和音乐播放器模块152(也称为iPod(苹果公司(Apple Inc.)的商标)模块152)的被标记为“iPod”的图标422;以及
·其他应用的图标,诸如:
o IM模块141的被标记为“消息”的图标424;
o日历模块148的被标记为“日历”的图标426;
o图像管理模块144的被标记为“照片”的图标428;
o相机模块143的被标记为“相机”的图标430;
o在线视频模块155的被标记为“在线视频”的图标432;
o股市桌面小程序149-2的被标记为“股市”的图标434;
o地图模块154的被标记为“地图”的图标436;
o天气桌面小程序149-1的被标记为“天气”的图标438;
o闹钟桌面小程序149-4的被标记为“时钟”的图标440;
o健身支持模块142的被标记为“健身支持”的图标442;
o记事本模块153的标记为“记事本”的图标444;以及
o设置应用程序或模块的被标记为“设置”的图标446,该图标提供对设备100及其各种应用程序136的设置的访问。
应当指出的是,图4A中示出的图标标签仅为示例性的。例如,视频和音乐播放器模块152的图标422被标记“音乐”或“音乐播放器”。对于各种应用程序图标任选地使用其他标签。在一些实施方案中,相应应用程序图标的标签包括与该相应应用程序图标对应的应用程序的名称。在一些实施方案中,特定应用程序图标的标签不同于与该特定应用程序图标对应的应用程序的名称。
图4B示出了具有与显示器450(例如,触摸屏显示器112)分开的触敏表面451(例如,图3的平板电脑或触摸板355)的设备(例如,图3的设备300)上的示例性用户界面。设备300还任选地包括用于检测触敏表面451上的接触的强度的一个或多个接触强度传感器(例如,传感器359中的一个或多个传感器)和/或用于为设备300的用户生成触觉输出的一个或多个触觉输出发生器357。
尽管将参考触摸屏显示器112(其中组合了触敏表面和显示器)上的输入给出随后的一些示例,但是在一些实施方案中,设备检测与显示器分开的触敏表面上的输入,如图4B中所示。在一些实施方案中,触敏表面(例如,图4B中的451)具有与显示器(例如,450)上的主轴(例如,图4B中的453)对应的主轴(例如,图4B中的452)。根据这些实施方案,设备检测在与显示器上的相应位置对应的位置(例如,在图4B中,460对应于468并且462对应于470)处与触敏表面451的接触(例如,图4B中的460和462)。这样,当触敏表面(例如,图4B中的451)与多功能设备的显示器(例如,图4B中的450)分开时,由设备在该触敏表面上检测到的用户输入(例如,接触460和462以及它们的移动)被该设备用于操纵该显示器上的用户界面。应当理解,类似的方法任选地用于本文所述的其他用户界面。
另外,虽然主要是参考手指输入(例如,手指接触、手指轻击手势、手指轻扫手势)来给出以下的示例,但应当理解,在一些实施方案中,这些手指输入中的一个或多个由来自另一个输入设备的输入(例如,基于鼠标的输入或触笔输入)替换。例如,轻扫手势任选地由鼠标点击(例如,而不是接触),之后是光标沿着轻扫的路径的移动(例如,而不是接触的移动)替代。又如,轻击手势任选地由在光标位于轻击手势的位置上方时的鼠标点击(例如,代替对接触的检测,之后是停止检测接触)替代。类似地,当同时检测到多个用户输入时,应当理解的是,多个计算机鼠标任选地被同时使用,或鼠标和手指接触任选地被同时使用。
图5A示出了示例性个人电子设备500。设备500包括主体502。在一些实施方案中,设备500可包括相对于设备100和300(例如,图1A至图4B)所述的特征中的一些或全部特征。在一些实施方案中,设备500具有在下文中称为触摸屏504的触敏显示屏504。作为触摸屏504的替代或补充,设备500具有显示器和触敏表面。与设备100和300的情况一样,在一些实施方案中,触摸屏504(或触敏表面)任选地包括用于检测所施加的接触(例如,触摸)强度的一个或多个强度传感器。触摸屏504(或触敏表面)的一个或多个强度传感器可提供表示触摸的强度的输出数据。设备500的用户界面可基于触摸的强度来对触摸作出响应,这意味着不同强度的触摸可调用设备500上的不同用户界面操作。
用于检测和处理触摸强度的示例性技术见于例如以下相关专利申请中:2013年5月8日提交的名称为“Device,Method,and Graphical User Interface for DisplayingUser Interface Objects Corresponding to an Application”的国际专利申请序列号PCT/US2013/040061,公布为WIPO专利公开号WO/2013/169849;以及2013年11月11日提交的名称为“Device,Method,and Graphical User Interface for Transitioning BetweenTouch Input to Display Output Relationships”的国际专利申请序列号PCT/US2013/069483,公布为WIPO专利公开号WO/2014/105276,以上国际专利申请中每一者据此全文以引用方式并入。
在一些实施方案中,设备500具有一个或多个输入机构506和508。输入机构506和508(如果包括的话)可以是物理形式的。物理输入机构的示例包括下压按钮和可旋转机构。在一些实施方案中,设备500具有一个或多个附接机构。此类附接机构(如果包括的话)可允许将设备500与例如帽子、眼镜、耳环、项链、衬衣、夹克、手镯、表带、手链、裤子、皮带、鞋子、钱包、背包等附接。这些附接机构允许用户穿戴设备500。
图5B描绘了示例性个人电子设备500。在一些实施方案中,设备500可包括参考图1A、图1B和图3所述的部件中的一些或全部部件。设备500具有总线512,该总线将I/O部分514与一个或多个计算机处理器516和存储器518操作性地耦接。I/O部分514可连接到显示器504,该显示器可具有触敏部件522并且任选地具有强度传感器524(例如,接触强度传感器)。此外,I/O部分514可与通信单元530连接,用于使用Wi-Fi、蓝牙、近场通信(NFC)、蜂窝和/或其他无线通信技术来接收应用程序和操作系统数据。设备500可包括输入机构506和/或508。例如,输入机构506任选地是可旋转输入设备或者可按压输入设备以及可旋转输入设备。在一些示例中,输入机构508任选地是按钮。
在一些示例中,输入机构508任选地为麦克风。个人电子设备500任选地包括各种传感器,诸如GPS传感器532、加速度计534、定向传感器540(例如,罗盘)、陀螺仪536、运动传感器538和/或其组合,所有这些设备均可操作地连接到I/O部分514。
个人电子设备500的存储器518可包括用于存储计算机可执行指令的一个或多个非暂态计算机可读存储介质,该计算机可执行指令当由一个或多个计算机处理器516执行时例如可使计算机处理器执行下文所述的技术,包括过程700至718(图7)。计算机可读存储介质可以是可有形地包含或存储计算机可执行指令以供指令执行系统、装置和设备使用或与其结合的任何介质。在一些示例中,存储介质是暂态计算机可读存储介质。在一些示例中,存储介质是非暂态计算机可读存储介质。非暂态计算机可读存储介质可包括但不限于磁存储装置、光学存储装置、和/或半导体存储装置。此类存储装置的示例包括磁盘、基于CD、DVD或蓝光技术的光盘,以及持久性固态存储器诸如闪存、固态驱动器等。个人电子设备500不限于图5B的部件和配置,而是可包括多种配置中的其他部件或附加部件。
如本文所用,术语“示能表示”是指任选地在设备100、300和/或500(图1A、图3和图5A至图5B)的显示屏上显示的用户交互式图形用户界面对象。例如,图像(例如,图标)、按钮和文本(例如,超链接)任选地各自构成示能表示。
如本文所用,术语“焦点选择器”是指指示用户界面中用户正与之进行交互的当前部分的输入元件。在包括光标或其他位置标记的一些具体实施中,光标充当“焦点选择器”,使得当光标在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)上方时在触敏表面(例如,图3中的触摸板355或图4B中的触敏表面451)上检测到输入(例如,按压输入)的情况下,该特定用户界面元素根据检测到的输入而被调节。在包括能够实现与触摸屏显示器上的用户界面元素的直接交互的触摸屏显示器(例如,图1A中的触敏显示器系统112或图4A中的触摸屏112)的一些具体实施中,在触摸屏上检测到的接触充当“焦点选择器”,使得当在触摸屏显示器上在特定用户界面元素(例如,按钮、窗口、滑块或其他用户界面元素)的位置处检测到输入(例如,由接触进行的按压输入)时,该特定用户界面元素根据检测到的输入而被调节。在一些具体实施中,焦点从用户界面的一个区域移动到用户界面的另一个区域,而无需光标的对应移动或触摸屏显示器上的接触的移动(例如,通过使用制表键或箭头键将焦点从一个按钮移动到另一个按钮);在这些具体实施中,焦点选择器根据焦点在用户界面的不同区域之间的移动而移动。不考虑焦点选择器所采取的具体形式,焦点选择器通常是由用户控制的以便递送与用户界面的用户预期的交互(例如,通过向设备指示用户界面的用户期望与其进行交互的元素)的用户界面元素(或触摸屏显示器上的接触)。例如,在触敏表面(例如,触控板或触摸屏)上检测到按压输入时,焦点选择器(例如,光标、接触或选择框)在相应按钮上方的位置将指示用户期望激活相应按钮(而不是设备显示器上示出的其他用户界面元素)。
如说明书和权利要求中所使用的,接触的“特征强度”这一术语是指基于接触的一个或多个强度的接触的特征。在一些实施方案中,特征强度基于多个强度样本。特征强度任选地基于相对于预定义事件(例如,在检测到接触之后,在检测到接触抬离之前,在检测到接触开始移动之前或之后,在检测到接触结束之前,在检测到接触的强度增大之前或之后和/或在检测到接触的强度减小之前或之后)而言在预先确定的时间段(例如,0.05秒、0.1秒、0.2秒、0.5秒、1秒、2秒、5秒、10秒)期间采集的预定义数量的强度样本或一组强度样本。接触的特征强度任选地基于以下各项中的一者或多者:接触的强度的最大值、接触的强度的均值、接触的强度的平均值、接触的强度的前10%处的值、接触的强度的半最大值、接触的强度的90%最大值等。在一些实施方案中,在确定特征强度时使用接触的持续时间(例如,在特征强度是接触的强度在时间上的平均值时)。在一些实施方案中,将特征强度与一组一个或多个强度阈值进行比较,以确定用户是否已执行操作。例如,该组一个或多个强度阈值任选地包括第一强度阈值和第二强度阈值。在该示例中,特征强度未超过第一阈值的接触导致第一操作,特征强度超过第一强度阈值但未超过第二强度阈值的接触导致第二操作,而特征强度超过第二阈值的接触导致第三操作。在一些实施方案中,使用特征强度与一个或多个阈值之间的比较来确定是否要执行一个或多个操作(例如,是执行相应操作还是放弃执行相应操作)而不是用于确定执行第一操作还是第二操作。
在一些实施方案中,出于确定特征强度的目的识别了手势的一部分。例如,触敏表面任选地接收连续的轻扫接触,该连续的轻扫接触从起始位置过渡并到达结束位置,在该结束位置处,接触强度增加。在该示例中,接触在结束位置处的特征强度任选地仅基于连续轻扫接触的一部分,而不是整个轻扫接触(例如,仅结束位置处的轻扫接触的部分)。在一些实施方案中,在确定接触的特征强度之前任选地向轻扫接触的强度应用平滑算法。例如,平滑化算法任选地包括以下各项中的一种或多种:不加权滑动平均平滑化算法、三角平滑化算法、中值滤波器平滑化算法和/或指数平滑化算法。在一些情况下,这些平滑化算法消除了轻扫接触的强度中的窄的尖峰或凹陷,以实现确定特征强度的目的。
任选地相对于一个或多个强度阈值诸如接触检测强度阈值、轻按压强度阈值、深按压强度阈值和/或一个或多个其他强度阈值来表征触敏表面上的接触的强度。在一些实施方案中,轻按压强度阈值对应于这样的强度:在该强度下设备将执行通常与点击物理鼠标或触摸板的按钮相关联的操作。在一些实施方案中,深按压强度阈值对应于这样的强度:在该强度下设备将执行与通常与点击物理鼠标或触控板的按钮相关联的操作不同的操作。在一些实施方案中,当检测到特征强度低于轻按压强度阈值(例如,并且高于标称接触检测强度阈值,比标称接触检测强度阈值低的接触不再被检测到)的接触时,设备将根据接触在触敏表面上的移动来移动焦点选择器,而不执行与轻按压强度阈值或深按压强度阈值相关联的操作。一般来讲,除非另有陈述,否则这些强度阈值在不同组的用户界面附图之间是一致的。
接触的特征强度从低于轻按压强度阈值的强度增大到介于轻按压强度阈值与深按压强度阈值之间的强度有时被称为“轻按压”输入。接触特征强度从低于深按压强度阈值的强度增大到高于深按压强度阈值的强度有时被称为“深按压”输入。接触特征强度从低于接触检测强度阈值的强度增大到介于接触检测强度阈值与轻按压强度阈值之间的强度有时被称为检测到触摸表面上的接触。接触特征强度从高于接触检测强度阈值的强度减小到低于接触检测强度阈值的强度有时被称为检测到接触从触摸表面抬离。在一些实施方案中,接触检测强度阈值为零。在一些实施方案中,接触检测强度阈值大于零。
在本文所述的一些实施方案中,响应于检测到包括相应按压输入的手势或响应于检测到利用相应接触(或多个接触)执行的相应按压输入来执行一个或多个操作,其中至少部分地基于检测到该接触(或多个接触)的强度增大到高于按压输入强度阈值而检测到相应按压输入。在一些实施方案中,响应于检测到相应接触的强度增大到高于按压输入强度阈值(例如,相应按压输入的“向下冲程”)来执行相应操作。在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于按压输入强度阈值,并且响应于检测到相应接触的强度随后减小到低于按压输入阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。
在一些实施方案中,设备采用强度滞后以避免有时被称为“抖动”的意外输入,其中设备限定或选择与按压输入强度阈值具有预定义关系的滞后强度阈值(例如,滞后强度阈值比按压输入强度阈值低X个强度单位,或者滞后强度阈值为按压输入强度阈值的75%、90%或某个合理比例)。因此,在一些实施方案中,按压输入包括相应接触的强度增大到高于按压输入强度阈值以及该接触的强度随后减小到低于对应于按压输入强度阈值的滞后强度阈值,并且响应于检测到相应接触的强度随后减小到低于滞后强度阈值(例如,相应按压输入的“向上冲程”)来执行相应操作。类似地,在一些实施方案中,仅在设备检测到接触强度从等于或低于滞后强度阈值的强度增大到等于或高于按压输入强度阈值的强度并且任选地接触强度随后减小到等于或低于滞后强度的强度时才检测到按压输入,并且响应于检测到按压输入(例如,根据环境,接触强度增大或接触强度减小)来执行相应操作。
为了便于解释,任选地,响应于检测到以下各种情况中的任一种情况而触发对响应于与按压输入强度阈值相关联的按压输入或响应于包括按压输入的手势而执行的操作的描述:接触的强度增大到高于按压输入强度阈值、接触的强度从低于滞后强度阈值的强度增大到高于按压输入强度阈值的强度、接触的强度减小到低于按压输入强度阈值和/或接触的强度减小到低于与按压输入强度阈值对应的滞后强度阈值。另外,在将操作描述为响应于检测到接触的强度减小到低于按压输入强度阈值而执行的示例中,任选地响应于检测到接触的强度减小到低于对应于并且小于按压输入强度阈值的滞后强度阈值来执行操作。
现在将注意力转到在电子设备(诸如便携式多功能设备100、设备300或设备500)上实现的用户界面(“UI”)以及相关联的过程的实施方案。
图6A至图6F示出了根据一些实施方案的用于显示视觉效果的示例性用户界面。这些附图中的用户界面用于示出下文所述的包括图7中的过程的过程。
图6A至图6F示出了示例性用户输入以及对示例性虚拟头像(例如,鲨鱼头像605)的对应改变,这些可在电子设备上显示,诸如图6E和图6F中所示并且具有显示器601(在一些情况下为触敏显示器)和相机602(至少包括能够捕获表示光谱的一部分(例如,可见光、红外光或紫外光)的数据的图像传感器)的电子设备600。在一些实施方案中,相机602包括多个图像传感器和/或其他类型的传感器。除了捕获表示感测光的数据之外,在一些实施方案中,相机602能够捕获其他类型的数据诸如深度数据。例如,在一些实施方案中,相机602还使用基于斑点、飞行时间、视差或焦点的技术来捕获深度数据。设备600使用相机602捕获的图像数据包括对应于相机视场内的场景的光谱的一部分的数据。另外,在一些实施方案中,捕获的图像数据还包括光数据的深度数据。在一些其他实施方案中,捕获的图像数据包含足以针对光谱的该部分的数据确定或生成深度数据的数据。在一些实施方案中,电子设备600包括设备100、300和500的一个或多个元件和/或特征。
在一些示例中,电子设备600包括深度相机,诸如红外相机、热成像相机或其组合。在一些示例中,该设备还包括光发射设备(例如,光投射器),诸如IR泛光灯、结构化光投影仪或其组合。可选地,光发射设备用于在通过可见光相机和深度相机(例如,IR相机)捕获图像期间照亮对象,并且来自深度相机和可见光相机的信息用于确定由可见光相机捕获的对象的不同部分的深度图。在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象距视点(例如,相机)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素定义视点的Z轴中其对应的二维像素所在的位置。在一些示例中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机)最远处的像素,“255”值表示位于“三维”场景中距离视点最近处的像素。在其他示例中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。在一些实施方案中,使用来自两个相机(例如,两个可见光相机)的视差信息显示本文所述的照明效果以用于后向图像,并且使用来自深度相机的深度信息结合来自可见光相机的图像数据以用于前向图像(例如,自拍图像)。在一些实施方案中,当使用两个可见光相机确定深度信息时以及使用深度相机确定深度信息时,使用相同的用户界面,从而即使在使用截然不同的技术确定产生照明效果时使用的信息时,也为用户提供一致的体验。在一些实施方案中,当显示所述相机用户界面具有所施加的所述照明效果之一时,设备检测对相机切换示能表示的选择并从前向相机(例如,深度相机和可见光相机)切换至后向相机(例如,彼此间隔开的两个可见光相机)(反之亦然),同时保持对用于施加照明效果和将前向相机的视野替换为后向相机的视野显示的用户界面控件的显示。
在一些实施方案中,虚拟头像是可以图形描绘的用户表示。在一些实施方案中,虚拟头像是非真实感的(例如,卡通的)。在一些实施方案中,头像是拟人构造,诸如风格化的动物(例如,鲨鱼)或通常无生命的对象的风格化。在一些实施方案中,虚拟头像包括具有一个或多个头像特征(例如,头像面部特征)的头像面部。在一些实施方案中,头像特征对应(例如,映射)于用户面部的一个或多个物理特征,使得检测到的用户的一个或多个物理特征的移动影响头像特征(例如,影响这些特征的图形表示)。
在一些实施方案中,用户能够使用相机传感器(例如,相机602)(例如,相机模块143、光学传感器164、深度相机传感器175)操纵虚拟头像的特性或特征。当用户的物理特征(诸如面部特征)和位置(诸如头部位置、头部旋转或头部倾斜)改变时,电子设备检测这些变化,并且作为响应,修改虚拟头像的显示图像(例如,以反映对用户的物理特征和位置的改变)。在一些实施方案中,对用户的身体特征和位置的改变指示各种表情、情绪、语境、语气或其他非语言交流。在一些实施方案中,电子设备修改虚拟头像的显示图像以表示这些表情、情绪、语境、语气或其他非语言交流。
在一些实施方案中,虚拟头像可以在各种应用程序的上下文中显示,诸如消息传送应用程序、相机应用程序、媒体查看应用程序(例如,照片应用程序或用于查看多媒体内容诸如照片和视频的其他应用程序)和视频通信应用程序。例如,在消息传送应用程序的上下文中,虚拟头像可用于生成包括贴纸、静态虚拟头像和动画虚拟头像的视觉效果(例如,多媒体内容),这些视觉效果可被传送至消息传送应用程序的用户。又如,在消息传送应用程序、相机应用程序、媒体查看应用程序或视频通信应用程序的上下文中,当显示图像数据(例如,由电子设备(例如,设备100、300、500、600)的相机(例如,602)捕获的图像数据)时,虚拟头像可用于显示各种视觉效果。美国专利公开号US 2018/0335927和美国专利申请序列号16/110,514中提供了用于在消息传送应用程序中生成和发送视觉效果(例如,包括虚拟头像)以及在消息传送应用程序、相机应用程序、媒体查看应用程序和视频通信应用程序中显示视觉效果的细节,该专利公开据此出于所有目的以引用方式并入本文。
图6A至图6D左侧的表示(例如,用户状态611-1至611-12)表示当用户在一个或多个相机(例如,相机602)(例如,相机模块143、光学传感器164、深度相机传感器175)和/或其他传感器(例如,红外传感器)的视场内时电子设备检测到的用户。换句话讲,用户的表示来自于相机(例如,相机602)(例如,相机模块143、光学传感器164、深度相机传感器175)的视角,在一些实施方案中,该相机可定位在电子设备(例如,设备100、300、500、600)上,并且在其他实施方案中,该相机可与电子设备分开定位(例如,将数据传递到电子设备的外部相机或传感器)。在一些实施方案中,图6A至图6D左侧的表示的边界表示一个或多个相机(例如,602)(例如,相机模块143、光学传感器164、深度相机传感器175)和/或其他传感器(例如,红外传感器)的视场的边界。在一些实施方案中,用户的表示在电子设备的显示器(例如,触摸屏112、显示器340、显示器450、显示器504、显示器601)上显示为图像数据。在一些实施方案中,将图像数据传输到外部电子设备以用于显示。在一些实施方案中,外部电子设备包括设备100、300、500和600的一个或多个元件和/或特征。在一些实施方案中,图像数据由设备(例如,100、300、500、600)收集和处理,但不立即在设备上显示或传输到外部电子设备。
图6A至图6D右侧的表示(例如,头像状态612-1至612-12)中的每个示出了虚拟头像(例如,鲨鱼头像605),该虚拟头像处于基于位于图左侧的用户的对应检测状态(例如,用户状态611-1至611-12)而呈现(例如,在修改之后显示)的状态。在一些实施方案中,从用户观察虚拟头像的视角来显示虚拟头像。在一些实施方案中,虚拟头像在电子设备的显示器(例如,触摸屏112、显示器340、显示器450、显示器504、显示器601)上显示。在一些实施方案中,虚拟头像被传输到外部电子设备以用于显示(例如,具有或不具有用户的图像数据)。在一些实施方案中,图6A至图6D右侧的表示表示虚拟头像在电子设备的显示器(例如,触摸屏112、显示器340、显示器450、显示器504、显示器601)的显示区域(例如,620)内的位置,并且图6A至图6D右侧的表示的边界表示包括虚拟头像的显示区域的边界。在一些实施方案中,右侧表示的显示区域对应于应用程序用户界面(例如,615)的头像显示区域(例如,620),诸如可以在例如消息传送应用程序的上下文中呈现的虚拟头像界面、消息编写区域或消息区域(或其一部分)。
在一些实施方案中,头像特征(例如,头像的可以相对于其他头像特征离散地移动或修改的离散元素)反应的量值与用户的物理特征(例如,检测到或跟踪到的特征,诸如用户肌肉,肌肉群,或解剖特征诸如眼睛或颌部)的变化的量值相对应。例如,在一些实施方案中,根据物理特征的潜在运动范围确定物理特征的变化的量值,其中,量值表示物理特征在该物理特征的运动范围(例如,预测或建模的运动范围)内的相对位置。在此类实施方案中,头像特征的反应的量值类似地是头像特征在头像特征的运动范围内的相对位置。在一些实施方案中,基于对物理特征变化的起始位置和结束位置的比较或测量(例如,距离)来确定变化的量值。在此类实施方案中,可以通过将所测量的物理特征的变化应用于头像特征(例如,直接应用,或作为缩放或经调整的值应用),将物理特征的变化转化为对第一头像特征的修改。
在一些实施方案中,对头像特征的修改具有量值分量和方向分量,对头像特征的修改的方向分量基于头像特征作出反应的一个或多个物理特征(例如,用户面部的面部特征)的变化的方向分量。在一些实施方案中,头像特征的反应的方向对应于(例如,直接对应于或相反地对应于)用户的物理特征的变化的相对方向,其中,基于物理特征从初始位置(例如,物理特征的中性位置、静止位置,或者在一些实施方案中,设备初始检测到的物理特征的位置)开始的移动的方向确定物理特征的变化的相对方向。在一些实施方案中,头像特征的反应的方向与物理特征的变化的相对方向直接相对应(例如,物理特征向上移动,则头像特征也向上移动)。在其他实施方案中,头像特征的反应的方向与物理特征的变化的相对方向相反地相对应(例如,物理特征向上移动,则头像特征向下移动)。
在一些实施方案中,相对于物理特征的变化的方向分量镜像化头像特征的变化的方向分量。例如,当物理特征(例如,用户的嘴部)向左移动时,头像特征(例如,头像嘴部)向右移动。在一些实施方案中,针对沿垂直轴的移动,头像特征的变化的方向分量与物理特征的变化的方向分量相同,并且针对沿水平轴的移动,头像特征的变化的方向分量与物理特征的变化的方向分量成镜像关系,类似于在照镜子时看到的效果。在一些实施方案中,物理特征(例如,用户的虹膜或眉毛)的相对位置的变化处于根据物理特征的中性静止位置确定的方向上。例如,在一些实施方案中,将用户虹膜的中性静止位置确定为相对于用户眼球周边的特定位置(例如,居中位置)。
图6A至图6D示出了用户状态611-1至611-12中的用户610以及头像状态612-1至612-12中的鲨鱼头像605。用户610包括各种检测到的物理特征(例如,面部特征),包括例如颌部610-1、眼睛610-2、鼻部610-3、脸颊610-4、眉毛610-5和头部610-6。在一些实施方案中,跟踪的物理特征可包括其他面部特征,诸如眼睑、唇部、肌肉、肌肉群等。鲨鱼头像605包括各种鲨鱼头像特征,包括鲨鱼颌部605-1、鲨鱼眼睛605-2、鲨鱼鼻部605-3(例如,鼻孔)、鲨鱼尾部605-4、鳃605-5、胸鳍605-6、背鳍605-7、躯干605-8和牙龈605-9。在一些实施方案中,鲨鱼头像605的各种特征包括鲨鱼的宏观特征,诸如上头部部分605-10(参见图6C)。例如,在一些实施方案中,上头部部分605-10包括鲨鱼眼睛605-2、鲨鱼鼻部605-3和任选地上颌605-11。
在图6A至图6D中所示的实施方案中,电子设备(例如,600)基于以下中的一者或多者修改鲨鱼头像605:(1)用于限定鲨鱼头像的行为特性,以及(2)在用户610的一个或多个物理特征中检测到的变化。行为特性包括为特定头像角色确定的虚拟头像的建模行为。该建模行为可以取决于检测到的用户的物理特征的变化(例如,如果检测到用户特征“Y”的“X”变化,则修改头像以进行“Z”)或独立于检测到的用户的变化(例如,修改头像以进行“A”,而不管在用户的物理特征中检测到(或未检测到)什么变化)。在一些实施方案中,独立于检测到的用户变化的行为特性在本文中被称为“独立行为特性”。
例如,在一些实施方案中,鲨鱼尾部605-4是基于鲨鱼头像605的独立行为特性移动(例如,由电子设备修改)的头像特征。具体地,独立行为特性是其中鲨鱼尾部605-4具有模拟游泳时鲨鱼尾部运动的连续左右摇摆运动的特性。该行为特性的独立性在图6A至图6D中通过示出当未检测到用户610的变化时鲨鱼尾部605-4移动的实施方案(例如,图6A)和当检测到用户610的各种变化时鲨鱼尾部605-4继续移动的实施方案(例如,图6B至图6D)来证实。因此,电子设备将鲨鱼尾部605-4修改为具有连续的左右摇摆运动,而不管检测到用户610的什么变化,在没有检测到用户610的变化时,并且甚至在根本没有检测到用户610时(例如,即使面部跟踪失败,鲨鱼尾部605-4也继续移动)。
在图6A中,鲨鱼头像605被示出为具有三个显示状态(612-1、612-2和612-3),其中鲨鱼头像605的三个显示状态中的每一个分别对应于用户610的三个检测状态(611-1、611-2和611-3)。例如,电子设备检测到处于中性姿势的用户610,其中用户头部610-6面向前,用户颌部610-1处于闭合位置,用户眼睛610-2和鼻部610-3处于中性前向位置(例如,眼睛和鼻部的位置不升高或转向侧面;眼睛向前且不向上、向下或向侧面看),并且用户脸颊610-4和眉毛610-5处于中性静止位置(例如,脸颊不鼓出并且眉毛不抬起或降低)。基于用户610的这些检测到的特征的位置,电子设备显示具有中性姿势的鲨鱼头像605,其中鲨鱼颌部605-1闭合;鲨鱼眼睛605-2和鼻部605-3处于中性前向位置(例如,眼睛和鼻部的位置不升高或转向侧面;眼睛向前且不向上、向下或向侧面看);鳃605-5、胸鳍605-6、背鳍605-7和躯干605-8处于中性位置(例如,鳃未鼓出,所有鳍均松弛并且未旋转、提升、卷曲等,并且躯干未弯曲到侧面);并且不显示鲨鱼牙龈605-9。用户610的该中性姿势保持在用户状态611-1至611-3中,并且鲨鱼头像605的中性姿势保持在头像状态612-1至612-3中。然而,尽管用户610在用户状态611-1至611-3中的中性姿势不变,但鲨鱼尾部605-4被修改为具有连续移动,如下文更详细地解释。
如上所述,图6A示出了一个实施方案,其中电子设备(例如,600)未检测到用户610的变化(例如,电子设备未检测到用户状态611-1至611-3中的用户610的任何变化),并且因此,保持映射到用户特征的鲨鱼特征的恒定外观(例如,电子设备放弃修改除尾部之外的所有鲨鱼头像特征,因为没有检测到对用户610的改变)。然而,电子设备继续基于独立行为特性修改鲨鱼头像605,其中鲨鱼尾部605-4连续地左右移动(例如,以一致的频率),如头像状态612-1至612-3中所示。在该特定示例中,电子设备显示具有鲨鱼尾部特征605-4的鲨鱼头像605,该鲨鱼尾部特征在头像状态612-1至612-3中前后摇摆,并且不进行对鲨鱼头像605的其他改变(鲨鱼头像605保持上述中性姿势)。鲨鱼尾部605-4在头像状态612-1至612-3(以及头像状态612-4至612-12)中的位置是每个相应头像状态的尾部的瞬时位置。然而,应当理解,鲨鱼尾部605-4的移动是连续的(例如,尾部左右移动的平滑动画,其中尾部的动画弯曲模拟鲨鱼的尾部移动)。
图6B示出了例示电子设备(例如,600)响应于检测到用户610的面部特征的变化而修改鲨鱼头像605的示例性实施方案。鲨鱼头像605被示出为具有三个显示状态(612-4、612-5和612-6),其中鲨鱼头像605的三个显示状态中的每一个分别对应于用户610的三个检测状态(611-4、611-5和611-6)。在图6B中的每个显示状态中,电子设备响应于检测到在用户的相应状态下(示出为用户状态611-4至611-6)检测到的用户610的一个或多个物理特征(诸如,面部特征)的位置或位置变化来定位或修改鲨鱼头像605的特征。在图6B中所示的实施方案中,电子设备检测到用户610处于与图6A中所示相同的中性位置,但是用户眼睛610-2向侧面偏移。响应于检测到用户眼睛610-2的位置改变,电子设备基于用户眼睛610-2的位置改变来修改鲨鱼眼睛605-2。
例如,在用户状态611-4中,电子设备检测到用户眼睛610-2向右偏移(例如,从电子设备的角度,如图6B中所示),并且通过将鲨鱼眼睛605-2向左偏移(例如,从用户查看鲨鱼头像605的角度,如图6B中所示)来修改头像状态612-4中的鲨鱼头像605,有效地镜像化用户眼睛610-2的移动。在用户状态611-5中,电子设备检测到没有来自用户状态611-4的变化,并且因此将鲨鱼头像605的位置保持在头像状态612-5中(除了鲨鱼尾部605-4之外,该鲨鱼尾部独立于检测到的对用户610的变化而继续移动)。在用户状态611-6中,电子设备检测到用户眼睛610-2向左偏移,并且通过将鲨鱼眼睛605-2向右偏移来修改头像状态612-6中的鲨鱼头像605以镜像化用户眼睛610-2的移动。在头像状态612-4至612-6中,电子设备不基于检测到的用户眼睛610-2的变化修改鲨鱼头像605的任何其他特征。例如,鲨鱼颌部605-1保持在闭合位置,并且鲨鱼鼻部605-3保持在中性前向位置。同样,鲨鱼尾部605-4继续移动,但是尾部的移动不基于检测到的用户610的变化。在一些实施方案中,诸如图6B中所示,鲨鱼眼睛605-2可表示为具有虹膜部分的眼球。在此类实施方案中,响应于检测到的用户眼睛610-2的移动,鲨鱼眼睛605-2的偏移是鲨鱼眼睛的虹膜部分的偏移。在一些实施方案中,鲨鱼眼睛仅包括不包括有区别的虹膜部分的眼球(例如,眼球为实心黑色)。在此类实施方案中,鲨鱼眼睛的偏移是整个眼球的偏移。
图6C示出了例示电子设备(例如,600)响应于检测到用户610的面部特征的变化而修改鲨鱼头像605的示例性实施方案。鲨鱼头像605被示出为具有三个显示状态(612-7、612-8和612-9),其中鲨鱼头像605的三个显示状态中的每一个分别对应于用户610的三个检测状态(611-7、611-8和611-9)。在图6C中的每个显示状态中,电子设备响应于检测到在用户的相应状态下(示出为用户状态611-7至611-9)检测到的用户610的一个或多个物理特征(诸如,面部特征)的位置或位置变化来定位或修改鲨鱼头像605的特征。在图6C中所示的实施方案中,电子设备检测到用户610处于与图6A中所示相同的中性位置,但是其中用户颌部610-1打开到各种位置,而用户610的其他特征(例如,用户眼睛610-2、用户鼻部610-3和用户头部610-6)保持静止。响应于检测到用户颌部610-1的位置改变,电子设备基于用户颌部610-1的位置改变来修改鲨鱼颌部605-1、鲨鱼眼睛605-2和鲨鱼鼻部605-3。如头像状态612-7至612-9中所示,鲨鱼尾部605-4继续移动,而与检测到的对用户610的变化无关。
在用户状态611-7中,电子设备检测到用户610具有中性位置(例如,图6A的用户状态611-1中所示的相同中性位置)。响应于检测到用户610的该中性位置,电子设备显示具有中性位置(例如,图6A的头像状态612-1中所示的相同中性位置,但是鲨鱼尾部605-4继续移动)的鲨鱼头像605(在头像状态612-7中)。在图6C中所示的实施方案中,竖直中点604和竖直中点606分别被示出为用户状态611-7至611-9和头像状态612-7至612-9的竖直中点。在用户状态611-7中,用户颌部610-1、用户眼睛610-2和用户鼻部610-3具有从竖直中点604的竖直偏移,该竖直偏移分别由J0、E0和N0表示。换句话讲,J0表示竖直中点604与用户颌部610-1的初始位置之间的竖直距离,E0表示竖直中点604与用户眼睛610-2的位置之间的竖直距离,并且N0表示竖直中点604与用户鼻部610-3的位置之间的竖直距离。在头像状态612-7中,鲨鱼眼睛605-2和鲨鱼鼻部605-3具有从竖直中点606的竖直偏移,该竖直偏移分别由e0和n0表示。换句话讲,e0表示竖直中点606与鲨鱼眼睛605-2的初始位置之间的竖直距离,并且n0表示竖直中点606与鲨鱼鼻部605-3的初始位置之间的竖直距离。
在用户状态611-8中,电子设备检测到用户颌部610-1移动到打开位置,并且作为响应,通过降低鲨鱼颌部605-1(例如,以匹配用户颌部610-1的降低位置)并基于用户颌部610-1的移动沿向上方向移动鲨鱼眼睛605-2和鲨鱼鼻部605-3的位置来修改头像状态612-8中的鲨鱼头像605。向下偏移的用户颌部610-1的竖直偏移由J1表示,该J1相对于J0增加(竖直偏移的绝对值增加)。用户眼睛610-2和用户鼻部610-3的位置不改变,且因此分别保持E0和N0的竖直偏移。向上偏移的鲨鱼眼睛605-2和鲨鱼鼻部605-3的竖直偏移分别由e1和n1表示,所述e1和n1分别相对于e0和n0增加。下降的鲨鱼颌部605-1的竖直偏移由j1表示,j1是与竖直中点606的竖直偏移,该竖直中点在与竖直(例如,向上)偏移n0、n1、e0和e1相反的方向上(例如,向下)。在一些实施方案中,竖直中点606还表示鲨鱼颌部605-1的原始竖直位置(例如,在头像状态612-7中,鲨鱼颌部605-1的竖直位置等于竖直中点606)。在一些实施方案中,n0与n1之间的差值等于e0与e1之间的差值。在一些实施方案中,n0与n1之间的差值不等于e0与e1之间的差值。在一些实施方案中,n0与n1之间的差值等于j1。在一些实施方案中,e0和e1之间的差值等于j1。在一些实施方案中,J1等于j1。在一些实施方案中,J1不等于j1(例如,j1为J1的缩放值)。在一些实施方案中,J0与J1之间的差值等于j1。在一些实施方案中,电子设备还修改鲨鱼头像605的上头部部分的形状以适应鲨鱼眼睛605-2和鲨鱼鼻部605-3的偏移移动,如对在头像状态612-7和612-8中鲨鱼头像605的上头部部分605-10的变化所示。在一些情况下,修改上头部部分605-10导致隐藏不同量的背鳍605-7,这取决于对上头部部分605-10的修改的量值,如头像状态612-8和612-9中所示。在一些实施方案中,电子设备还通过移动上颌605-11(例如,基于检测到的用户颌部610-1的向下移动沿向上方向移动上颌)来修改鲨鱼头像605。
在用户状态611-9中,电子设备检测到用户颌部610-1移动到比611-8中所示的打开位置更大的打开位置,并且作为响应,通过进一步降低鲨鱼颌部605-1(例如,以匹配用户颌部610-1在用户状态611-9中的进一步降低的位置)并且基于用户颌部610-1的附加移动沿向上方向进一步移动鲨鱼眼睛605-2和鲨鱼鼻部605-3的位置来修改头像状态612-9中的鲨鱼头像605。降低的用户颌部610-1的竖直偏移由J2表示,该J2相对于J1增加。用户眼睛610-2和用户鼻部610-3的位置不改变,且因此分别保持E0和N0的竖直偏移。偏移的鲨鱼眼睛605-2和鲨鱼鼻部605-3的竖直偏移分别由e2和n2表示,其分别相对于e1和n1增加。降低的鲨鱼颌部605-1的竖直偏移由j2表示,该j2相对于j1增加(例如,在向下方向上)。在一些实施方案中,n1与n2之间的差值等于e1与e2之间的差值。在一些实施方案中,n1与n2之间的差值不等于e1与e2之间的差值。在一些实施方案中,n1与n2之间的差值等于j1与j2之间的差值。在一些实施方案中,e1与e2之间的差值等于j1与j2之间的差值。在一些实施方案中,J1与J2之间的差值等于j1与j2之间的差值。在一些实施方案中,电子设备还修改鲨鱼头像605的上头部部分的形状以适应鲨鱼眼睛605-2和鲨鱼鼻部605-3的偏移移动,如对在头像状态612-7和612-8中鲨鱼头像605的上头部部分605-10的变化所示。在一些实施方案中,电子设备还通过沿向上方向移动上颌605-11(例如,与头像状态612-8中上颌605-11的位置相比并且基于检测到的用户颌部610-1的向下移动)来修改鲨鱼头像605。在一些实施方案中,电子设备修改鲨鱼头像605以显示如头像状态612-9中所示的牙龈605-9(例如,响应于检测到用户颌部610-1移动超过阈值量的向下移动(例如,打开)。在一些实施方案中,响应于检测到用户颌部610-1沿闭合方向移动,电子设备通过以下操作来修改鲨鱼头像605:反转头像特征的上述移动(例如,从头像状态612-9中的外观过渡至头像状态612-8中的外观;从头像状态612-8中的外观过渡至头像状态612-7中的外观)。
在一些实施方案中,诸如图6C中所示,鲨鱼眼睛605-2可表示为具有虹膜部分的眼球。在此类实施方案中,响应于检测到的用户颌部610-1的移动,鲨鱼眼睛605-2的偏移是整个眼球(包括虹膜部分)的偏移,同时保持虹膜部分在眼球中的相对位置。在一些实施方案中,鲨鱼眼睛仅包括不包括有区别的虹膜部分的眼球(例如,眼球为实心黑色)。在此类实施方案中,鲨鱼眼睛的偏移是整个眼球的偏移。
图6D示出了例示电子设备(例如,600)响应于检测到用户610的面部特征的变化而修改鲨鱼头像605的示例性实施方案。鲨鱼头像605被示出为具有三个显示状态(612-10、612-11和612-12),其中鲨鱼头像605的三个显示状态中的每一个分别对应于用户610的三个检测状态(611-10、611-11和611-12)。在图6D中的每个显示状态中,电子设备响应于检测到在用户的相应状态下(示出为用户状态611-10至611-12)检测到的用户610的一个或多个物理特征(诸如,面部特征)的位置或位置变化来定位或修改鲨鱼头像605的特征。在图6D中所示的实施方案中,电子设备检测到用户610处于与图6A中所示相同的中性位置,但是用户头部610-6转到各种位置。响应于检测到用户头部610-6的位置改变,电子设备基于用户头部610-6的位置改变来修改鲨鱼头像605的各种特征。如头像状态612-10至612-12中所示,鲨鱼尾部605-4继续移动,而与检测到的对用户610的变化无关。
在用户状态611-10中,电子设备检测到用户610具有中性位置(例如,图6A的用户状态611-1中所示的相同中性位置)。响应于检测到用户610的该中性位置,电子设备显示具有中性位置(例如,图6A的头像状态612-1中所示的相同中性位置,但是鲨鱼尾部605-4继续移动)的鲨鱼头像605(在头像状态612-10中)。
在用户状态611-11中,电子设备检测到用户头部610-6以及任选地面部(或包括面部的各种物理特征,诸如用户颌部610-1、用户眼睛610-2、用户鼻部610-3、用户脸颊610-4和用户眉毛610-5)的向右旋转(例如,从电子设备的角度,如图6D中所示)。作为响应,电子设备通过向左弯曲鲨鱼躯干605-8(例如,从用户查看鲨鱼头像605的角度,如图6D所示)并且基于鲨鱼头像605的弯曲位置(如头像状态612-11中所示)修改各种头像特征的外观来修改鲨鱼头像605。例如,电子设备通过将鲨鱼躯干605-8向左弯曲来修改鲨鱼躯干,有效地镜像化用户头部610-6的旋转。如头像状态612-11中所示,鲨鱼躯干605-8的弯曲包括旋转躯干和附接特征诸如鲨鱼颌部605-1、鲨鱼眼睛605-2、鲨鱼鼻部605-3、鳃605-5、胸鳍605-6和背鳍605-7的位置。因为鲨鱼躯干605-8弯曲(例如,旋转而不影响所显示的鲨鱼尾部605-4),所以各种鲨鱼头像特征不可见,且因此电子设备从鲨鱼头像605中省略这些特征。例如,先前在头像状态612-10中显示的鲨鱼颌部605-1的一部分在头像状态612-11中不显示。类似地,仅一个鲨鱼眼睛605-2、鲨鱼鼻部605-3的一部分(例如,一个鼻孔)、胸鳍605-6B的一部分和一组鳃605-5在头像状态612-11中显示。相反地,由于鲨鱼躯干605-8的旋转,现在显示先前不可见的各种鲨鱼特征的部分。例如,由于鲨鱼躯干605-8的位置旋转,显示了鲨鱼躯干605-8、背鳍605-7和胸鳍605-6A的更大部分。
在用户状态611-12中,电子设备检测用户头部610-6以及任选地面部(或包括面部的各种物理特征,诸如用户颌部610-1、用户眼睛610-2、用户鼻部610-3、用户脸颊610-4和用户眉毛610-5)的向左旋转(例如,从电子设备的角度,如图6D中所示)。作为响应,电子设备通过向右弯曲鲨鱼躯干605-8(例如,从用户查看鲨鱼头像605的角度,如图6D中所示)并且基于鲨鱼头像605的弯曲位置(如头像状态612-12中所示)修改各种头像特征的外观来修改鲨鱼头像605。应当理解,用户状态611-12中的用户610的外观是用户状态611-11中的用户610的外观的镜像。因此,在头像状态612-12中,鲨鱼头像605的外观被修改为头像状态612-11中的鲨鱼头像605的外观的镜像。如头像状态612-10至612-12中所示,鲨鱼尾部605-4继续移动,而与检测到的对用户610的变化无关。即,鲨鱼躯干605-8的弯曲不影响鲨鱼尾部605-4。
在图6A至图6D中所示的示例中,电子设备检测用户在用户的物理特征的各种位置之间转变,然后根据检测到的用户的物理特征的变化更新或修改虚拟头像(例如,鲨鱼头像)。在这些示例中,电子设备通过保持虚拟头像的某些特征的特性并且使其他虚拟头像特征的变化动画化来在各种表情和位置之间转换虚拟头像的显示。例如,如图6B所示,设备保持鲨鱼颌部605-1的位置,同时修改其他头像特征,诸如鲨鱼眼睛605-2。应当理解,虽然头像的状态对应于用户的相应检测到的状态(例如,显示的头像状态612-4至612-6分别对应于用户状态611-4至611-6),但是检测到的用户状态(以及所得的头像状态)的顺序不限于图6A至图6D中所示的顺序。因此,用户可以改变任何物理特征或者假设任何期望位置,并且无论变化发生的顺序如何,电子设备均响应于检测到的变化而修改虚拟头像。
例如,除了修改如图6C所示的各种头像特征之外,电子设备还可以基于在用户610中检测到的附加变化来修改这些特征中的一个或多个。例如,响应于检测到用户610具有在用户状态611-8中所示的外观,电子设备修改鲨鱼头像605以具有在头像状态612-8中所示的外观。如果电子设备然后检测到用户眼睛610-2的向右偏移(例如,类似于用户状态611-4中所示的眼睛偏移),同时继续将打开的颌部位置保持在用户状态611-8中,则电子设备修改头像状态612-8中的鲨鱼眼睛605-2以具有向左偏移(例如,鲨鱼头像的虹膜具有与头像状态612-4中所示类似的偏移),同时保持鲨鱼眼睛605-2和鲨鱼鼻部605-3的向上偏移位置,并且保持头像状态612-8中所示的其他头像特征(例如,鲨鱼颌部605-1、鳃605-5、鳍605-6和605-7、躯干605-8、上头部部分605-10和上颌605-11)的位置。
在一些实施方案中,电子设备还可以除图6A至图6D中所示的那些方式之外的各种方式修改鲨鱼头像605。例如,响应于检测到用户眉毛610-5的向上或向下移动,电子设备可基于检测到的用户眉毛610-5的向上或向下移动来修改胸鳍605-5以沿向上或向下方向移动(例如,卷曲)。又如,电子设备可响应于检测到用户面颊610-4扩张(例如,当填充有空气时鼓出)并返回到中性位置(例如,当用户从他们的面颊中释放空气时)而修改鳃605-5以扩张和压缩(类似于当呼吸时鲨鱼的鳃的移动)。又如,在一些实施方案中,响应于检测到用户610在相机(例如,602)的视场中的位置的平移移动(例如,用户610的位置在相机的视场中向上、向下、向左或者向右),电子设备修改显示区域中的鲨鱼头像605的显示位置,以镜像化用户610在相机的视场中的位置的移动。例如,如果电子设备检测到用户在视场中向下偏移,则电子设备使鲨鱼头像605的位置在显示区域中向下偏移。在一些实施方案中,电子设备固定或锚定鲨鱼头像605的位置,使得鲨鱼头像605在显示区域中的位置不响应于检测到用户610的位置的平移移动而改变。
图6E和图6F描绘了示例性实施方案,其中具有显示器601和相机602的设备600使得能够在相机应用程序用户界面615中显示鲨鱼头像605。相机应用程序界面615包括图像显示区域620,该图像显示区域显示图像数据的表示,图像数据为诸如表示位于相机(例如,后向相机或相机602)的视场内的对象的流式图像数据(例如,实时相机预览、实时相机录制或实时视频通信会话);或显示媒体项目,诸如照片或视频记录。应当理解,设备600可在各种其他应用程序(诸如消息传送应用程序、媒体查看应用程序或视频通信应用程序)的上下文中类似地显示鲨鱼头像605。因此,显示鲨鱼头像605(如关于图6A至图6F所讨论的)应当理解为类似地应用于在这些其他应用程序的上下文中显示的虚拟头像。为了简洁起见,本文不讨论在这些各种其他应用程序中显示虚拟头像的细节。
在图6E中所示的实施方案中,图像显示区域620示出来自相机602的实时相机预览620-1,示出了定位在相机602的视场中的主体632的表示和在主体632后面显示的背景636。在本文所讨论的实施方案中,主体632对应于图6A至图6D中讨论的用户610。如本文所述,在一些实施方案中使用相机602捕获的图像数据包括可用于确定相机602的视野中的对象深度的深度数据。在一些实施方案中,设备600基于检测到的对象(例如,在图像数据中)的深度来解析那些对象,并且使用此确定来应用本文所论述的视觉效果(例如,虚拟头像)。例如,设备600可将主体632分类为处于实时相机预览620-1的前景中,并且将定位在用户后面的对象分类为处于实时相机预览620-1的背景中。这些背景对象在本文中通常称为背景636。
在图6E中,设备600显示没有鲨鱼头像605的实时相机预览620-1(例如,设备600在尚未启用视觉效果或尚未选择虚拟头像用于应用于主体632的表示的模式下操作)。然而,在图6F中,设备600显示实时相机预览620-1,其中鲨鱼头像605显示在主体632的表示的一部分(例如,头部)上方(例如,视觉效果已被启用,或者虚拟头像已被选择用于应用于主体632的表示)。具体地,鲨鱼头像605被转换到图像显示区域中的主体的面部上,而图像显示区域620中的图像的其他部分(诸如用户的背景或其他部分,诸如用户的身体)保持显示。定位在相机602的视场中的用户(例如,主体632)可通过改变其面部的姿势(例如,旋转或取向)来控制鲨鱼头像605的视觉方面,包括移动各种面部特征(例如,眨眼、吐舌头、微笑等),如相对于图6A至图6D更详细所述。
在一些实施方案中,基于头像部分相对于相机602的视场中的主体的深度和/或位置的模拟位置(例如,深度)有条件地显示鲨鱼头像605的部分。例如,在图6F中,设备600从鲨鱼头像605中省略鲨鱼尾部605-4,因为鲨鱼尾部605-4定位在主体632的表示后面,并且因此对于查看显示器601的用户不可见。在一些实施方案中,如果鲨鱼尾部605-4的模拟相对位置改变,则可以显示尾部的部分,使得基于尾部相对于主体632的表示的更新的相对位置,尾部变得可见。例如,如果用户将其头部转向侧面,并且鲨鱼躯干605-8的由此产生的弯曲导致显示出鲨鱼尾部605-4的一部分的位置变化,则可显示鲨鱼尾部605-4。在此类情况下,保持鲨鱼尾部605-4的连续运动,即使其导致尾部的间歇可见性(例如,由连续尾部运动引起)。
图7是示出根据一些实施方案的用于使用电子设备来显示视觉效果的方法的流程图。在具有一个或多个相机(例如,602)和显示器(例如,601)的设备(例如,100、300、500、600)处执行方法700。方法700中的一些操作任选地被组合,一些操作的次序任选地被改变,并且一些操作任选地被省略。
如下文所述,方法700提供了用于显示视觉效果诸如虚拟头像的直观方式。该方法减少了用户生成、修改和控制虚拟头像的认知负担,从而创建更有效的人机界面。对于电池驱动的计算设备,使用户能够更快速且更有效地控制虚拟头像节省功率并增加电池两次充电之间的时间间隔。
电子设备(例如,600)经由显示装置(例如,601)显示(702)具有多个头像特征(例如,鲨鱼颌部605-1、鲨鱼眼睛605-2、鲨鱼鼻部605-3、鲨鱼尾部605-4、鳃605-5、胸鳍605-6、背鳍605-7、鲨鱼躯干605-8、鲨鱼牙龈605-9、上头部部分605-10、上颌605-11)(例如,面部特征结构(例如,眼睛、嘴部、嘴部的一部分(牙龈、舌部)、牙齿);例如,身体部分(例如,鳍、尾部、鳃);例如,宏观特征(例如,头部、颈部、身体))的虚拟头像(例如,鲨鱼头像605)(例如,可以图形描绘的用户表示),该多个头像特征响应于检测到的一个或多个相机(例如,602)的视场中的面部的姿势(例如,取向、平移)的变化(例如,面部表情的变化)而改变外观。在一些实施方案中,虚拟头像包括具有一个或多个头像特征(例如,头像面部特征)的头像面部。在一些实施方案中,头像特征对应(例如,映射)于用户面部的一个或多个物理特征,使得检测到的用户的一个或多个物理特征的移动影响头像特征(例如,影响这些特征的图形表示)。在一些实施方案中,头像特征在解剖学上对应于物理特征(例如,基于物理特征的位置、移动特性、尺寸、颜色和/或形状中的一者或多者来对头像特征进行建模)(例如,该头像特征和物理特征都是眉毛)。在一些实施方案中,头像特征在解剖学上不对应于(例如,解剖学上不同或解剖学上对应于不同的物理特征)物理特征(例如,头像特征对应于鲨鱼鳍(例如,605-6),并且物理特征对应于用户的眉毛(例如,610-5))。在一些实施方案中,虚拟头像是非真实感的。在一些实施方案中,头像为拟人化构造,诸如风格化动物(例如,鲨鱼)。
在方法700中,电子设备(例如,600)显示(704)多个头像特征,包括:第一头像特征(例如,鲨鱼颌部605-1)(例如,颌部;例如,下颌和任选的上颌部分,诸如上牙和/或上牙龈);不同于第一头像特征的第二头像特征(例如,鲨鱼眼睛605-2)(例如,头像眼睛);以及与第一头像特征和第二头像特征不同的第三头像特征(例如,头像鼻部)(例如,鲨鱼鼻部605-3)。在一些实施方案中,第二头像特征和第三头像特征形成头像的第一部分,诸如不包括第一头像特征(例如,下颌)的头部部分(例如,上头部部分605-10)。
在方法700中,当在一个或多个相机(例如,602)的视场中检测到面部时,面部包括多个检测到的面部特征,包括第一面部特征(例如,用户610的颌部610-1;例如,不包括上颌、上唇、上牙、上牙龈或鼻部的下颌)(例如,第一面部特征(例如,解剖学上)对应于第一头像特征)(例如,第一头像特征是第一面部特征的图形表示)(例如,第一面部特征是用户的颌部并且第一头像特征是头像的颌部)和与第一面部特征不同的第二面部特征(例如,用户眼睛610-2)(例如,用户眼睛中的一个或多个)(例如,第二面部特征(例如,解剖学上)对应于第二头像特征)(例如,第二头像特征是第二面部特征的图形表示)(例如,第二面部特征是用户眼睛中的一个或多个,并且第二头像特征是一个或多个头像眼睛),电子设备(例如,600)检测(706)面部的一个或多个面部特征的移动。
在一些实施方案中,响应于检测到一个或多个面部特征的移动,并且根据确定检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)沿第三方向(例如,第二方向;例如,与第一方向不同(例如,相反)的方向;例如,第一面部特征沿向上方向的移动,诸如颌部基于嘴部的闭合的向上移动)的移动,电子设备(例如,600)沿与第三方向不同(例如,相反)的第四方向并且基于检测到的第一面部特征沿第三方向的移动(例如,基于该移动的量值)来移动第二头像特征(例如,鲨鱼眼睛605-2)和第三头像特征(例如,鲨鱼鼻部605-3)。沿不同于第三方向的第四方向并且基于检测到的第一面部特征沿第三方向的移动来移动第二头像特征和第三头像特征向用户提供反馈,指示所述第一面部特征沿各种方向的移动将导致所述设备在与所述第一面部特征移动的方向不同的各种方向上修改所述相应的第二头像特征和第三头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括不对应于第二头像特征和第三头像特征的第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,进一步根据确定检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)沿第三方向的移动,电子设备(例如,600)基于检测到的第一面部特征沿第三方向的移动(例如,基于该移动的量值)沿第三方向移动第一头像特征(例如,鲨鱼颌部605-1)(例如,头像下颌)。基于检测到的第一面部特征沿第三方向的移动来沿第三方向移动第一头像特征向用户提供反馈,指示相同的第一面部特征沿各种方向的进一步移动将导致设备沿相同的各种方向进一步修改相应的第一头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在方法700中,电子设备(例如,600)响应于检测到一个或多个面部特征的移动而执行(708)下文所述的一个或多个项目。
根据确定(710)检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)沿第一方向(例如,第一面部特征沿向下方向的移动,诸如颌部基于嘴部的打开的向下移动)的移动,电子设备(例如,600)执行下文相对于方法700的元素712和714所讨论的步骤中的一个或多个步骤。在一些实施方案中,检测到的第一面部特征的移动具有方向分量和量值分量两者。在一些实施方案中,对头像特征的修改具有量值分量和方向分量两者。在一些实施方案中,头像特征的修改的方向分量基于头像特征对其作出反应的一个或多个物理特征(例如,用户面部的面部特征)的变化的方向分量。在一些实施方案中,头像特征的变化的方向分量与物理特征的变化的方向分量相同。例如,当物理特征(例如,颌部)向下移动时,对应的(作出反应的)头像特征(例如,头像颌部)向下移动。在一些实施方案中,头像特征的变化的方向分量相对于对应的物理特征(例如,头像特征对其检测到的变化作出反应的物理特征)的变化的方向分量成镜像关系。例如,当物理特征(例如,用户的眼睛(例如虹膜))向左移动时,作出反应的头像特征(例如,头像的眼睛(例如虹膜))向右移动。在一些实施方案中,针对沿垂直轴的移动,头像特征的变化的方向分量与对应的物理特征的变化的方向分量相同,并且针对沿水平轴的移动,头像特征的变化的方向分量与对应的物理特征的变化的方向分量成镜像关系,类似于在照镜子时看到的效果。在一些实施方案中,物理特征(例如,用户的虹膜或眉毛)的相对位置的变化处于根据物理特征的中性静止位置确定的方向上。在一些实施方案中,将用户虹膜的中性静止位置确定为相对于用户眼球周边的特定位置(例如,居中位置)。在一些实施方案中,头像特征的反应的方向与用户的物理特征的变化的相对方向相对应(例如,直接相对应或相反地相对应)。在一些实施方案中,物理特征的变化的相对方向基于物理特征从物理特征的中性静止位置开始的移动的方向来确定。在一些实施方案中,头像特征的反应的方向与物理特征的变化的相对方向直接相对应(例如,物理特征向上移动,则头像特征向上移动)。在一些实施方案中,头像特征的反应的方向与物理特征的变化的相对方向相反地相对应(例如,物理特征向上移动,则头像特征向下移动)。
在一些实施方案中,第一面部特征结构是用户(例如,用户610)的颌部(例如,用户颌部610-1)(例如,下颌);第一头像特征是头像颌部特征(例如,鲨鱼颌部605-1)(例如,头像下颌);第二头像特征是一个或多个头像眼睛(例如,鲨鱼眼睛605-2);并且第三头像特征是头像鼻部(例如,鲨鱼鼻部605-3)。
响应于检测到一个或多个面部特征的移动,并且根据确定检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)沿第一方向的移动,电子设备(例如,600)基于检测到的第一面部特征沿第一方向的移动(例如,基于该移动的量值)使第一头像特征(例如,鲨鱼颌部605-1)沿第一方向移动(712)(例如,第一头像特征(例如,头像颌部)的位置是基于检测到的第一面部特征(例如,用户的颌部)的移动来确定的)。基于检测到的第一面部特征沿第一方向的移动来沿第一方向移动第一头像特征向用户提供反馈,指示相同第一面部特征的进一步移动将导致设备沿第一方向进一步修改相应的第一头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,第一头像特征(例如,鲨鱼颌部605-1)的移动方向与检测到的第一面部特征(例如,用户颌部610-1)的移动方向相同(例如,向下)。在一些实施方案中,第一头像特征的移动在相同方向上具有移动量值(例如,移动量),该移动量值基于在第一面部特征沿所述第一方向移动时所述第一面部特征的移动量值而确定(例如,基于所述特征相对于可用于所述相应特征的运动范围的成比例的移动量)。在一些实施方案中,头像特征的变化的量值与用户的物理特征的变化的量值相对应。在一些实施方案中,物理特征的变化的量值是根据物理特征的可能运动范围来确定的,其中该量值表示物理特征在该物理特征的运动范围(例如,预测或建模运动范围)内的相对位置。在此类实施方案中,头像特征的反应的量值(例如,位置的改变)类似地是头像特征在头像特征的运动范围内的相对位置。在一些实施方案中,基于对物理特征变化的起始位置和结束位置的比较或测量(例如,距离)来确定变化的量值。在此类实施方案中,可通过将所测量的物理特征的变化应用于头像特征(例如,直接应用或者作为缩放值或调节值应用)来将物理特征(例如,第一面部特征)的变化转化为对第一头像特征的修改。
在一些实施方案中,基于检测到的第一面部特征(例如,用户颌部610-1)沿第一方向的移动,沿第一方向移动第一头像特征(例如,鲨鱼颌部605-1)包括:根据确定检测到的第一面部特征的移动小于或等于第一面部特征的第二阈值移动量(例如,检测到的用户的颌部的移动(例如,第一面部特征的位置的变化程度)小于阈值移动量(例如,小于用户嘴部的张开范围(例如,最大张开位置)的75%(例如,用户状态611-8),将第一头像特征沿第一方向(例如,沿向下方向)移动第一量(例如,第一移动量值),所述第一量基于检测到的第一面部特征的移动(例如,响应于用户的颌部的向下移动而向下移动头像下颌部分)(例如,头像状态612-8)来确定。在一些实施方案中,当第一面部特征(例如,用户的颌部)的移动在第一移动范围内(例如,小于用户的嘴部的最大张开位置的75%)时,第一头像特征对第一面部特征的移动作出反应(例如,镜像化第一面部特征的移动)。例如,当用户张开其嘴部(例如,用户下颌的向下移动)小于用户嘴部的最大张开位置的75%(例如,小于用户下颌的最大向下位置的75%)(例如,用户状态611-8)时,头像下颌部分在打开时沿与用户下颌相同的向下方向移动(例如,头像状态612-8)。
在一些实施方案中,基于检测到的第一面部特征(例如,用户颌部610-1)沿第一方向的移动,沿第一方向移动第一头像特征(例如,鲨鱼颌部605-1)还包括:根据确定检测到的第一面部特征的移动大于所述第一面部特征的第二阈值移动量:将第一头像特征沿第一方向移动大于所述第一移动量的第二移动量,以及显示当第一面部特征的移动小于第二阈值移动量时未显示的第一头像特征的第一子特征(例如,鲨鱼牙龈605-9)(例如,头像牙龈)(例如,在图6C中,鲨鱼牙龈605-9不显示在头像状态612-8中,而是显示在头像状态612-9中)(例如,当检测到的第一面部特征的移动大于阈值移动量时,头像牙龈显示在头像颌部上)。在一些实施方案中,当第一面部特征(例如,用户的颌部)的移动在第二移动范围内(例如,大于用户嘴部的最大张开位置的75%)(例如,用户状态611-9)时,第一头像特征对第一面部特征的移动作出反应(例如,镜像化第一面部特征的移动),并且头像(例如,鲨鱼头像605)被修改以在头像的颌部上引入牙龈或另外的牙齿。例如,当用户张开其嘴部超过用户嘴部的最大打开位置(例如,用户状态611-9)的75%时,头像颌部在打开时沿与用户下颌相同的向下方向移动,但是头像颌部被修改以显示头像的牙龈和/或另外的牙齿(例如,头像状态612-9)。在一些实施方案中,当用户的嘴部张开小于或等于阈值位置时,头像的嘴部具有第一张开范围,并且当用户的嘴部张开大于阈值位置时,头像的嘴部具有第二张开范围(大于第一张开范围)。在一些实施方案中,头像是鲨鱼,并且这种在头像鲨鱼的颌部上引入牙龈模拟了一种行为,其中鲨鱼的颌部张开(例如,攻击猎物),露出鲨鱼嘴部的另外的部分。
将第一头像特征沿第一方向移动第一量或所述第二量,所述第一量或所述第二量是基于检测到的第一面部特征的移动与所述第一面部特征的阈值移动量相比确定的,并且当检测到的第一面部特征的移动大于阈值移动量时,进一步显示第一头像特征的第一子特征,向用户提供反馈,指示第一面部特征的不同移动量将使得设备根据第一面部特征的移动量是高于还是低于阈值移动量而不同地修改第一头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
响应于检测到一个或多个面部特征的移动,并且根据确定检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)沿第一方向的移动,电子设备(例如,600)沿与第一方向不同(例如,相反)的第二方向并且基于检测到的第一面部特征沿第一方向的移动(例如,基于该移动的量值)(例如,基于检测到的第一面部特征(例如,用户的颌部)的移动来确定第二头像特征(例如,头像眼睛)的位置)移动(714)第二头像特征(例如,鲨鱼眼睛605-2)和第三头像特征(例如,鲨鱼鼻部605-3)。在不同于第一方向的第二方向上并且基于检测到的第一面部特征沿第一方向的移动,移动第二头像特征和第三头像特征向用户提供反馈,指示相同的第一面部特征的进一步移动将使得设备在不同于第一方向的第二方向上进一步修改相应的第二头像特征和第三头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括不对应于第二头像特征和第三头像特征的第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,第二头像特征(例如,头像眼睛)(例如,鲨鱼眼睛605-2)的移动方向与检测到的第一头像特征(例如,头像颌部)(例如,鲨鱼颌部605-1)的移动方向基本上相反,但沿相反方向具有移动量值(例如,移动量),该移动量值基于当第一面部特征沿第一方向移动时第一面部特征的移动量值来确定(例如,第三头像特征(例如,头像鼻部)的位置基于检测到的第一面部特征(例如,用户的颌部)的移动来确定)。在一些实施方案中,第三头像特征(例如,头像鼻部)(例如,鲨鱼鼻部605-3)的移动方向与检测到的第一头像特征(例如,头像颌部)的移动基本上相反,但沿相反方向具有移动量值(例如,移动量),该移动量值基于当第一面部特征沿第一方向移动时第一面部特征的移动量值而确定。在一些实施方案中,响应于检测到第一面部特征沿第一方向的移动,第二头像特征和第三头像特征两者的位置同时沿第二方向移动(例如,当用户的颌部沿向下方向移动时,头像眼睛和头像鼻部都沿向上方向移动)。
响应于检测到一个或多个面部特征的移动,并且根据确定(716)检测到的一个或多个面部特征的移动包括第二面部特征(例如,用户眼睛610-2)的移动(例如,在未检测到第一面部特征(例如,用户颌部610-1)的移动的情况下),电子设备(例如,600)基于第二面部特征的移动方向和移动量值中的至少一者移动(718)第二头像特征(例如,鲨鱼眼睛605-2)(例如,头像眼睛)。基于第二面部特征的移动方向和移动量值中的至少一者移动第二头像特征向用户提供反馈,指示其同一第二面部特征的进一步移动将使得设备基于第二面部特征的进一步移动的方向和量值中的至少一者而进一步修改相应第二头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第二面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,方法700还包括:响应于检测到一个或多个面部特征的移动并且根据确定检测到的一个或多个面部特征的移动包括第二面部特征(例如,用户眼睛610-2)的移动不超过第一面部特征(例如,用户颌部610-1)的第一阈值移动量(例如,未检测到第一面部特征的移动;例如,利用检测到的第一面部特征的标称移动量)(例如,参见图6B),电子设备(例如,600)基于第二面部特征的移动方向和移动量值中的至少一者来移动第二头像特征(例如,头像眼睛);并且放弃移动第一头像特征和第三头像特征(例如,如图6B中所示)。基于第二面部特征的移动方向和移动量值中的至少一者移动所述第二头像特征,不超过第一面部特征的第一阈值移动量,并且放弃第一头像特征和第三头像特征的移动向用户提供反馈,指示第二面部特征的隔离移动将使得设备修改第二头像特征,而不另外修改第一头像特征和第三头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第二面部特征(不超过第一面部特征的阈值移动量))变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,方法700还包括:响应于检测到一个或多个面部特征的移动并且根据确定检测到的一个或多个面部特征的移动包括第一面部特征的移动(例如,用户颌部610-1)(例如,沿第一方向),不超过第二面部特征(例如,用户眼睛610-2)和第三面部特征(例如,用户鼻部610-3)(例如,用户的鼻部)的第二阈值移动量(例如,肯定地确定第二面部特征和第三面部特征不移动),电子设备(例如,600)基于检测到的第一面部特征的移动(例如,在与第一面部特征的移动方向不同(例如,相反)的方向上并且基于检测到的第一面部特征的移动(例如,基于该移动的量值)来移动第二头像特征和第三头像特征)来移动第二头像特征(例如,鲨鱼眼睛605-2)和第三头像特征(例如,鲨鱼鼻部605-3)。基于检测到的第一面部特征的移动来移动第二头像特征和第三头像特征,不超过第二面部特征和第三面部特征的第二阈值移动量向用户提供反馈,指示第一面部特征的隔离移动将使得设备基于第一面部特征的移动而修改第二头像特征和第三头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征(不超过第二面部特征和第三面部特征的阈值移动量))变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,方法700还包括:响应于检测到一个或多个面部特征的移动并且根据确定检测到的一个或多个面部特征的移动包括第一面部特征和第二面部特征(例如,用户颌部610-1、用户眼睛610-2)两者的移动(例如,用户的颌部和用户的一个或多个眼睛的移动),电子设备(例如,600)基于检测到的第一面部特征的移动(例如,基于用户颌部的移动方向和/或移动量值)(例如,不基于第二面部特征的移动)来移动第一头像特征(例如,鲨鱼颌部605-1)(例如,头像颌部);并且基于检测到的第一面部特征和第二面部特征的移动(例如,基于用户眼睛的移动方向和/或移动量值以及基于用户颌部的移动方向和/或移动量值)来移动第二头像特征(例如,鲨鱼眼睛605-2)(例如,头像眼睛中的一个或多个)。基于检测到的第一面部特征的移动来移动第一头像特征并且基于检测到的第一面部特征和第二面部特征的移动来移动第二头像特征为所述用户提供了反馈,指示相同的第一面部特征和第二面部特征的进一步移动将使得设备基于第一面部特征的进一步移动而进一步修改相应的第一头像特征,并且基于第一面部特征和第二面部特征的进一步移动而进一步修改相应的第二头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征和第二面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,方法700还包括:响应于检测到一个或多个面部特征的移动,执行以下项目中的一个或多个。根据确定检测到的一个或多个面部特征的移动包括第一面部(例如,用户颌部610-1)特征移动第一量值(例如,第一移动量;例如,第一面部特征沿向下方向的移动量,诸如颌部基于嘴部从闭合位置张开到25%张开位置的向下移动),移动第二头像特征(例如,鲨鱼眼睛605-2)和第三头像特征(例如,鲨鱼鼻部605-3)达第一移动量(例如,第二头像特征和第三头像特征两者的相同移动量)(例如,与第一面部特征的第一移动量值的量值成比例(例如,缩放或直接)的第一移动量)。根据确定检测到的一个或多个面部特征的移动包括第一面部特征移动不同于第一量值的第二量值(例如,第二移动量;例如,第一面部特征沿向下方向的移动量,诸如颌部基于嘴部从闭合位置张开到半张开位置的向下移动),将第二头像特征和第三头像特征移动不同于第一移动量的第二移动量(例如,第二头像特征和第三头像特征两者的相同移动量)(例如,与第一面部特征的第二移动量值的量值成比例(例如,缩放或直接)的第二移动量)(例如,第二头像特征和第三头像特征的移动量值与用户颌部的移动量值成比例)。在一些实施方案中,当发生颌部移动而没有单独映射到第二头像特征和/或第三头像特征的面部特征的独立移动时,第二头像特征和第三头像特征的移动量值相同。
根据检测到的第一面部特征的移动是第一量值还是第二量值,将第二头像特征和第三头像特征移动第一移动量和第二移动量为用户提供反馈,指示第一面部特征不同量值的移动将使得设备以基于第一面部特征的不同移动量值确定的不同量而修改相应第二头像特征和第三头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括不对应于第二头像特征和第三头像特征的第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,方法700还包括:进一步根据确定检测到的一个或多个面部特征的移动包括第一面部特征(例如,用户颌部610-1)移动第一量值,使第一头像特征(例如,鲨鱼颌部605-1)移动第三移动量(例如,对应于(例如,等于)第一面部特征的移动量的移动量)(例如,与第一面部特征的第一移动量值成比例(例如,缩放或直接)的移动量);并且进一步根据确定检测到的一个或多个面部特征的移动包括第一面部特征移动第二量值,将第一头像特征移动不同于第三移动量的第四移动量(例如,对应于(例如,等于)第一面部特征的移动量的移动量)(例如,与第一面部特征的第二移动量值成比例(例如,缩放或直接)的移动量)。根据检测到的第一面部特征的移动是第一量值还是第二量值,将第一头像特征移动第三移动量还是第四移动量为用户提供了反馈,指示第一面部特征不同量值的移动将使设备以基于第一面部特征的不同移动量值确定的不同量来修改相应第一头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第一面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,电子设备(例如,600)检测面部在一个或多个相机(例如,602)的视场内的姿势(例如,位置和/或取向)的变化。响应于检测到所述面部的姿势变化,电子设备改变虚拟头像(例如,鲨鱼头像605)的外观。在一些实施方案中,改变虚拟头像的外观包括:根据确定面部的姿势变化包括面部的姿势变化的第一类型(例如,面部取向的变化;例如,用户摇晃或将其头部转动到侧面或点头或上下倾斜其头部)(例如,用户状态611-11或611-12),改变虚拟头像的外观包括使虚拟头像的第一部分(例如,鲨鱼头像的鲨鱼头部部分(例如,上头部部分605-10))(在一些实施方案中,第一部分任选地包括一个或多个鳍(例如,胸鳍605-6;背鳍605-7))相对于第二部分(鲨鱼头像(例如,605-8)的鲨鱼躯干部分)(例如,头像状态612-11或612-12)移动。当面部的姿势变化是姿势变化的第一类型时,使虚拟头像的第一部分相对于第二部分移动为用户提供了反馈,指示面部的姿势变化的不同类型将导致设备根据面部的姿势变化的类型而不同地修改虚拟头像的各个部分。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征变化(以及那些变化的量值和/或方向)类型形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,第二部分任选地包括虚拟头像(例如,鲨鱼头像605)的一个或多个鳍(例如,背鳍605-7、腹鳍605-6)。在一些实施方案中,第一部分相对于第二部分的移动在不相对于所显示的视图框架移动第二部分的情况下发生(例如,第一部分是上头部部分605-10,并且第二部分是鲨鱼躯干605-8)。也就是说,第一部分在所显示的视图框架内移动,而第二部分在所显示的视图框架内保持固定或基本上固定。在一些实施方案中,第一部分的移动是围绕轴的旋转移动,诸如,围绕y轴(例如,如所显示的垂直轴)的旋转。在一些实施方案中,虚拟头像是鲨鱼头像,并且头像的位置固定在鲨鱼的背鳍(例如,背鳍605-7)的位置处,并且第一部分相对于第二部分的移动包括使鲨鱼的头部部分(例如,上头部部分605-10)(例如,包括鲨鱼的眼睛(605-2)、鼻部(605-3)、颌部(605-1))向侧面(例如,向左或向右),沿向上方向或沿向下方向弯曲(例如,镜像化用户的头部的左转/右转移动或者用户的头部的上/下点头移动)。在一些实施方案中,该头像的位置不固定。也就是说,头像的第一部分(例如,鲨鱼的头部)仍然被配置为相对于第二部分(例如,鲨鱼的躯干部分)弯曲,但是鲨鱼的位置在所显示的视图框架中不固定。在一些实施方案中,头像不是固定的,并且头像主体不随着用户头部的移动而弯曲。
在一些实施方案中,虚拟头像(例如,鲨鱼头像605)还包括第四头像特征(例如,鲨鱼尾部605-4)(例如,头像尾部),该第四头像特征独立于检测到的一个或多个相机(例如,602)的视场中面部的姿势的变化而移动(例如,第四头像特征不响应于(例如,无响应于)检测到的一个或多个相机的视场中面部的姿势的任何变化而改变)。在一些实施方案中,电子设备(例如,600)显示相对于第一头像特征、第二头像特征和第三头像特征(例如,鲨鱼颌部605-1、鲨鱼眼睛605-2、鲨鱼鼻部605-3)具有相对位置(例如,定位成具有将第四头像特征放置在其他头像特征后面的模拟深度)的第四头像特征。在一些实施方案中,电子设备显示第四头像特征相对于第一头像特征、第二头像特征和第三头像特征的移动(例如,连续移动)(例如,头像尾部特征被显示为具有左右移动)。在一些实施方案中,在继续显示第四头像特征的移动时(例如,连续显示头像尾部特征的左右移动)(例如,显示头像尾部特征以一致的速度左右移动),电子设备基于第四头像特征相对于第一头像特征、第二头像特征和第三头像特征的相对位置改变第四头像特征的外观(例如,当头像尾部特征继续左右移动时,头像尾部特征的外观基于其相对于第一头像特征、第二头像特征和第三头像特征的相对位置改变)。基于第四头像特征相对于所述第一头像特征、第二头像特征和第三头像特征的相对位置改变所述第四头像特征的外观向用户提供反馈,指示第四头像特征相对于其他头像特征的相对位置将使得设备根据第四头像特征是否基于其相对于其他头像特征的位置可见来修改第四头像特征的外观。这通过提供虚拟头像和虚拟头像的各个部分的更真实外观来向用户提供改进的视觉反馈。提供改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且有效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。这还通过放弃生成和显示不应基于其在显示器上相对于其他渲染图像数据的相对位置而显示的特征来节省计算资源(从而减少功率使用并改善电池寿命)。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,基于第四头像特征相对于第一头像特征、第二头像特征和第三头像特征(例如,鲨鱼颌部605-1、鲨鱼眼睛605-2、鲨鱼鼻部605-3)的相对位置改变第四头像特征(例如,鲨鱼尾部605-4)的外观包括以下确定中的一个或多个。根据基于第四头像特征的相对位置确定所述第四头像特征的第一部分(例如,头像尾部特征的端部部分)定位在第一头像特征、第二头像特征以及第三头像特征后面,电子设备(例如,600)放弃显示第四头像特征的第一部分(例如,同时继续显示第四头像特征的第二部分(例如,头像尾部特征的基部部分);例如,当头像尾部特征的端部部分定位在另一个头像特征后面并且头像尾部特征的基部部分不定位在另一个头像特征后面时,不显示头像尾部的端部部分(例如,因为其隐藏在其他头像特征后面),但是显示头像尾部的基部部分)。根据基于第四头像特征的相对位置确定第四头像特征的第一部分不定位在第一头像特征、第二头像特征和第三头像特征中的一个或多个后面,电子设备显示第四头像的第一部分(例如,同时继续显示第四头像特征的第二部分;例如,当头像尾部特征的端部部分和头像尾部特征的基部部分都不定位在另一个头像特征后面时,显示头像尾部的端部部分和基部部分)。
在一些实施方案中,电子设备(例如,600)确定在一个或多个相机(例如,602)的视场内不再检测到面部(例如,面部跟踪已失败)(例如,因为面部不再在一个或多个相机的视场内,所以设备用于跟踪面部的面部特征被遮挡,或者设备以其他方式未能跟踪面部),并且响应于确定在一个或多个相机的视场内不再检测到面部,继续显示第四头像特征的移动,并且基于第四头像特征相对于第一头像特征、第二头像特征和第三头像特征的相对位置改变所述第四头像特征的外观。在一个或多个相机的视场内不再检测到面部之后,继续显示第四头像特征的移动,并且基于第四头像特征相对于第一头像特征、第二头像特征和第三头像特征的相对位置改变所述第四头像特征的外观,这样通过允许用户继续修改虚拟头像的过程(即使当面部跟踪失败时)来为用户提供对设备的更多控制。提供对设备的附加控制而不由于附加显示的控件使UI杂乱增强了设备的可操作性,并且使用户-设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。另外,这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征变化(以及那些变化的量值和/或方向)形式的输入,并且通过虚拟头像的已编程行为特性以虚拟头像的外观形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入),即使当输入(例如,面部特征的变化)的检测失败。这通过提供虚拟头像和虚拟头像的各个部分的更真实外观来向用户提供改进的视觉反馈,该虚拟头像和虚拟头像的各个部分根据虚拟头像的行为特性继续移动,即使在面部跟踪失败时也是如此。改进的视觉反馈增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,电子设备(例如,600)经由显示装置(例如,601)显示经由一个或多个相机(例如,602)捕获的图像数据的表示,其中图像数据的表示包括主体(例如,632)的表示(例如,主体的至少一部分的表示),并且经由显示装置显示虚拟头像(鲨鱼头像605)的一个或多个头像特征(例如,605-1、605-2、605-3、605-5、605-6、605-7、605-8、605-9、605-10、605-11)来代替(例如,遮挡或显示在其顶部)主体(例如,图6F)的表示的至少一部分(例如,其中虚拟头像的至少一部分部分或完全覆盖(例如,遮挡)主体的至少一部分),其中虚拟头像的一个或多个头像特征不包括第四头像特征(例如,鲨鱼尾部605-4)(例如,未显示鲨鱼尾部)。显示虚拟头像的一个或多个头像特征来代替主体的表示的至少一部分,其中虚拟头像的一个或多个头像特征不包括所述第四头像特征,通过基于虚拟头像和主体的表示的模拟深度和相对位置仅显示所述虚拟头像的应当对用户可见的部分,使得所述用户-设备界面更有效。这通过放弃生成和显示不应基于其在显示器上相对于其他渲染图像数据的模拟深度和相对位置而显示的特征来节省计算资源(从而减少功率使用并改善电池寿命)。这还提供了虚拟头像的更真实显示,这改善了相对于所显示的主体表示而显示的虚拟头像的视觉反馈。为用户提供改进的视觉反馈增强了设备的可操作性,并且使用户设备界面更有效(例如,通过帮助用户提供合适的输入并减少操作设备/与设备进行交互时的用户错误),这又通过使用户能够更快速且有效地使用设备而减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,图像数据对应于深度数据(例如,图像数据包括由可见光相机和深度相机捕获的数据)(例如,包括所捕获的图像或视频的深度方面的图像数据),该深度数据包括主体的深度数据(关于主体的一个或多个部分相对于该主体的其他部分和/或一个或多个相机的视场内的其他对象的相对深度定位的信息)。在一些实施方案中,图像数据包括至少两个分量:编码所捕获图像的视觉特性的RGB分量,以及编码关于所捕获图像内的各元素的相对间隔关系的信息的深度数据(例如,深度数据编码用户在前景中,并且背景元素如位于用户后面的树在背景中)。在一些实施方案中,深度数据为深度图。在一些实施方案中,深度图(例如,深度图图像)包含与场景中的对象距视点(例如,相机)的距离相关的信息(例如,值)。在深度图的一个实施方案中,每个深度像素定义视点的Z轴中其对应的二维像素所在的位置。在一些示例中,深度图由像素组成,其中每个像素由值(例如,0到255)定义。例如,“0”值表示位于“三维”场景中距离视点(例如,相机)最远处的像素,“255”值表示位于“三维”场景中距离视点最近处的像素。在其他示例中,深度图表示场景中的对象与视点的平面之间的距离。在一些实施方案中,深度图包括关于深度相机的视野中感兴趣对象的各种特征的相对深度的信息(例如,用户面部的眼睛、鼻部、嘴部、耳朵的相对深度)。在一些实施方案中,深度图包括使设备能够确定感兴趣对象在z方向上的轮廓的信息。在一些实施方案中,深度数据具有第一深度分量(例如,编码对象在相机显示区域中的空间位置的深度数据的第一部分;形成深度图的离散部分的多个深度像素,诸如前景或特定对象),所述第一深度分量包括相机显示区域(例如,620)中的主体(例如,632)的表示。在一些实施方案中,深度数据具有第二深度分量(例如,编码背景在相机显示区域中的空间位置的深度数据的第二部分;形成深度图的离散部分的多个深度像素,诸如背景),所述第二深度分量与所述第一深度分量分开,所述第二深度方面包括相机显示区域(例如,620)中的背景(例如,636)的表示。在一些实施方案中,第一深度方面和第二深度方面用于确定相机显示区域中的对象与所述相机显示区域中的背景之间的空间关系。此空间关系可用于将对象与背景区分开来。这种区分可被利用以例如应用不同的视觉效果(例如,具有深度分量的视觉效果(例如,虚拟头像))至主体和背景。在一些实施方案中,将图像数据的不对应于第一深度分量的所有区域(例如,图像数据的超出深度相机范围的区域)从深度图中分割出去(例如,排除)。在一些实施方案中,深度数据为深度图或深度遮罩的形式。
在一些实施方案中,虚拟头像(例如,605)相对于主体的表示被放置在模拟深度处(例如,在所选择的位置处,使得所述虚拟头像在所述用户界面的深度维度上稍微显示在所述主体(例如,632)的所述表示的前面),如基于所述主体(例如,用户的所显示的头部或面部部分被替换为对应于所选择的头像选项的虚拟头像的头部(或被其覆盖(例如,不透明、透明、半透明)))(例如,鲨鱼头像605)的深度数据所确定。在一些实施方案中,在主体的表示上显示所选择的头像选项的表示包括使用用电子设备(例如,600)的一个或多个深度相机(例如,602)获得的深度信息。
在一些实施方案中,根据基于深度数据确定虚拟头像的第一部分(例如,鲨鱼头像的尾部特征;605-4)不满足主体的第一部分(例如,主体的头部)的一组基于深度的显示标准(例如,因为主体的深度数据指示虚拟头像的第一部分具有在主体的对应第一部分后面的模拟深度),则设备(例如,600)从虚拟头像(例如,鲨鱼头像605)的表示排除虚拟头像的第一部分的表示(例如,鲨鱼尾部因为其定位在主体头部后面而不显示)(例如,鲨鱼尾部605-4未在图6F中示出,因为其定位在代替主体头部显示的鲨鱼605后面)。在一些实施方案中,电子设备还在应已经由所述虚拟头像的第一部分占据的区域中显示所述主体的表示的一部分(例如,主体的肩部或颈部的表示)(例如,放弃将所述虚拟头像的第一部分的表示包括作为虚拟头像的表示的组成部分,因为所述部分应被所述主体遮挡)。当虚拟头像的第一部分由于其被对象的一部分遮蔽而不满足基于深度的显示标准时,所述虚拟头像的所述第一部分被从所显示的虚拟头像的表示中排除。例如,当鲨鱼头像的尾部定位在主体肩部或颈部的表示后面时,不显示该尾部的全部或一部分。
在一些实施方案中,虚拟头像是包括尾部特征(例如,鲨鱼尾部605-4)的鲨鱼(例如,鲨鱼头像605)。在一些实施方案中,通过显示头像的第一部分(例如,鲨鱼头部)(例如,上头部部分605-10)并且根据头像的第二部分的模拟深度基于主体的深度数据是在主体(例如,主体的头部、颈部或肩部)的表示的一部分的前面还是后面来有条件地显示头像的第二部分(例如,鲨鱼尾部特征)(例如,鲨鱼尾部605-4),电子设备(例如,600)显示虚拟头像(例如,鲨鱼头像605)的表示。例如,当鲨鱼头像的尾部特征具有在主体(例如,主体的头部、颈部或肩部)的表示深度后面的模拟深度时,并且当主体尾部特征定位在主体的表示后面时(例如,主体的头部、颈部或肩部(例如,从用户查看主体和虚拟头像的表示的角度)(或在代替主体的表示所显示的头像(例如,鲨鱼头部)后面),电子设备从所显示的鲨鱼头像中排除头像尾部特征的全部或一部分(例如,取决于头像尾部特征的相应部分是否定位在主体的表示(或代替对象的表示所显示的头像鲨鱼)后面),使得主体(或例如,鲨鱼头部)的表示定位在头像尾部的部分与查看主体的表示的用户之间)。通过确定头像尾部特征相对于主体的表示(或头像的其他显示部分,诸如鲨鱼头像的头部)的相对深度和位置,电子设备可选择性地在主体的表示上显示头像的应该对查看头像的用户可见的部分(例如,诸如鲨鱼尾部的部分),同时基于尾部特征相对于主体或头像的表示的位置和深度来选择性地排除应当从视图中隐藏的头像的部分(例如,诸如当鲨鱼尾部定位在鲨鱼头部后面时,该鲨鱼头部显示在主体头部的表示上方或代替主体头部的表示)。
在一些实施方案中,根据确定检测到的一个或多个面部特征的移动包括第四面部特征(例如,用户脸颊610-4)(例如,用户脸颊中的一个或多个)从第一位置(例如,非扩张或松弛位置)到第二位置(例如,扩张或“鼓出”位置)时,电子设备(例如,600)基于第四面部特征在从第一位置移动到第二位置时的位移量值来将第五头像特征(例如,鲨鱼鳃605-5)(例如,当虚拟头像是鱼或鲨鱼时的鳃)从初始位置(例如,非扩张或松弛位置(在一些实施方案中,头像特征的初始位置是未区分的位置))移动到修改位置(例如,扩张位置,在所述扩张位置,所述鲨鱼的鳃从所述鲨鱼的侧面延伸)。基于第四面部特征在从第一位置移动到第二位置时的位移量值将第五头像特征从初始位置移动至修改位置向用户提供反馈,指示第四面部特征以不同量值的位移将使得设备将相应的第五头像特征修改至基于第四面部特征的位移量值确定的不同位置。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第四面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
在一些实施方案中,根据确定检测到的一个或多个面部特征的移动包括第五面部特征(例如,用户的眉毛610-5中的一个或多个)的移动,电子设备(例如,600)基于第五面部特征的移动方向和移动量值中的至少一者移动第六头像特征(例如,胸鳍605-6)(例如,当虚拟头像是鱼或鲨鱼时的鳍)。在一些实施方案中,第六头像特征在解剖学上不对应于第五面部特征(例如,其在解剖学上区别于或在解剖学上对应于不同的物理特征)(例如,第五面部特征是一个或多个用户眉毛,并且第六头像特征是水生头像动物(诸如鲨鱼或鱼)的一个或多个鳍)。在一些实施方案中,第五面部特征的移动包括面部特征的移动量值和/或移动方向(例如,在向上或向下方向上,诸如当用户抬起或降低其眉毛时)。在一些实施方案中,头像鳍在头像的身体上沿向上/向下方向移动(例如,滑动、卷曲、倾斜),并且移动的量基于用户的眉毛沿向上/向下方向的移动量来确定。基于第五面部特征的移动方向和移动量值中的至少一者移动第六头像特征为用户提供反馈,指示第五面部特征以不同量值和/或方向进一步移动将使得设备基于第五面部特征的不同移动量值和/或移动方向进一步修改相应第六头像特征。这提供了用于在电子设备的显示器上操作虚拟头像的控制方案,其中该系统检测并处理用户面部特征(包括第五面部特征)变化(以及那些变化的量值和/或方向)形式的输入,并且通过迭代反馈循环以虚拟头像的外观的形式提供期望的输出,同时消除对用户界面的手动处理的需要(例如,在显示器上提供触摸输入)。这向用户提供了关于如何操纵显示器以使用面部移动来控制虚拟头像的改进的视觉反馈。这增强了设备的可操作性,并且使用户-设备界面更高效(例如,通过帮助用户提供适当的输入并减少操作设备/与设备交互时的用户错误),从而通过使用户能够更快速且高效地使用设备进一步减少了电力使用并且延长了设备的电池寿命。另外,该控制方案可能需要比使用不同动画控制方案(例如,需要操纵动画序列的每个帧的单独控制点的控制方案)的情况更少的输入来生成或控制虚拟头像的动画。此外,这种类型的动画可在例如会话诸如文本会话或视频会话期间实时完成,而对头像的手动动画将必须在会话开始之前或结束之后完成。
出于解释的目的,前述描述是通过参考具体实施方案来进行描述的。然而,上面的例示性论述并非旨在是穷尽的或将本发明限制为所公开的精确形式。根据以上教导内容,很多修改形式和变型形式都是可能的。选择并描述这些实施方案是为了最好地解释这些技术的原理及其实际应用程序。本领域的其他技术人员由此能够最好地利用这些技术以及具有适合于所预期的特定用途的各种修改的各种实施方案。
尽管参考附图对本公开以及示例进行了全面的描述,但应当注意,各种变化和修改对于本领域内的技术人员而言将变得显而易见。应当理解,此类变化和修改被认为被包括在由权利要求书所限定的本公开和示例的范围内。
如上所述,本技术的一个方面在于收集和使用得自各种来源的数据以与其他用户共享。本公开预期,在一些实例中,这些所采集的数据可包括唯一地识别或可用于联系或定位特定人员的个人信息数据。此类个人信息数据可以包括人口统计数据、基于位置的数据、电话号码、电子邮件地址、推特ID、家庭地址、与用户的健康或健身水平有关的数据或记录(例如,生命体征测量、药物信息、锻炼信息)、出生日期或任何其他识别或个人信息。
本公开认识到在本发明技术中使用此类个人信息数据可用于使用户受益。例如,个人信息数据可用于更好地表示会话中的用户。此外,本公开还预期个人信息数据有益于用户的其他用途。例如,健康和健身数据可用于向用户的总体健康状况提供见解,或者可用作使用技术来追求健康目标的个人的积极反馈。
本公开设想了负责采集、分析、公开、传输、存储或其他使用此类个人信息数据的实体将遵守既定的隐私政策和/或隐私实践。具体地,此类实体应当实行并坚持使用被公认为满足或超出对维护个人信息数据的隐私性和安全性的行业或政府要求的隐私政策和实践。此类政策应该能被用户方便地访问,并应随着数据的采集和/或使用变化而被更新。来自用户的个人信息应当被收集用于实体的合法且合理的用途,并且不在这些合法使用之外共享或出售。此外,应在收到用户知情同意后进行此类采集/共享。此外,此类实体应考虑采取任何必要步骤,保卫和保障对此类个人信息数据的访问,并确保有权访问个人信息数据的其他人遵守其隐私政策和流程。另外,这种实体可使其本身经受第三方评估以证明其遵守广泛接受的隐私政策和实践。此外,应当调整政策和实践,以便采集和/或访问的特定类型的个人信息数据,并适用于包括管辖范围的具体考虑的适用法律和标准。例如,在美国,对某些健康数据的收集或获取可能受联邦和/或州法律的管辖,诸如健康保险流通和责任法案(HIPAA);而其他国家的健康数据可能受到其他法规和政策的约束并应相应处理。因此,在每个国家应为不同的个人数据类型保持不同的隐私实践。
不管前述情况如何,本公开还设想用户选择性地阻止使用或访问个人信息数据的实施方案。即本公开预期可提供硬件元件和/或软件元件,以防止或阻止对此类个人信息数据的访问。例如,就发送头像而言,本发明的技术可被配置为在注册服务期间或者其后的任何时间,允许用户选择“加入”或“退出”参与对个人信息数据的收集。除了提供“选择加入”和“选择退出”选项外,本公开设想提供与访问或使用个人信息相关的通知。例如,可在下载应用时向用户通知其个人信息数据将被访问,然后就在个人信息数据被应用访问之前再次提醒用户。
再者,本公开的目的是应管理和处理个人信息数据以最小化无意或未经授权访问或使用的风险。一旦不再需要数据,通过限制数据收集和删除数据可最小化风险。此外,并且当适用时,包括在某些健康相关应用程序中,数据去标识可用于保护用户的隐私。可在适当时通过移除特定标识符(例如,出生日期等)、控制所存储数据的量或特异性(例如,在城市级别而不是在地址级别收集位置数据)、控制数据如何被存储(例如,在用户之间聚合数据)、和/或其他方法来促进去标识。
因此,尽管本公开广泛地覆盖了使用个人信息数据来实现一个或多个各种所公开的实施方案,但本公开还设想各种实施方案也可在无需访问此类个人信息数据的情况下被实现。即,本发明技术的各种实施方案不会由于缺少此类个人信息数据的全部或一部分而无法正常进行。

Claims (22)

1.一种方法,包括:
在具有一个或多个相机和显示装置的电子设备处:
经由所述显示装置显示具有多个头像特征的虚拟头像,所述多个头像特征响应于检测到所述一个或多个相机的视场中的面部的姿势的变化而改变外观,所述多个头像特征包括:
第一头像特征;
不同于所述第一头像特征的第二头像特征;以及
不同于所述第一头像特征和所述第二头像特征的第三头像特征;
当在所述一个或多个相机的所述视场中检测到所述面部时,检测所述面部的一个或多个面部特征的移动,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及
响应于检测到所述一个或多个面部特征的所述移动:
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿第一方向的移动:
基于检测到的所述第一面部特征沿所述第一方向的所述移动,沿所述第一方向移动所述第一头像特征;以及
沿不同于所述第一方向的第二方向并且基于检测到的所述第一面部特征沿所述第一方向的所述移动来移动所述第二头像特征和所述第三头像特征;以及
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第二面部特征的移动:
基于所述第二面部特征的移动方向和移动量值中的至少一者移动所述第二头像特征。
2.根据权利要求1所述的方法,还包括:
响应于检测到所述一个或多个面部特征的所述移动并且根据确定检测到的所述一个或多个面部特征的所述移动包括所述第二面部特征的移动不超过所述第一面部特征的第一阈值移动量:
基于所述第二面部特征的所述移动方向和所述移动量值中的至少一者移动所述第二头像特征;以及
放弃移动所述第一头像特征和所述第三头像特征。
3.根据权利要求1至2中任一项所述的方法,还包括:
响应于检测到所述一个或多个面部特征的所述移动并且根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征的移动不超过所述第二面部特征和第三面部特征的第二阈值移动量:
基于检测到的所述第一面部特征的所述移动来移动所述第二头像特征和所述第三头像特征。
4.根据权利要求1至3中任一项所述的方法,还包括:
响应于检测到所述一个或多个面部特征的所述移动并且根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征和所述第二面部特征两者的移动:
基于检测到的所述第一面部特征的所述移动来移动所述第一头像特征;以及
基于检测到的所述第一面部特征和所述第二面部特征的所述移动来移动所述第二头像特征。
5.根据权利要求1至4中任一项所述的方法,其中基于检测到的所述第一面部特征沿所述第一方向的所述移动,沿所述第一方向移动所述第一头像特征包括:
根据确定检测到的所述第一面部特征的所述移动小于或等于所述第一面部特征的第二阈值移动量,将所述第一头像特征沿所述第一方向移动基于检测到的所述第一面部特征的所述移动确定的第一量;以及
根据确定检测到的所述第一面部特征的所述移动大于所述第一面部特征的所述第二阈值移动量:
沿所述第一方向将所述第一头像特征移动大于所述第一移动量的第二移动量,以及
显示所述第一头像特征的第一子特征,所述第一子特征在所述第一面部特征的所述移动小于所述第二阈值移动量时未被显示。
6.根据权利要求1至5中任一项所述的方法,其中:
所述第一面部特征是所述用户的颌部;
所述第一头像特征是头像颌部特征;
所述第二头像特征是一个或多个头像眼睛;并且
所述第三头像特征是头像鼻部。
7.根据权利要求1至6中任一项所述的方法,还包括:
响应于检测到所述一个或多个面部特征的所述移动并且根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿第三方向的移动:
沿不同于所述第三方向的第四方向并且基于检测到的所述第一面部特征沿所述第三方向的所述移动来移动所述第二头像特征和所述第三头像特征。
8.根据权利要求7所述的方法,进一步根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿所述第三方向的移动:
基于检测到的所述第一面部特征沿所述第三方向的所述移动,沿所述第三方向移动所述第一头像特征。
9.根据权利要求1至8中任一项所述的方法,还包括:
响应于检测到所述一个或多个面部特征的所述移动:
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征移动第一量值,将所述第二头像特征和所述第三头像特征移动第一移动量;以及
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征移动不同于所述第一量值的第二量值,将所述第二头像特征和所述第三头像特征移动不同于所述第一移动量的第二移动量。
10.根据权利要求9所述的方法,还包括:
进一步根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征移动所述第一量值,将所述第一头像特征移动第三移动量;以及
进一步根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征移动所述第二量值,将所述第一头像特征移动不同于所述第三移动量的第四移动量。
11.根据权利要求1至10中任一项所述的方法,还包括:
检测所述一个或多个相机的所述视场内的所述面部的姿势的变化;以及
响应于检测到所述面部的姿势的所述变化,改变所述虚拟头像的外观,包括:
根据确定所述面部的姿势的所述变化包括所述面部的姿势的第一类型变化,改变所述虚拟头像的所述外观包括相对于所述虚拟头像的第二部分移动所述虚拟头像的第一部分。
12.根据权利要求1至11中任一项所述的方法,其中所述虚拟头像还包括第四头像特征,所述第四头像特征独立于所述一个或多个相机的所述视场中的所述面部的姿势的检测到的所述变化而移动,所述方法还包括:
显示具有相对于所述第一头像特征、所述第二头像特征和所述第三头像特征的相对位置的所述第四头像特征;
显示所述第四头像特征相对于所述第一头像特征、所述第二头像特征和所述第三头像特征的移动;以及
在继续显示所述第四头像特征的所述移动时,基于所述第四头像特征相对于所述第一头像特征、所述第二头像特征和所述第三头像特征的所述相对位置改变所述第四头像特征的外观。
13.根据权利要求12所述的方法,还包括:
确定在所述一个或多个相机的所述视场内不再检测到所述面部;以及
响应于确定在所述一个或多个相机的所述视场内不再检测到所述面部:
继续显示所述第四头像特征的所述移动,以及
基于所述第四头像特征相对于所述第一头像特征、所述第二头像特征和所述第三头像特征的所述相对位置改变所述第四头像特征的所述外观。
14.根据权利要求12所述的方法,还包括:
经由所述显示装置显示经由所述一个或多个相机捕获的图像数据的表示,其中图像数据的所述表示包括主体的表示;以及
经由所述显示装置显示所述虚拟头像的一个或多个头像特征来代替所述主体的所述表示的至少一部分,其中所述虚拟头像的所述一个或多个头像特征不包括所述第四头像特征。
15.根据权利要求1至14中任一项所述的方法,还包括:
根据确定检测到的所述一个或多个面部特征的所述移动包括第四面部特征从第一位置到第二位置的移动,基于当从所述第一位置移动到所述第二位置时所述第四面部特征的位移量值将第五头像特征从初始位置移动到修改位置。
16.根据权利要求1至15中任一项所述的方法,还包括:
根据确定检测到的所述一个或多个面部特征的所述移动包括第五面部特征的移动,基于所述第五面部特征的移动方向和移动量值中的至少一者来移动第六头像特征。
17.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由具有一个或多个相机和显示装置的电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至16中任一项所述的方法的指令。
18.一种电子设备,包括:
显示装置;
一个或多个相机;
一个或多个处理器;和
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行根据权利要求1至16中任一项所述的方法的指令。
19.一种电子设备,包括:
显示装置;
一个或多个相机;和
用于执行根据权利要求1至16中任一项所述的方法的装置。
20.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储被配置为由具有显示装置和一个或多个相机的电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行以下操作的指令:
经由所述显示装置显示具有多个头像特征的虚拟头像,所述多个头像特征响应于检测到所述一个或多个相机的视场中的面部的姿势的变化而改变外观,所述多个头像特征包括:
第一头像特征;
不同于所述第一头像特征的第二头像特征;以及
不同于所述第一头像特征和所述第二头像特征的第三头像特征;
当在所述一个或多个相机的所述视场中检测到所述面部时,检测所述面部的一个或多个面部特征的移动,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及
响应于检测到所述一个或多个面部特征的所述移动:
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿第一方向的移动:
基于检测到的所述第一面部特征沿所述第一方向的所述移动,沿所述第一方向移动所述第一头像特征;以及
沿不同于所述第一方向的第二方向并且基于检测到的所述第一面部特征沿所述第一方向的所述移动来移动所述第二头像特征和所述第三头像特征;以及
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第二面部特征的移动:
基于所述第二面部特征的移动方向和移动量值中的至少一者移动所述第二头像特征。
21.一种电子设备,包括:
显示装置;
一个或多个相机;
一个或多个处理器;和
存储器,所述存储器存储被配置为由所述一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行以下操作的指令:
经由所述显示装置显示具有多个头像特征的虚拟头像,所述多个头像特征响应于检测到所述一个或多个相机的视场中的面部的姿势的变化而改变外观,所述多个头像特征包括:
第一头像特征;
不同于所述第一头像特征的第二头像特征;以及
不同于所述第一头像特征和所述第二头像特征的第三头像特征;
当在所述一个或多个相机的所述视场中检测到所述面部时,检测所述面部的一个或多个面部特征的移动,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及
响应于检测到所述一个或多个面部特征的所述移动:
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿第一方向的移动:
基于检测到的所述第一面部特征沿所述第一方向的所述移动,沿所述第一方向移动所述第一头像特征;以及
沿不同于所述第一方向的第二方向并且基于检测到的所述第一面部特征沿所述第一方向的所述移动来移动所述第二头像特征和所述第三头像特征;以及
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第二面部特征的移动:
基于所述第二面部特征的移动方向和移动量值中的至少一者移动所述第二头像特征。
22.一种电子设备,包括:
显示装置;
一个或多个相机;
用于经由所述显示装置显示具有多个头像特征的虚拟头像的装置,所述多个头像特征响应于检测到所述一个或多个相机的视场中的面部的姿势的变化而改变外观,所述多个头像特征包括:
第一头像特征;
不同于所述第一头像特征的第二头像特征;以及
不同于所述第一头像特征和所述第二头像特征的第三头像特征;
用于当在所述一个或多个相机的所述视场中检测到所述面部时检测面部的一个或多个面部特征的移动的装置,所述面部包括多个检测到的面部特征,所述多个检测到的面部特征包括第一面部特征和不同于所述第一面部特征的第二面部特征;以及
用于响应于检测到所述一个或多个面部特征的所述移动而执行以下操作的装置:
根据确定检测到的所述一个或多个面部特征的所述移动包括所述第一面部特征沿第一方向的移动:
基于检测到的所述第一面部特征沿所述第一方向的所述移动,沿所述第一方向移动所述第一头像特征;以及
沿不同于所述第一方向的第二方向并且基于检测到的所述第一面部特征沿所述第一方向的所述移动来移动所述第二头像特征和所述第三头像特征;以及
用于根据确定检测到的所述一个或多个面部特征的所述移动包括所述第二面部特征的移动而执行以下操作的装置:
基于所述第二面部特征的移动方向和移动量值中的至少一者移动所述第二头像特征。
CN202080009772.5A 2019-01-18 2020-01-17 基于面部特征移动的虚拟头像动画 Pending CN113330488A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962794496P 2019-01-18 2019-01-18
US62/794,496 2019-01-18
US16/663,062 US11107261B2 (en) 2019-01-18 2019-10-24 Virtual avatar animation based on facial feature movement
US16/663,062 2019-10-24
PCT/US2020/014176 WO2020150659A1 (en) 2019-01-18 2020-01-17 Virtual avatar animation based on facial feature movement

Publications (1)

Publication Number Publication Date
CN113330488A true CN113330488A (zh) 2021-08-31

Family

ID=71610065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080009772.5A Pending CN113330488A (zh) 2019-01-18 2020-01-17 基于面部特征移动的虚拟头像动画

Country Status (4)

Country Link
US (2) US11107261B2 (zh)
EP (1) EP3912137A1 (zh)
CN (1) CN113330488A (zh)
WO (1) WO2020150659A1 (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9898187B2 (en) 2013-06-09 2018-02-20 Apple Inc. Managing real-time handwriting recognition
DK179329B1 (en) * 2016-06-12 2018-05-07 Apple Inc Handwriting keyboard for monitors
KR20240116836A (ko) 2017-05-16 2024-07-30 애플 인크. 이모지 레코딩 및 전송
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
USD900925S1 (en) * 2019-02-01 2020-11-03 Apple Inc. Type font and electronic device with graphical user interface
USD900871S1 (en) * 2019-02-04 2020-11-03 Apple Inc. Electronic device with animated graphical user interface
USD914762S1 (en) * 2019-03-27 2021-03-30 Mi Hee Lee Display screen or portion thereof with icon
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
JP7202981B2 (ja) * 2019-06-28 2023-01-12 グリー株式会社 動画配信システム、プログラム、及び情報処理方法
US20210056391A1 (en) * 2019-08-20 2021-02-25 Mind Machine Learning, Inc. Systems and Methods for Simulating Sense Data and Creating Perceptions
USD914763S1 (en) * 2019-09-17 2021-03-30 Mi Hee Lee Display screen or portion thereof with icon
US11409368B2 (en) * 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
JP7442091B2 (ja) * 2020-04-30 2024-03-04 グリー株式会社 動画配信装置、動画配信方法及び動画配信プログラム
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
DK202070624A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
USD998637S1 (en) * 2021-03-16 2023-09-12 Snap Inc. Display screen or portion thereof with a graphical user interface
US11644899B2 (en) 2021-04-22 2023-05-09 Coapt Llc Biometric enabled virtual reality systems and methods for detecting user intentions and modulating virtual avatar control based on the user intentions for creation of virtual avatars or objects in holographic space, two-dimensional (2D) virtual space, or three-dimensional (3D) virtual space
US11775066B2 (en) 2021-04-22 2023-10-03 Coapt Llc Biometric enabled virtual reality systems and methods for detecting user intentions and manipulating virtual avatar control based on user intentions for providing kinematic awareness in holographic space, two-dimensional (2D), or three-dimensional (3D) virtual space
WO2022245928A1 (en) 2021-05-21 2022-11-24 Apple Inc. Avatar sticker editor user interfaces
US11714536B2 (en) * 2021-05-21 2023-08-01 Apple Inc. Avatar sticker editor user interfaces
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11980807B2 (en) * 2021-09-16 2024-05-14 Sony Interactive Entertainment Inc. Adaptive rendering of game to capabilities of device
US12033264B2 (en) 2021-09-20 2024-07-09 Idoru, Inc. Systems and methods for authoring and managing extended reality (XR) avatars
US20240096033A1 (en) * 2021-10-11 2024-03-21 Meta Platforms Technologies, Llc Technology for creating, replicating and/or controlling avatars in extended reality
USD996454S1 (en) * 2021-11-22 2023-08-22 Snap Inc. Display screen or portion thereof with a graphical user interface
US20230245365A1 (en) * 2022-02-01 2023-08-03 Meta Platforms Technologies, Llc Volumetric avatars from a phone scan
US20230379571A1 (en) * 2022-05-23 2023-11-23 Nathan Kenneth Boyd Combining content in a preview state
WO2023235217A1 (en) * 2022-06-03 2023-12-07 Universal City Studios Llc Smoothing server for processing user interactions to control an interactive asset

Family Cites Families (440)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847819A (en) 1988-04-07 1989-07-11 Hong Kuo Hui Universal clock having means for indicating zonal time in other global time zones
DE3832514C1 (zh) 1988-09-24 1989-11-02 Iwc International Watch Co. Ag, Schaffhausen, Ch
CH684619B5 (fr) 1992-07-17 1995-05-15 Longines Montres Comp D Pièce d'horlogerie à affichage universel de l'heure.
JPH099072A (ja) 1995-06-26 1997-01-10 Aibitsukusu Kk 情報通信システム
JP2918499B2 (ja) 1996-09-17 1999-07-12 株式会社エイ・ティ・アール人間情報通信研究所 顔画像情報変換方法および顔画像情報変換装置
US6621524B1 (en) 1997-01-10 2003-09-16 Casio Computer Co., Ltd. Image pickup apparatus and method for processing images obtained by means of same
US5982710A (en) 1997-03-14 1999-11-09 Rawat; Prem P. Method and apparatus for providing time using cartesian coordinates
US5995119A (en) 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
IL137478A (en) 1998-01-26 2005-11-20 Westerman Wayne Method and apparatus for integrating manual input
US6466213B2 (en) 1998-02-13 2002-10-15 Xerox Corporation Method and apparatus for creating personal autonomous avatars
US6173402B1 (en) 1998-03-04 2001-01-09 International Business Machines Corporation Technique for localizing keyphrase-based data encryption and decryption
CA2327304A1 (en) 1998-04-13 1999-10-21 Johannes Bernhard Steffens Wavelet-based facial motion capture for avatar animation
JP4250287B2 (ja) 1999-01-07 2009-04-08 キヤノン株式会社 シリカメソ構造体の製造方法
JP2001092783A (ja) 1999-09-27 2001-04-06 Hitachi Software Eng Co Ltd 個人認証方法およびシステム、記録媒体
US7369130B2 (en) 1999-10-29 2008-05-06 Hitachi Kokusai Electric Inc. Method and apparatus for editing image data, and computer program product of editing image data
KR20010056965A (ko) 1999-12-17 2001-07-04 박희완 부분 이미지 합성에 의한 인물 캐릭터 생성 방법
US20010047365A1 (en) 2000-04-19 2001-11-29 Hiawatha Island Software Co, Inc. System and method of packaging and unpackaging files into a markup language record for network search and archive services
US9064344B2 (en) 2009-03-01 2015-06-23 Facecake Technologies, Inc. Image transformation systems and methods
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US8234218B2 (en) 2000-10-10 2012-07-31 AddnClick, Inc Method of inserting/overlaying markers, data packets and objects relative to viewable content and enabling live social networking, N-dimensional virtual environments and/or other value derivable from the content
US20020072993A1 (en) 2000-11-03 2002-06-13 Sandus James A. Method and system of an integrated business topography and virtual 3D network portal
KR100377936B1 (ko) 2000-12-16 2003-03-29 삼성전자주식회사 이동통신 단말기의 감정 아이콘 입력방법
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6930718B2 (en) 2001-07-17 2005-08-16 Eastman Kodak Company Revised recapture camera and method
JP2003150550A (ja) 2001-11-14 2003-05-23 Toshiba Corp 情報処理システム
US20030154446A1 (en) 2002-01-28 2003-08-14 Constant Nicholas Robert Character-based, graphically expressive mobile messaging system
US7227976B1 (en) 2002-07-08 2007-06-05 Videomining Corporation Method and system for real-time facial image enhancement
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
US7027054B1 (en) 2002-08-14 2006-04-11 Avaworks, Incorporated Do-it-yourself photo realistic talking head creation system and method
GB0220748D0 (en) 2002-09-06 2002-10-16 Saw You Com Ltd Improved communication using avatars
US7180524B1 (en) 2002-09-30 2007-02-20 Dale Axelrod Artists' color display system
KR100471594B1 (ko) 2002-11-26 2005-03-10 엔에이치엔(주) 사용자 정의 이모티콘 이미지를 이용한 컴퓨터 네트워크상에서의 데이터 전송 서비스 제공방법 및 그를 구현하기위한 응용 프로그램을 기록한 컴퓨터가 읽을 수 있는기록매체
EP1429291A1 (en) 2002-12-12 2004-06-16 Sony Ericsson Mobile Communications AB System and method for implementing avatars in a mobile environment
US7908554B1 (en) 2003-03-03 2011-03-15 Aol Inc. Modifying avatar behavior based on user action or mood
US20070113181A1 (en) 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
JP2006520053A (ja) 2003-03-03 2006-08-31 アメリカ オンライン インコーポレイテッド 通信するためにアバターを使用する方法
US20050066279A1 (en) 2003-07-23 2005-03-24 Lebarton Jeffrey Stop motion capture tool
US6973299B2 (en) 2003-08-01 2005-12-06 Microsoft Corporation Unified contact list
KR100534247B1 (ko) 2003-08-11 2005-12-08 기아자동차주식회사 정속주행 자동차의 등반길 제어방법
JP2005115480A (ja) 2003-10-03 2005-04-28 Toshiba Social Automation Systems Co Ltd 認証システム及びコンピュータ読み取り可能な記憶媒体
US7707520B2 (en) 2004-01-30 2010-04-27 Yahoo! Inc. Method and apparatus for providing flash-based avatars
EP1723601A4 (en) 2004-02-12 2008-12-24 Besjon Alivandi SYSTEM AND METHOD FOR THE PRODUCTION OF GOODS FROM A VIRTUAL ENVIRONMENT
IL160429A0 (en) 2004-02-16 2005-11-20 Home Comfort Technologies Ltd Environmental control system
US20050202748A1 (en) 2004-03-11 2005-09-15 Beanhead Toys & Entertainment Freestanding, reconfigurable, disposable character form and kit for making same
KR100703281B1 (ko) 2004-04-30 2007-04-03 삼성전자주식회사 휴대단말기의 특정 상태에서 화면 표시장치 및 방법
US7969447B2 (en) 2004-05-06 2011-06-28 Pixar Dynamic wrinkle mapping
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
KR100511210B1 (ko) 2004-12-27 2005-08-30 주식회사지앤지커머스 의사 쓰리디 이미지 생성기법을 토대로 한 이용자 적응인공지능 토탈 코디네이션 방법과, 이를 이용한 서비스사업방법
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US7751285B1 (en) 2005-03-28 2010-07-06 Nano Time, LLC Customizable and wearable device with electronic images
US20060294465A1 (en) 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
JP2007052770A (ja) 2005-07-21 2007-03-01 Omron Corp 監視装置
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7424218B2 (en) 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
JP2007036928A (ja) 2005-07-29 2007-02-08 Sharp Corp 携帯情報端末装置
US20070081081A1 (en) 2005-10-07 2007-04-12 Cheng Brett A Automated multi-frame image capture for panorama stitching using motion sensor
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8370360B2 (en) 2005-12-31 2013-02-05 G & G Commerce Ltd. Merchandise recommending system and method thereof
CA2654960A1 (en) 2006-04-10 2008-12-24 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
US8620038B2 (en) 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
US8601379B2 (en) 2006-05-07 2013-12-03 Sony Computer Entertainment Inc. Methods for interactive communications with real time effects and avatar environment interaction
US20080052242A1 (en) 2006-08-23 2008-02-28 Gofigure! Llc Systems and methods for exchanging graphics between communication devices
WO2008064483A1 (en) 2006-11-30 2008-06-05 James Andrew Wanless A method and system for providing automated real-time contact information
KR100912877B1 (ko) 2006-12-02 2009-08-18 한국전자통신연구원 3차원 아바타 생성 기능을 구비한 이동통신 단말기 및3차원 아바타 생성 방법
US8705720B2 (en) 2007-02-08 2014-04-22 Avaya Inc. System, method and apparatus for clientless two factor authentication in VoIP networks
US20080242423A1 (en) 2007-03-27 2008-10-02 Shelford Securities, S.A. Real-money online multi-player trivia system, methods of operation, and storage medium
JP5219184B2 (ja) 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
US8253770B2 (en) 2007-05-31 2012-08-28 Eastman Kodak Company Residential video communication system
US20080300572A1 (en) 2007-06-01 2008-12-04 Medtronic Minimed, Inc. Wireless monitor for a personal medical device system
KR20090002176A (ko) 2007-06-20 2009-01-09 엔에이치엔(주) 네트워크 상에서 게임 아바타의 랭킹을 제공하는 시스템 및그 방법
GB2450757A (en) 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
US9716764B2 (en) 2007-07-25 2017-07-25 Yahoo! Inc. Display of communication system usage statistics
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8146005B2 (en) 2007-08-07 2012-03-27 International Business Machines Corporation Creating a customized avatar that reflects a user's distinguishable attributes
US20090055484A1 (en) 2007-08-20 2009-02-26 Thanh Vuong System and method for representation of electronic mail users using avatars
JP4466702B2 (ja) 2007-09-12 2010-05-26 カシオ計算機株式会社 撮像装置、及び撮像制御プログラム
KR100929236B1 (ko) 2007-09-18 2009-12-01 엘지전자 주식회사 터치스크린을 구비하는 휴대 단말기 및 그 동작 제어방법
KR20110114732A (ko) 2007-09-24 2011-10-19 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US20090135177A1 (en) 2007-11-20 2009-05-28 Big Stage Entertainment, Inc. Systems and methods for voice personalization of video content
US8892999B2 (en) 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
CN101472158A (zh) 2007-12-27 2009-07-01 上海银晨智能识别科技有限公司 基于人脸检测的网络摄像装置及图像形成方法
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
NZ587526A (en) 2008-01-31 2013-06-28 Univ Southern California Facial performance synthesis using deformation driven polynomial displacement maps
EP2263190A2 (en) 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
US8156060B2 (en) 2008-02-27 2012-04-10 Inteliwise Sp Z.O.O. Systems and methods for generating and implementing an interactive man-machine web interface based on natural language processing and avatar virtual agent based character
US20090254862A1 (en) 2008-03-03 2009-10-08 Kidzui, Inc Method and apparatus for user interface for child oriented computer network
US9513704B2 (en) 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US9744466B2 (en) 2008-03-13 2017-08-29 Mattel, Inc. Widgetized avatar and a method and system of creating and using same
US20100211899A1 (en) 2009-02-17 2010-08-19 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US20110025707A1 (en) 2009-02-17 2011-02-03 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US20100211900A1 (en) 2009-02-17 2010-08-19 Robb Fujioka Virtual Marketplace Accessible To Widgetized Avatars
US8169438B1 (en) 2008-03-31 2012-05-01 Pixar Temporally coherent hair deformation
US20090251484A1 (en) 2008-04-03 2009-10-08 Motorola, Inc. Avatar for a portable device
US8832552B2 (en) 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
JP5383668B2 (ja) 2008-04-30 2014-01-08 株式会社アクロディア キャラクタ表示用データの生成装置および方法
US20120081282A1 (en) 2008-05-17 2012-04-05 Chin David H Access of an application of an electronic device based on a facial gesture
US8401284B2 (en) 2008-05-28 2013-03-19 Apple Inc. Color correcting method and apparatus
CN102046249B (zh) 2008-06-02 2015-12-16 耐克创新有限合伙公司 创建化身的系统和方法
AU2008358849A1 (en) 2008-06-30 2010-01-07 Accenture Global Services Limited Gaming system
US8446414B2 (en) 2008-07-14 2013-05-21 Microsoft Corporation Programming APIS for an extensible avatar system
JP2010028404A (ja) 2008-07-18 2010-02-04 Hitachi Ltd 記録再生装置
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US8941642B2 (en) 2008-10-17 2015-01-27 Kabushiki Kaisha Square Enix System for the creation and editing of three dimensional models
KR101450580B1 (ko) 2008-11-19 2014-10-14 삼성전자주식회사 이미지 합성 방법 및 장치
JP5256001B2 (ja) 2008-11-20 2013-08-07 京セラドキュメントソリューションズ株式会社 色調整装置、方法及びプログラム
US20100153847A1 (en) 2008-12-17 2010-06-17 Sony Computer Entertainment America Inc. User deformation of movie character images
US20100169376A1 (en) 2008-12-29 2010-07-01 Yahoo! Inc. Visual search engine for personal dating
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8289130B2 (en) 2009-02-19 2012-10-16 Apple Inc. Systems and methods for identifying unauthorized users of an electronic device
KR20100111563A (ko) 2009-04-07 2010-10-15 삼성전자주식회사 휴대 단말기의 gui 구성 방법
US20100277470A1 (en) 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
CN101930284B (zh) 2009-06-23 2014-04-09 腾讯科技(深圳)有限公司 一种实现视频和虚拟网络场景交互的方法、装置和系统
JP5423379B2 (ja) 2009-08-31 2014-02-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN101692681A (zh) 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 一种在话机终端上实现虚拟形象互动界面的方法和系统
US8601573B2 (en) 2009-09-17 2013-12-03 International Business Machines Corporation Facial recognition for document and application data access control
WO2011037558A1 (en) 2009-09-22 2011-03-31 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US20110074807A1 (en) 2009-09-30 2011-03-31 Hitachi, Ltd. Method of color customization of content screen
KR101651128B1 (ko) 2009-10-05 2016-08-25 엘지전자 주식회사 이동 단말기 이것의 애플리케이션 실행 제어 방법
US20110221755A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Bionic motion
JP2011209887A (ja) 2010-03-29 2011-10-20 Sannetto:Kk アバター作成方法、アバター作成プログラム、およびネットワークサービスシステム
FR2958487A1 (fr) 2010-04-06 2011-10-07 Alcatel Lucent Une methode de detourage en temps reel d'une entite reelle enregistree dans une sequence video
US8874090B2 (en) 2010-04-07 2014-10-28 Apple Inc. Remote control operations in a video conference
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US9542038B2 (en) 2010-04-07 2017-01-10 Apple Inc. Personalizing colors of user interfaces
KR101642725B1 (ko) 2010-04-14 2016-08-11 삼성전자 주식회사 휴대 단말기의 잠금 기능 운용 방법 및 장치
US8694899B2 (en) 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US20110298808A1 (en) 2010-06-02 2011-12-08 Toyota Motor Engineering & Manufacturing North America, Inc. Animated Vehicle Attendance Systems
US9245177B2 (en) 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
US20170098122A1 (en) 2010-06-07 2017-04-06 Affectiva, Inc. Analysis of image content with associated manipulation of expression presentation
US10628985B2 (en) * 2017-12-01 2020-04-21 Affectiva, Inc. Avatar image animation using translation vectors
US20110304629A1 (en) 2010-06-09 2011-12-15 Microsoft Corporation Real-time animation of facial expressions
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8488040B2 (en) 2010-06-18 2013-07-16 Microsoft Corporation Mobile and server-side computational photography
JP5134653B2 (ja) 2010-07-08 2013-01-30 株式会社バンダイナムコゲームス プログラム及びユーザ端末
CN102347912B (zh) 2010-08-02 2014-11-05 腾讯科技(深圳)有限公司 即时通讯软件中获取动态更新的方法及系统
KR20120013727A (ko) 2010-08-06 2012-02-15 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20120069028A1 (en) 2010-09-20 2012-03-22 Yahoo! Inc. Real-time animations of emoticons using facial recognition during a video chat
US9519396B2 (en) 2010-09-28 2016-12-13 Apple Inc. Systems, methods, and computer-readable media for placing an asset on a three-dimensional model
US8558844B2 (en) 2010-09-28 2013-10-15 Apple Inc. Systems, methods, and computer-readable media for changing colors of displayed assets
US8830226B2 (en) 2010-09-28 2014-09-09 Apple Inc. Systems, methods, and computer-readable media for integrating a three-dimensional asset with a three-dimensional model
EP3920465B1 (en) 2010-10-08 2023-12-06 Brian Lee Moffat Private data sharing system
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
JP2014501967A (ja) 2010-11-17 2014-01-23 アフェクティヴァ,インコーポレイテッド ソーシャルネットワーク上での感情共有
CN102479388A (zh) 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
KR20120059994A (ko) 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
CN102075727A (zh) 2010-12-30 2011-05-25 中兴通讯股份有限公司 一种可视电话中图像处理方法和装置
CN102142149A (zh) 2011-01-26 2011-08-03 深圳市同洲电子股份有限公司 一种联系人形象的获取方法及装置
US8896652B2 (en) 2011-02-28 2014-11-25 Soryn Technologies Llc System and method for real-time video communications
US8686873B2 (en) 2011-02-28 2014-04-01 Toyota Motor Engineering & Manufacturing North America, Inc. Two-way video and 3D transmission between vehicles and system placed on roadside
US9563703B2 (en) 2011-03-10 2017-02-07 Cox Communications, Inc. System, method and device for sharing of playlists of authorized content with other users
US20120289290A1 (en) 2011-05-12 2012-11-15 KT Corporation, KT TECH INC. Transferring objects between application windows displayed on mobile terminal
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8902288B1 (en) 2011-06-16 2014-12-02 Google Inc. Photo-image-based 3D modeling system on a mobile device
US8832284B1 (en) 2011-06-16 2014-09-09 Google Inc. Virtual socializing
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
US9411506B1 (en) 2011-06-28 2016-08-09 Google Inc. Providing additional functionality for a group messaging application
US9082235B2 (en) 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
KR101832959B1 (ko) 2011-08-10 2018-02-28 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
CN102298797A (zh) 2011-08-31 2011-12-28 深圳市美丽同盟科技有限公司 三维虚拟试衣的方法、装置及系统
CN102271241A (zh) 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及系统
CN102999934A (zh) 2011-09-19 2013-03-27 上海威塔数字科技有限公司 计算机三维动画系统及动画方法
US10262327B1 (en) 2011-09-22 2019-04-16 Glance Networks, Inc. Integrating screen sharing sessions with customer relationship management
US8867849B1 (en) 2011-10-05 2014-10-21 Google Inc. Suggesting profile images for a social network
US9448708B1 (en) 2011-10-19 2016-09-20 Google Inc. Theming for virtual collaboration
CN102394919B (zh) 2011-10-20 2013-12-25 福州瑞芯微电子有限公司 基于生理检测的心情交互网络平台系统
KR101301794B1 (ko) 2011-11-04 2013-08-29 (주)카카오 동적 이모티콘을 이용하는 인스턴트 메시징 서비스를 제공하는 방법 및 그 방법을 실행하는 이동 단말
JP2013101528A (ja) 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
CN103116902A (zh) 2011-11-16 2013-05-22 华为软件技术有限公司 三维虚拟人头像生成方法、人头像运动跟踪方法和装置
CN105653031B (zh) 2011-11-23 2019-10-01 英特尔公司 带有多个视图、显示器以及物理学的姿势输入
EP2600316A1 (en) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US8941707B2 (en) 2011-12-01 2015-01-27 Tangome, Inc. Video messaging
US8767034B2 (en) 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
US20130147933A1 (en) 2011-12-09 2013-06-13 Charles J. Kulas User image insertion into a text message
CN103164117A (zh) 2011-12-09 2013-06-19 富泰华工业(深圳)有限公司 外部操作设备、电子装置及其延时锁屏方法
US9207837B2 (en) 2011-12-20 2015-12-08 Nokia Technologies Oy Method, apparatus and computer program product for providing multiple levels of interaction with a program
US20130159900A1 (en) 2011-12-20 2013-06-20 Nokia Corporation Method, apparatus and computer program product for graphically enhancing the user interface of a device
US9292195B2 (en) 2011-12-29 2016-03-22 Apple Inc. Device, method, and graphical user interface for configuring and implementing restricted interactions for applications
WO2013097139A1 (en) 2011-12-29 2013-07-04 Intel Corporation Communication using avatar
KR101907136B1 (ko) 2012-01-27 2018-10-11 라인 가부시키가이샤 유무선 웹을 통한 아바타 서비스 시스템 및 방법
US9204099B2 (en) 2012-02-01 2015-12-01 Magor Communications Corporation Videoconferencing system providing virtual physical context
US8723796B2 (en) 2012-02-02 2014-05-13 Kodak Alaris Inc. Multi-user interactive display system
WO2013120851A1 (en) 2012-02-13 2013-08-22 Mach-3D Sàrl Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
US9747495B2 (en) 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
US9251360B2 (en) 2012-04-27 2016-02-02 Intralinks, Inc. Computerized method and system for managing secure mobile device content viewing in a networked secure collaborative exchange environment
US9264660B1 (en) 2012-03-30 2016-02-16 Google Inc. Presenter control during a video conference
US9402057B2 (en) 2012-04-02 2016-07-26 Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. Interactive avatars for telecommunication systems
CN104170358B (zh) 2012-04-09 2016-05-11 英特尔公司 用于化身管理和选择的系统和方法
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
US20140198121A1 (en) 2012-04-09 2014-07-17 Xiaofeng Tong System and method for avatar generation, rendering and animation
US8254647B1 (en) 2012-04-16 2012-08-28 Google Inc. Facial image quality assessment
US9785883B2 (en) 2012-04-27 2017-10-10 Excalibur Ip, Llc Avatars for use with personalized generalized content recommendations
US20130293686A1 (en) 2012-05-03 2013-11-07 Qualcomm Incorporated 3d reconstruction of human subject using a mobile device
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101868352B1 (ko) 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
JP6018707B2 (ja) 2012-06-21 2016-11-02 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
US20130342672A1 (en) 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input
US20140115451A1 (en) 2012-06-28 2014-04-24 Madeleine Brett Sheldon-Dante System and method for generating highly customized books, movies, and other products
US20140013422A1 (en) 2012-07-03 2014-01-09 Scott Janus Continuous Multi-factor Authentication
CN102799383B (zh) 2012-07-18 2014-05-14 腾讯科技(深圳)有限公司 移动终端屏幕截图方法、屏幕截图装置
CN102841683B (zh) 2012-07-24 2015-07-22 东莞宇龙通信科技有限公司 应用启动的方法及其通信终端
WO2014036708A1 (en) 2012-09-06 2014-03-13 Intel Corporation System and method for avatar creation and synchronization
US9602559B1 (en) 2012-09-07 2017-03-21 Mindmeld, Inc. Collaborative communication system with real-time anticipatory computing
US20140078144A1 (en) 2012-09-14 2014-03-20 Squee, Inc. Systems and methods for avatar creation
US9826286B2 (en) 2012-09-18 2017-11-21 Viacom International Inc. Video editing method and tool
US9314692B2 (en) 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
KR102013443B1 (ko) 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
KR102001913B1 (ko) 2012-09-27 2019-07-19 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
JP5964190B2 (ja) 2012-09-27 2016-08-03 京セラ株式会社 端末装置
US9746990B2 (en) 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
KR102004287B1 (ko) 2012-10-17 2019-07-26 에스케이플래닛 주식회사 이모티콘 생성 장치 및 이모티콘 생성 방법
KR101390228B1 (ko) 2012-10-22 2014-05-07 (주)카카오 채팅 영역에 이미지를 표시하는 디바이스 및 방법, 그리고 채팅 데이터를 관리하는 서버
US9696898B2 (en) 2012-11-14 2017-07-04 Facebook, Inc. Scrolling through a series of content items
US9948589B2 (en) 2012-11-14 2018-04-17 invi Labs, Inc. System for and method of organizing contacts for chat sessions on an electronic device
US20140157153A1 (en) 2012-12-05 2014-06-05 Jenny Yuen Select User Avatar on Detected Emotion
WO2014094199A1 (en) 2012-12-17 2014-06-26 Intel Corporation Facial movement based avatar animation
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
CN103927190A (zh) 2013-01-11 2014-07-16 腾讯科技(深圳)有限公司 网络表情下载方法与装置
KR102049855B1 (ko) 2013-01-31 2019-11-28 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN103093490B (zh) 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
US10708545B2 (en) * 2018-01-17 2020-07-07 Duelight Llc System, method, and computer program for transmitting face models based on face data points
US9148489B2 (en) 2013-03-11 2015-09-29 Qualcomm Incorporated Exchanging a contact profile between client devices during a communication session
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9747716B1 (en) 2013-03-15 2017-08-29 Lucasfilm Entertainment Company Ltd. Facial animation models
US9778837B2 (en) 2013-03-15 2017-10-03 Apple Inc. Mobile computing device with multiple access modes
US9654761B1 (en) 2013-03-15 2017-05-16 Google Inc. Computer vision algorithm for capturing and refocusing imagery
US20140279062A1 (en) 2013-03-15 2014-09-18 Rodan & Fields, Llc Consultant tool for direct selling
KR102138512B1 (ko) 2013-03-26 2020-07-28 엘지전자 주식회사 디스플레이 디바이스 및 그의 제어 방법
US9460541B2 (en) 2013-03-29 2016-10-04 Intel Corporation Avatar animation, social networking and touch screen applications
JP5603452B1 (ja) 2013-04-11 2014-10-08 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
KR102080183B1 (ko) 2013-04-18 2020-04-14 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
IL226047A (en) 2013-04-29 2017-12-31 Hershkovitz Reshef May A method and system for giving personal expressions
CA2947936C (en) 2013-05-04 2023-02-21 Christopher Decharms Mobile security technology
GB2515266B (en) 2013-05-09 2018-02-28 Disney Entpr Inc Manufacturing Process for 3D Printed Objects
KR20140133363A (ko) 2013-05-10 2014-11-19 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
CN104184760B (zh) 2013-05-22 2018-08-07 阿里巴巴集团控股有限公司 通讯过程中的信息交互方法、客户端及服务器
US9330513B2 (en) 2013-05-31 2016-05-03 Microsoft Technology Licensing, Llc Resource management based on biometric data
CN105190700A (zh) 2013-06-04 2015-12-23 英特尔公司 基于化身的视频编码
CN105190699B (zh) 2013-06-05 2019-09-03 英特尔公司 基于面部运动数据的卡拉ok化身动画
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US9626493B2 (en) 2013-06-08 2017-04-18 Microsoft Technology Licensing, Llc Continuous digital content protection
US10168882B2 (en) 2013-06-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for switching between camera interfaces
CN103294171A (zh) 2013-06-24 2013-09-11 深圳市中兴移动通信有限公司 移动终端的省电方法和省电装置
CN103346957B (zh) 2013-07-02 2016-12-28 北京播思无线技术有限公司 一种根据联系人消息改变联系人头像表情的系统及方法
US20150033192A1 (en) 2013-07-23 2015-01-29 3M Innovative Properties Company Method for creating effective interactive advertising content
CN103413072A (zh) 2013-07-27 2013-11-27 金硕澳门离岸商业服务有限公司 保护应用程序的方法和装置
JP6132260B2 (ja) 2013-07-30 2017-05-24 ブラザー工業株式会社 印字データ編集プログラム
US10289265B2 (en) 2013-08-15 2019-05-14 Excalibur Ip, Llc Capture and retrieval of a personalized mood icon
US9881645B2 (en) 2013-08-20 2018-01-30 Google Llc Systems, methods, and media for editing video during playback via gestures
US9804760B2 (en) 2013-08-22 2017-10-31 Apple Inc. Scrollable in-line camera for capturing and sharing content
KR102077108B1 (ko) 2013-09-13 2020-02-14 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
CA2863748C (en) 2013-09-19 2023-06-27 Prinova, Inc. System and method for variant content navigation
US9317954B2 (en) 2013-09-23 2016-04-19 Lucasfilm Entertainment Company Ltd. Real-time performance capture with on-the-fly correctives
US20150302624A1 (en) 2013-10-09 2015-10-22 Genue, Inc. Pattern based design application
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
EP3066552B1 (en) 2013-11-05 2019-03-06 Telefonaktiebolaget LM Ericsson (publ) Methods of processing electronic files including combined close and delete, and related systems and computer program products
US10877629B2 (en) 2016-10-13 2020-12-29 Tung Inc. Conversion and display of a user input
US10528219B2 (en) 2015-08-10 2020-01-07 Tung Inc. Conversion and display of a user input
US9489760B2 (en) 2013-11-14 2016-11-08 Intel Corporation Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices
US9246961B2 (en) 2013-11-27 2016-01-26 Facebook, Inc. Communication user interface systems and methods
CN110189089A (zh) 2013-11-27 2019-08-30 脸谱公司 用于通信的方法、系统和移动设备
US20150172238A1 (en) 2013-12-18 2015-06-18 Lutebox Ltd. Sharing content on devices with reduced user actions
CN104753762B (zh) 2013-12-31 2018-07-27 北京发现角科技有限公司 应用于即时通信的向头像图标中添加装饰物的方法和系统
CN103886632A (zh) 2014-01-06 2014-06-25 宇龙计算机通信科技(深圳)有限公司 用户表情头像的生成方法及通信终端
US9477878B2 (en) 2014-01-28 2016-10-25 Disney Enterprises, Inc. Rigid stabilization of facial expressions
US20170164888A1 (en) 2014-01-30 2017-06-15 Konica Minolta, Inc. Organ imaging device
KR102201738B1 (ko) 2014-02-05 2021-01-12 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
CN104836879A (zh) 2014-02-12 2015-08-12 腾讯科技(深圳)有限公司 通讯录的更新方法、服务器及系统
US20150254886A1 (en) 2014-03-07 2015-09-10 Utw Technology Co., Ltd. System and method for generating animated content
GB2539349A (en) 2014-03-09 2016-12-14 Diro Inc Management of group-sourced contacts directories, systems and methods
WO2015137645A1 (ko) 2014-03-13 2015-09-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
WO2015139231A1 (en) 2014-03-19 2015-09-24 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method
CN104935497B (zh) 2014-03-20 2020-08-14 腾讯科技(深圳)有限公司 一种通讯会话方法和装置
US10417824B2 (en) 2014-03-25 2019-09-17 Apple Inc. Method and system for representing a virtual object in a view of a real environment
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
US20150317945A1 (en) 2014-04-30 2015-11-05 Yahoo! Inc. Systems and methods for generating tinted glass effect for interface controls and elements
WO2015164951A1 (en) 2014-05-01 2015-11-05 Abbas Mohamad Methods and systems relating to personalized evolving avatars
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US20150332534A1 (en) 2014-05-15 2015-11-19 Narvii Inc. Systems and methods implementing user interface objects
CN105099861A (zh) 2014-05-19 2015-11-25 阿里巴巴集团控股有限公司 基于用户情绪的显示控制方法和显示控制装置
US9628416B2 (en) 2014-05-30 2017-04-18 Cisco Technology, Inc. Photo avatars
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9766702B2 (en) 2014-06-19 2017-09-19 Apple Inc. User detection by a computing device
CN104112091A (zh) 2014-06-26 2014-10-22 小米科技有限责任公司 文件锁定方法和装置
US9904774B2 (en) 2014-06-26 2018-02-27 Xiaomi Inc. Method and device for locking file
BR112016027700A2 (pt) 2014-06-27 2017-08-15 Microsoft Technology Licensing Llc Proteção de dados baseada em reconhecimento de usuário e gesto
US9589362B2 (en) 2014-07-01 2017-03-07 Qualcomm Incorporated System and method of three-dimensional model generation
US20160191958A1 (en) 2014-12-26 2016-06-30 Krush Technologies, Llc Systems and methods of providing contextual features for digital communication
EP3172720A4 (en) 2014-07-25 2018-04-11 Intel Corporation Avatar facial expression animations with head rotation
US20160134840A1 (en) 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
US9536228B2 (en) 2014-07-31 2017-01-03 Gretel, LLC Contact management systems
US9561444B2 (en) 2014-08-01 2017-02-07 Electronic Arts Inc. Resolving graphical conflicts between objects
EP3158425A1 (en) 2014-08-02 2017-04-26 Apple Inc. Context-specific user interfaces
CN105374055B (zh) 2014-08-20 2018-07-03 腾讯科技(深圳)有限公司 图像处理方法及装置
US20160057087A1 (en) 2014-08-21 2016-02-25 Facebook, Inc. Processing media messages based on the capabilities of the receiving device
US9230355B1 (en) 2014-08-21 2016-01-05 Glu Mobile Inc. Methods and systems for images with interactive filters
US20160055370A1 (en) 2014-08-21 2016-02-25 Futurewei Technologies, Inc. System and Methods of Generating User Facial Expression Library for Messaging and Social Networking Applications
KR102418119B1 (ko) 2014-08-25 2022-07-07 삼성전자 주식회사 시계 화면 구성 방법 및 이를 구현한 웨어러블 전자장치
KR102258579B1 (ko) 2014-08-29 2021-05-31 엘지전자 주식회사 워치형 단말기
KR102367550B1 (ko) 2014-09-02 2022-02-28 삼성전자 주식회사 생체 신호를 이용한 카메라 모듈의 제어
KR101540544B1 (ko) 2014-09-05 2015-07-30 서용창 캐릭터를 이용한 메시지 서비스 방법, 상기 방법을 수행하는 사용자 단말, 상기 방법을 포함하는 메시지 애플리케이션
US10212111B2 (en) 2014-09-12 2019-02-19 Google Llc System and interface that facilitate selecting videos to share in a messaging application
CN105139438B (zh) 2014-09-19 2018-01-12 电子科技大学 视频人脸卡通动画生成方法
CN106201161B (zh) 2014-09-23 2021-09-03 北京三星通信技术研究有限公司 电子设备的显示方法及系统
US20160292903A1 (en) 2014-09-24 2016-10-06 Intel Corporation Avatar audio communication systems and techniques
CN106575445B (zh) 2014-09-24 2021-02-05 英特尔公司 毛皮虚拟化身动画
US9633463B2 (en) 2014-09-24 2017-04-25 Intel Corporation User gesture driven avatar apparatus and method
CN111523395B (zh) 2014-09-24 2024-01-23 英特尔公司 面部动作驱动的动画通信系统
US10361986B2 (en) 2014-09-29 2019-07-23 Disney Enterprises, Inc. Gameplay in a chat thread
US10572103B2 (en) 2014-09-30 2020-02-25 Apple Inc. Timeline view of recently opened documents
US20160105388A1 (en) 2014-10-09 2016-04-14 Footspot, Inc. System and method for digital media capture and related social networking
US9430696B2 (en) 2014-10-09 2016-08-30 Sensory, Incorporated Continuous enrollment for face verification
WO2016057062A1 (en) 2014-10-10 2016-04-14 Simplify and Go, LLC World watch
US20160110922A1 (en) 2014-10-16 2016-04-21 Tal Michael HARING Method and system for enhancing communication by using augmented reality
KR102240302B1 (ko) 2014-10-21 2021-04-14 삼성전자주식회사 가상 피팅 장치 및 이의 가상 피팅 방법
WO2016064435A1 (en) 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
WO2016070354A1 (en) 2014-11-05 2016-05-12 Intel Corporation Avatar video apparatus and method
CN104376160A (zh) 2014-11-07 2015-02-25 薛景 真人模拟个性装饰搭配系统
US9491258B2 (en) 2014-11-12 2016-11-08 Sorenson Communications, Inc. Systems, communication endpoints, and related methods for distributing images corresponding to communication endpoints
US9906772B2 (en) 2014-11-24 2018-02-27 Mediatek Inc. Method for performing multi-camera capturing control of an electronic device, and associated apparatus
KR101997500B1 (ko) 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
MA41117A (fr) * 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US9824502B2 (en) 2014-12-23 2017-11-21 Intel Corporation Sketch selection for rendering 3D model avatar
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
WO2016101132A1 (en) 2014-12-23 2016-06-30 Intel Corporation Facial gesture driven animation of non-facial features
US10198594B2 (en) 2014-12-30 2019-02-05 Xiaomi Inc. Method and device for displaying notification information
JP6152125B2 (ja) 2015-01-23 2017-06-21 任天堂株式会社 プログラム、情報処理装置、情報処理システム及びアバター画像の生成方法
GB2534847A (en) 2015-01-28 2016-08-10 Sony Computer Entertainment Europe Ltd Display
JP6461630B2 (ja) 2015-02-05 2019-01-30 任天堂株式会社 通信システム、通信装置、プログラム及び表示方法
JP6511293B2 (ja) 2015-02-26 2019-05-15 株式会社エヌ・ティ・ティ・データ ユーザ監視システム
CN104753766B (zh) 2015-03-02 2019-03-22 小米科技有限责任公司 表情发送方法及装置
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9959623B2 (en) 2015-03-09 2018-05-01 Here Global B.V. Display of an annotation representation
WO2016145129A1 (en) 2015-03-09 2016-09-15 Ventana 3D, Llc Avatar control system
KR101587115B1 (ko) 2015-03-11 2016-01-21 이영규 아바타 메신저 서비스 시스템
CN104732396A (zh) 2015-03-24 2015-06-24 广东欧珀移动通信有限公司 一种支付控制方法及装置
US9852543B2 (en) 2015-03-27 2017-12-26 Snap Inc. Automated three dimensional model generation
US10812429B2 (en) 2015-04-03 2020-10-20 Glu Mobile Inc. Systems and methods for message communication
US20170069124A1 (en) 2015-04-07 2017-03-09 Intel Corporation Avatar generation and animations
US20170046065A1 (en) 2015-04-07 2017-02-16 Intel Corporation Avatar keyboard
US20160307028A1 (en) 2015-04-16 2016-10-20 Mikhail Fedorov Storing, Capturing, Updating and Displaying Life-Like Models of People, Places And Objects
US20160327915A1 (en) 2015-05-08 2016-11-10 Garmin Switzerland Gmbh Smart watch
US20160350957A1 (en) 2015-05-26 2016-12-01 Andrew Woods Multitrack Virtual Puppeteering
CN106303690A (zh) 2015-05-27 2017-01-04 腾讯科技(深圳)有限公司 一种视频处理方法及装置
KR20160143429A (ko) 2015-06-05 2016-12-14 엘지전자 주식회사 이동단말기 및 그 제어방법
KR102305525B1 (ko) 2015-06-09 2021-09-27 삼성전자주식회사 이동 통신 시스템에서 단말을 이용하는 사용자 프로필 정보 공유 기법
US20160364600A1 (en) 2015-06-10 2016-12-15 Microsoft Technology Licensing, Llc Biometric Gestures
US10165949B2 (en) * 2015-06-14 2019-01-01 Facense Ltd. Estimating posture using head-mounted cameras
US20160370974A1 (en) 2015-06-22 2016-12-22 Here Global B.V. Causation of Expansion of a Supplemental Content Overlay
US9891933B2 (en) 2015-06-24 2018-02-13 International Business Machines Corporation Automated testing of GUI mirroring
CN105100462A (zh) 2015-07-10 2015-11-25 广州市久邦数码科技有限公司 一种自定义编辑主题的短信系统
US20170018289A1 (en) 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
US10171985B1 (en) 2015-07-22 2019-01-01 Ginko LLC Method and apparatus for data sharing
CN104992102A (zh) 2015-07-23 2015-10-21 京东方科技集团股份有限公司 一种消息显示方法及装置
CN108140020A (zh) 2015-07-30 2018-06-08 英特尔公司 情感增强型化身动画化
US20170046507A1 (en) 2015-08-10 2017-02-16 International Business Machines Corporation Continuous facial recognition for adaptive data restriction
US11048739B2 (en) 2015-08-14 2021-06-29 Nasdaq, Inc. Computer-implemented systems and methods for intelligently retrieving, analyzing, and synthesizing data from databases
GB2543893A (en) * 2015-08-14 2017-05-03 Metail Ltd Methods of generating personalized 3D head models or 3D body models
US10706266B2 (en) 2015-09-09 2020-07-07 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
WO2017048898A1 (en) 2015-09-18 2017-03-23 Mazur Kai Human-computer interface
US9349414B1 (en) 2015-09-18 2016-05-24 Odile Aimee Furment System and method for simultaneous capture of two video streams
US11138207B2 (en) 2015-09-22 2021-10-05 Google Llc Integrated dynamic interface for expression-based retrieval of expressive media content
US20170083524A1 (en) 2015-09-22 2017-03-23 Riffsy, Inc. Platform and dynamic interface for expression-based retrieval of expressive media content
CN105391843A (zh) 2015-09-28 2016-03-09 努比亚技术有限公司 终端设备、信息发布方法及信息发布系统
US9686497B1 (en) 2015-10-29 2017-06-20 Crater Group Co. Video annotation and dynamic video call display for multi-camera devices
EP3371778A4 (en) 2015-11-06 2019-06-26 Mursion, Inc. CONTROL SYSTEM FOR VIRTUAL FIGURES
US10025972B2 (en) 2015-11-16 2018-07-17 Facebook, Inc. Systems and methods for dynamically generating emojis based on image analysis of facial features
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
US20170178287A1 (en) 2015-12-21 2017-06-22 Glen J. Anderson Identity obfuscation
CN105611215A (zh) 2015-12-30 2016-05-25 掌赢信息科技(上海)有限公司 一种视频通话方法及装置
US10664741B2 (en) 2016-01-14 2020-05-26 Samsung Electronics Co., Ltd. Selecting a behavior of a virtual agent
US10062133B1 (en) 2016-01-26 2018-08-28 Google Llc Image retrieval for computing devices
EP3207823A1 (en) 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
GB2548154A (en) 2016-03-11 2017-09-13 Sony Computer Entertainment Europe Ltd Virtual reality
CN105844101A (zh) 2016-03-25 2016-08-10 惠州Tcl移动通信有限公司 一种基于智能手表的情绪数据处理方法、系统及智能手表
US10366090B2 (en) 2016-03-30 2019-07-30 Facebook, Inc. Displaying temporary profile content items on communication networks
KR20170112497A (ko) 2016-03-31 2017-10-12 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10983689B2 (en) 2016-05-18 2021-04-20 Apple Inc. Devices, methods, and graphical user interfaces for messaging
WO2017201326A1 (en) 2016-05-18 2017-11-23 Apple Inc. Applying acknowledgement options in a graphical messaging user interface
CN106101358A (zh) 2016-05-27 2016-11-09 珠海市魅族科技有限公司 一种联系人信息更新的方法及智能设备
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
US10607386B2 (en) 2016-06-12 2020-03-31 Apple Inc. Customized avatars and associated framework
WO2017223530A1 (en) * 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
EP3264251B1 (en) 2016-06-29 2019-09-04 Dassault Systèmes Generation of a color of an object displayed on a gui
US10360708B2 (en) 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
US10348662B2 (en) 2016-07-19 2019-07-09 Snap Inc. Generating customized electronic messaging graphics
US9955061B2 (en) 2016-08-03 2018-04-24 International Business Machines Corporation Obtaining camera device image data representing an event
WO2018049430A2 (en) 2016-08-11 2018-03-15 Integem Inc. An intelligent interactive and augmented reality based user interface platform
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
US10514822B2 (en) 2016-08-24 2019-12-24 Motorola Solutions, Inc. Systems and methods for text entry for multi-user text-based communication
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. IMAGE DATA FOR ENHANCED USER INTERACTIONS
KR20210013323A (ko) 2016-09-23 2021-02-03 애플 인크. 아바타 생성 및 편집
US10536691B2 (en) 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
CN109952610B (zh) 2016-11-07 2021-01-08 斯纳普公司 图像修改器的选择性识别和排序
JP6266736B1 (ja) 2016-12-07 2018-01-24 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US10528801B2 (en) 2016-12-07 2020-01-07 Keyterra LLC Method and system for incorporating contextual and emotional visualization into electronic communications
JP6240301B1 (ja) 2016-12-26 2017-11-29 株式会社コロプラ 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US20180225263A1 (en) 2017-02-06 2018-08-09 Microsoft Technology Licensing, Llc Inline insertion viewport
CN117171788A (zh) 2017-02-07 2023-12-05 交互数字Vc控股公司 在虚拟现实中防止监视和保护隐私的系统和方法
US10438393B2 (en) 2017-03-16 2019-10-08 Linden Research, Inc. Virtual reality presentation of body postures of avatars
KR20180120449A (ko) 2017-04-27 2018-11-06 삼성전자주식회사 프로필 이미지 공유 방법 및 이를 지원하는 전자 장치
CN107171934B (zh) 2017-05-05 2019-10-25 沈思远 即时通讯工具的信息处理方法、即时通讯客户端及系统
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
EP3570251A1 (en) 2017-05-16 2019-11-20 Apple Inc. Emoji recording and sending
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
KR20240116836A (ko) 2017-05-16 2024-07-30 애플 인크. 이모지 레코딩 및 전송
US10397391B1 (en) 2017-05-22 2019-08-27 Ginko LLC Two-way permission-based directory of contacts
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
US20190114037A1 (en) 2017-10-17 2019-04-18 Blend Systems, Inc. Systems and methods for distributing customized avatars responsive to events
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
CN107613085A (zh) 2017-10-31 2018-01-19 武汉诚迈科技有限公司 手机通讯录自动更新方法、服务器和用户终端
KR102387861B1 (ko) 2017-11-29 2022-04-18 스냅 인코포레이티드 전자 메시징 애플리케이션들을 위한 그래픽 렌더링
US10374994B1 (en) 2018-02-21 2019-08-06 King.Com Ltd. Messaging system
KR102565755B1 (ko) 2018-02-23 2023-08-11 삼성전자주식회사 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
KR102661019B1 (ko) 2018-02-23 2024-04-26 삼성전자주식회사 얼굴에 대응하는 3차원 아바타를 이용하여 얼굴의 움직임이 반영된 3차원 아바타를 포함하는 이미지를 생성하는 전자 장치 및 그 동작 방법
US11062494B2 (en) 2018-03-06 2021-07-13 Didimo, Inc. Electronic messaging utilizing animatable 3D models
US20190295056A1 (en) 2018-03-20 2019-09-26 Rocky Jerome Wright Augmented Reality and Messaging
US10789753B2 (en) * 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US10607065B2 (en) 2018-05-03 2020-03-31 Adobe Inc. Generation of parameterized avatars
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
CN113535306B (zh) 2018-05-07 2023-04-07 苹果公司 头像创建用户界面
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11107261B2 (en) * 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
US11288880B2 (en) 2019-01-18 2022-03-29 Snap Inc. Template-based generation of personalized videos
US10817981B1 (en) 2019-02-04 2020-10-27 Facebook, Inc. Color sampling selection for displaying content items using machine learning
US10953334B2 (en) 2019-03-27 2021-03-23 Electronic Arts Inc. Virtual character generation from image or video data
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
DK201970531A1 (en) 2019-05-06 2021-07-09 Apple Inc Avatar integration with multiple applications
US12039661B2 (en) 2019-06-02 2024-07-16 Apple Inc. Parameterized generation of two-dimensional images from a three-dimensional model
US20200412975A1 (en) 2019-06-28 2020-12-31 Snap Inc. Content capture with audio input feedback
US11189098B2 (en) 2019-06-28 2021-11-30 Snap Inc. 3D object camera customization system
KR102241153B1 (ko) 2019-07-01 2021-04-19 주식회사 시어스랩 2차원 이미지로부터 3차원 아바타를 생성하는 방법, 장치 및 시스템
US11488359B2 (en) 2019-08-28 2022-11-01 Snap Inc. Providing 3D data for messages in a messaging system
US11189104B2 (en) 2019-08-28 2021-11-30 Snap Inc. Generating 3D data in a messaging system

Also Published As

Publication number Publication date
WO2020150659A1 (en) 2020-07-23
US20210390753A1 (en) 2021-12-16
US20200234481A1 (en) 2020-07-23
US11107261B2 (en) 2021-08-31
EP3912137A1 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
US11107261B2 (en) Virtual avatar animation based on facial feature movement
US20240187361A1 (en) Avatar integration with multiple applications
US12045923B2 (en) Emoji recording and sending
CN110460799B (zh) 一种显示实时视频通信用户界面的设备、方法和存储介质
AU2023200867B2 (en) Avatar integration with multiple applications
US11714536B2 (en) Avatar sticker editor user interfaces
JP7494404B1 (ja) アバターステッカーエディタユーザインタフェース
JP7404587B2 (ja) クリエイティブカメラ
KR102400085B1 (ko) 크리에이티브 카메라
KR102357342B1 (ko) 크리에이티브 카메라
US20230254448A1 (en) Camera-less representation of users during communication sessions
WO2024064393A1 (en) Movement user interface

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination