CN114787813A - 上下文敏感化身字幕 - Google Patents

上下文敏感化身字幕 Download PDF

Info

Publication number
CN114787813A
CN114787813A CN202080084728.0A CN202080084728A CN114787813A CN 114787813 A CN114787813 A CN 114787813A CN 202080084728 A CN202080084728 A CN 202080084728A CN 114787813 A CN114787813 A CN 114787813A
Authority
CN
China
Prior art keywords
avatar
user
context
words
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080084728.0A
Other languages
English (en)
Inventor
纽瓦·胡萨姆·阿尔马吉德
蒂莫西·乔丹·加西亚
马修·科林·格兰瑟姆
克里斯蒂·马里·海基宁
丹尼斯·马塞拉·马丁内斯
大卫·怀特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN114787813A publication Critical patent/CN114787813A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

提供了用于执行操作的系统和方法,该操作包括:由消息收发应用接收输入,该输入选择使用带字幕的化身来生成消息的选项;由消息收发应用呈现化身和靠近化身的字幕录入区域;由消息收发应用使用包括一个或更多个词的文本字符串来填充字幕录入区域;由消息收发应用基于文本字符串中的一个或更多个词来确定上下文;以及由消息收发应用基于所确定的上下文来修改化身的表达。

Description

上下文敏感化身字幕
优先权要求
本申请要求于2019年12月9日提交的美国专利申请序列号16/707,635的优先权,该美国专利申请的全部内容通过引用并入本文中。
技术领域
本公开内容总体上涉及使用消息收发应用提供带字幕的化身。
背景技术
用户总是在寻找新的方式来在社交媒体平台上与他们的朋友联系。用户尝试与朋友联系的一种方式是发送带化身的自定义消息。许多不同类型的化身可供用户选择以包含在自定义消息中。
附图说明
在不一定按比例绘制的附图中,相同的附图标记可以在不同的视图中描述相同的部件。为了容易识别对任何特定元件或动作的讨论,附图标记中的一个或多个最高位数字指代该元件被首次介绍时所在的图号。一些实施方式通过示例而不是限制的方式在附图的图中示出,在附图中:
图1是示出根据示例实施方式的用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统的框图。
图2是示出根据示例实施方式的可以存储在消息收发服务器系统的数据库中的数据的示意图。
图3是示出根据示例实施方式的由消息收发客户端应用生成的用于通信的消息的结构的示意图。
图4是示出根据示例实施方式的示例上下文敏感化身系统的框图。
图5是示出根据示例实施方式的上下文敏感化身系统的示例操作的流程图。
图6至图8是根据示例实施方式的上下文敏感化身系统的说明性输入和输出。
图9是示出根据示例实施方式的可以结合本文中描述的各种硬件架构使用的代表性软件架构的框图。
图10是示出根据示例实施方式的能够从机器可读介质(例如,机器可读存储介质)读取指令并执行本文中讨论的方法中的任何一种或更多种的机器的部件的框图。
具体实施方式
下面的描述包括体现本公开内容的说明性实施方式的系统、方法、技术、指令序列和计算机器程序产品。在下面的描述中,出于说明的目的,阐述了许多具体细节以提供对各种实施方式的理解。然而,对于本领域技术人员而言将明显的是,可以在没有这些具体细节的情况下实践实施方式。一般地,公知的指令实例、协议、结构和技术不一定详细示出。
典型的用户设备允许用户使用图形来彼此通信。为此,用户通常输入搜索参数以找到最能代表用户试图传达的消息的图形。具体地,许多图形可供用户选择。找到正确的图形需要浏览多个信息页面,并且可能非常乏味和耗时。考虑到查找感兴趣的图形以包含在正在发送的消息中所花费的复杂性和时间量,用户不被鼓励在他们的消息中包含图形。这导致用户对使用消息收发应用的高级功能失去兴趣,这浪费资源。
所公开的实施方式通过提供如下消息收发应用来提高使用电子设备的效率,该消息收发应用基于用户为传送给朋友而编写的消息来智能且自动地选择具有特定表达的化身。这使用户花费更少的时间来编写包含化身的消息,并允许用户更无缝地创建内容丰富的消息,从而更准确地传达消息。具体地,根据所公开的实施方式,消息收发应用接收用户对使用带字幕的化身来生成消息的选项的选择。消息收发应用呈现化身和靠近化身的字幕录入区域,并且使用用户提供的文本字符串来填充字幕录入区域。随着用户在文本字符串中键入一个或更多个词,消息收发应用确定字幕的上下文,并基于所确定的上下文来修改化身的表达。
在一些情况下,字幕以弯曲方式呈现在化身周围。在一些情况下,消息收发应用确定文本字符串代表或标识第二用户。作为响应,消息收发应用自动检索代表第二用户的第二化身。然后消息收发应用将编写消息的用户的化身和检索到的在消息中标识的第二用户的化身二者一起呈现。化身呈现有与消息的上下文对应的表达。在一些情况下,消息收发应用确定用户正参与与第二用户的对话。作为响应,消息收发应用呈现参与对话的每个用户的化身,该化身具有与化身字幕中的对话或文本的上下文对应的表达。
以这种方式,所公开的实施方式通过减少用户必须浏览以选择合适的化身以向其他用户传达消息的屏幕和界面的数量来提高使用电子设备的效率。这是通过如下方式来完成的:自动确定用户正在编写的消息的上下文,并且随着用户键入消息的词,修改所呈现的并将包含在发送至其他用户的消息中的化身的表达。这也减少了使用设备完成任务所需的设备资源(例如,处理器周期、存储器和电力使用)。
图1是示出用于通过网络106交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括多个客户端设备102,每个客户端设备102托管包括消息收发客户端应用104和第三方应用105的若干应用。每个消息收发客户端应用104经由网络106(例如,因特网)通信地耦接至消息收发客户端应用104、第三方应用105、以及消息收发服务器系统108的其他实例。
因此,每个消息收发客户端应用104和第三方应用105能够经由网络106与另一消息收发客户端应用104和第三方应用105以及与消息收发服务器系统108进行通信并交换数据。在消息收发客户端应用104与第三方应用105之间以及消息收发客户端应用104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。在消息收发客户端应用104与第三方应用105之间的任何公开的通信都可以从消息收发客户端应用104被直接传送至第三方应用105以及/或者从消息收发客户端应用104被间接地(例如,经由一个或更多个服务器)传送至第三方应用105。
第三方应用105和消息收发客户端应用104是包括允许客户端设备102访问上下文敏感化身系统124的功能集的应用。第三方应用105是与消息收发客户端应用104分开且不同的应用。第三方应用105与消息收发客户端应用104分开地由客户端设备102下载和安装。在一些实现方式中,在下载和安装消息收发客户端应用104之前或在下载和安装消息收发客户端应用104之后由客户端设备102下载和安装第三方应用105。第三方应用105是由与提供消息收发客户端应用104的实体或组织不同的实体或组织提供的应用。第三方应用105是可以由客户端设备102使用与消息收发客户端应用104的登录凭证相独立的登录凭证访问的应用。即,第三方应用105可以维护第一用户账户,而消息收发客户端应用104可以维护第二用户账户。在实施方式中,可以由客户端设备102访问第三方应用105以执行各种活动和交互,例如听音乐、观看视频、跟踪锻炼、查看图形元素(例如,贴纸)、与其他用户通信等。
作为示例,第三方应用105可以是社交网络应用、约会应用、骑乘或汽车共享应用、购物应用、交易应用、游戏应用、成像应用、音乐应用、视频浏览应用、锻炼跟踪应用、健康监测应用、图形元素或贴纸浏览应用或者任何其他合适的应用。
消息收发客户端应用104允许用户访问摄像装置功能。消息收发客户端应用104的摄像装置功能激活客户端设备102的前置摄像装置并且在视频或图像正被捕获时在客户端设备102的显示屏上呈现由前置摄像装置捕获或接收的视频或图像。在实现方式中,前置摄像装置与呈现由前置摄像装置捕获的内容的屏幕集成或与呈现由前置摄像装置捕获的内容的屏幕放置在客户端设备102的同一侧。
在用户按下消息收发客户端应用104的合适按钮以存储由前置摄像装置捕获的图像或视频之后,消息收发客户端应用104允许用户查看或编辑捕获的图像。在一些情况下,可以呈现一种或更多种编辑工具来修改或编辑存储的图像。这样的编辑工具可以包括允许用户将文本添加到图像或视频的文本工具。这样的文本工具包括大文本选项、带字幕的化身选项、彩虹文本选项、脚本文本选项等。
响应于接收到用户对带字幕的化身选项的选择,消息收发客户端应用104检索用户的化身。化身呈现在捕获的图像或视频的顶部上,并包括文本录入区域。在一些情况下,化身最初呈现为具有中性表达(例如,不微笑或不悲伤)。在一些实施方式中,化身呈现为具有可以由用户选择的默认表达。文本录入区域可以靠近化身,例如在化身上方或下方。文本录入区域允许用户输入文本字符串。随着用户键入文本字符串的词,字符串以圆形方式环绕化身以包围化身。
在一些实施方式中,消息收发客户端应用104处理和分析用户输入的文本字符串的一个或更多个词。消息收发客户端应用104基于文本字符串的一个或更多个词来确定字符串的上下文。例如,如果字符串包括积极或快乐的词(例如,高兴、兴奋、欣喜若狂、印象深刻等),则消息收发客户端应用104将上下文确定为积极或快乐。作为响应,消息收发客户端应用104检索相关联的或表示积极或快乐情绪的化身表达。一旦上下文被确定为表示检索到的化身表达,消息收发客户端应用104立即修改化身表达。以此方式,随着用户在字幕中键入文本字符串的词,消息收发客户端应用104动态地调整和修改化身的表达以表示文本字符串中消息的情绪或上下文。例如,如果用户在积极或快乐的词之后以及在化身表达被修改之后输入了附加词,则化身表达可能会根据附加词的上下文而改变。即,附加词可以被确定为与兴奋的上下文相关联。作为响应,消息收发客户端应用104将化身的表达从表示积极或快乐的表达修改为表示兴奋的表达。
在一些实施方式中,消息收发客户端应用104可以确定文本字符串中的一个或更多个词代表消息收发应用的另一用户。例如,一个或更多个词可以具体标识另一用户的用户名,或者可以包括与另一用户唯一相关联的属性。作为响应,消息收发客户端应用104检索其他用户的第二化身并且将第二化身与编写消息的用户的第一化身一起呈现。在这样的情况下,可以修改两个化身的表达以表示由用户编写的消息的上下文。在一些情况下,可以修改与编写文本字符串的用户的第一化身对应的表达以表示与用户相关联的消息中的第一上下文,并且可以修改与文本字符串中提到的其他用户的第二化身对应的表达以表示第二上下文。例如,用户可以输入字符串“我很高兴,但约翰·史密斯很伤心”。在这样的情况下,可以修改该用户的化身的表达以表示快乐的上下文,并且可以修改另一个用户约翰·史密斯的化身以表示悲伤的上下文。
在一些情况下,消息收发客户端应用104确定用户已经启动摄像装置以从与一个或更多个其他用户的对话中捕获图像或视频。在这样的情况下,任何图像或视频以及由该图像或视频组成的消息可以被自动定向到与用户进行对话的一个或更多个其他用户。在这样的情况下,当用户选择带字幕的化身选项时,消息收发客户端应用104可以自动检索参与对话的每个用户的化身。消息收发客户端应用104可以基于用户输入的字幕或文本字符串的上下文来修改正在呈现的所有化身的表达。
在用户完成使用化身编写字幕之后,消息收发客户端应用104可以从用户接收选择发送选项的输入。作为响应,消息收发客户端应用104将由用户捕获的图像或视频与具有使图像或视频增强的字幕的化身发送至一个或更多个指定的接收者。指定的接收者可以由用户在编写消息后手动输入。替选地,当从与对话成员的对话中启动用于捕获包括带字幕的化身的图像或视频的摄像装置时,可以自动填充指定的接收者以包括对话的所有成员。
消息收发服务器系统108经由网络106向特定消息收发客户端应用104提供服务器端功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端应用104或由消息收发服务器系统108执行,但是应当理解,某些功能的位置在消息收发客户端应用104或消息收发服务器系统108内是设计选择。例如,在技术上优选的是:可以最初将某些技术和功能部署在消息收发服务器系统108内,但是稍后将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端应用104。
消息收发服务器系统108支持向消息收发客户端应用104提供的各种服务和操作。这样的操作包括向消息收发客户端应用104发送数据、从消息收发客户端应用104接收数据、以及对由消息收发客户端应用104生成的数据进行处理。该数据可以包括消息内容、客户端设备信息、图形元素、地理位置信息、媒体注释和覆盖、虚拟对象、消息内容持久性条件、社交网络信息和生活事件信息作为示例。通过经由消息收发客户端应用104的用户接口(UI)(例如,图形用户接口)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,API服务器110耦接至应用服务器112并向应用服务器112提供编程接口。应用服务器112通信地耦接至数据库服务器118,数据库服务器118便于访问数据库120,在该数据库120中存储有与通过应用服务器112处理的消息相关联的数据。
具体处理API服务器110,该服务器110在客户端设备102与应用服务器112之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,API服务器110提供一组接口(例如,例程和协议),由消息收发客户端应用104和第三方应用105可以调用或查询该组接口以激活应用服务器112的功能。API服务器110展示由应用服务器112支持的各种功能,包括:帐户注册;登录功能;经由应用服务器112将消息从特定消息收发客户端应用104发送至另一个消息收发客户端应用104或第三方应用105;将媒体文件(例如,图形元素、图像或视频)从消息收发客户端应用104发送至消息收发服务器应用114,并供另一消息收发客户端应用104或第三方应用105可能访问;图形元素列表;媒体数据集合(例如,故事)的设置;这样的集合的检索;客户端设备102的用户的朋友列表的检索;消息和内容的检索;在社交图中添加和删除朋友;朋友在社交图中的位置;访问用户对话数据;访问存储在消息收发服务器系统108上的化身信息;以及打开应用事件(例如,与消息收发客户端应用104有关)。
应用服务器112托管若干应用和子系统,包括消息收发服务器应用114、图像处理系统116、社交网络系统122以及上下文敏感化身系统124。消息收发服务器应用114实现了若干消息处理技术和功能,特别是与从消息收发客户端应用104的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理有关的消息处理技术和功能。如将进一步详细描述的,来自多个来源的文本和媒体内容可以聚合成内容集合(例如,称为故事或画廊)。然后,由消息收发服务器应用114使这些集合对消息收发客户端应用104可用。鉴于对这样的处理的硬件要求,也可以由消息收发服务器应用114在服务器端执行数据的其他处理器和存储器密集型处理。
应用服务器112还包括图像处理系统116,该图像处理系统116通常关于在消息收发服务器应用114处的消息的有效载荷内接收到的图像或视频,专用于执行各种图像处理操作。图像处理系统116的一部分也可以由上下文敏感化身系统124实现。
社交网络系统122支持各种社交联网功能和服务并使这些功能和服务可用于消息收发服务器应用114。为此,社交网络系统122维护和访问数据库120内的实体图。由社交网络系统122支持的功能和服务的示例包括识别特定用户与之有关系或“跟随”的消息收发系统100的其他用户,以及识别特定用户的其他实体和兴趣。这样的其他用户可以被称为用户的朋友。社交网络系统122可以访问与用户的每个朋友相关联的位置信息,以确定他们住在哪里或当前的地理位置。社交网络系统122可以维护用户的每个朋友的位置简档,指示用户的朋友居住的地理位置。
上下文敏感化身系统124基于与化身相关联的字幕的上下文动态地修改化身的表达。例如,上下文敏感化身系统124接收用户对带字幕的化身选项的选择。上下文敏感化身系统124呈现用户的化身和文本录入区域。随着用户在文本录入区域中键入词,上下文敏感化身系统124确定文本录入区域中的一个或更多个词的上下文。在一些情况下,上下文敏感化身系统124确定与文本录入区域中的一个或更多个词相关联的多个上下文。上下文敏感化身系统124基于相关性对多个上下文进行排序,并且选择与最高排名相关联的给定上下文。上下文敏感化身系统124检索与给定上下文相关联的化身表达,并且修改化身的表达以表示检索到的化身表达。在一些情况下,上下文敏感化身系统124呈现带字幕的多个化身,并且基于字幕的上下文修改所有化身的表达。
应用服务器112被通信地耦接至数据库服务器118,该数据库服务器118有助于访问其中存储了与由消息服务器应用114处理的消息相关联的数据的数据库120。数据库120可以是第三方数据库。例如,应用服务器112可以与第一实体相关联,并且数据库120或数据库120的一部分可以与第二不同实体相关联并由第二不同实体托管。在一些实现方式中,数据库120存储第一实体收集的关于由第一实体提供的服务的用户中的每个用户的用户数据。例如,用户数据包括用户名、电话号码、密码、地址、朋友、活动信息、偏好、由用户消费的视频或内容等。
图2是示出根据某些示例实施方式的可以存储在消息收发服务器系统108的数据库120中的数据的示意图200。虽然数据库120的内容被示为包括若干表,但是应当理解,数据可以存储在其他类型的数据结构中(例如,作为面向对象的数据库)。
数据库120包括存储在消息表214内的消息数据。实体表202存储实体数据,包括实体图204。在实体表202内维护记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。每个实体被提供有唯一标识符,以及实体类型标识符(未示出)。
实体图204存储关于实体之间的关系和关联的信息。仅举例而言,这样的关系可以是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣的或基于活动的。
消息表214可以存储用户与一个或更多个朋友或实体之间的对话集合。消息表214可以包括每个对话的各种属性,例如参与者列表、对话的大小(例如,用户的数目和/或消息的数目)、对话的聊天颜色、对话的唯一标识符以及任何其他对话相关的特征。
数据库120还在注释表212中以过滤器的示例形式存储注释数据。数据库120还存储在注释表212中接收到的注释内容。在注释表212中存储数据的过滤器是与视频和/或图像相关联并被应用于视频(其数据存储在视频表210中)和/或图像(其数据存储在图像表208中)。在一个示例中,过滤器是在呈现给接收方用户期间显示为覆盖在图像或视频上的覆盖。过滤器可以是各种类型的,包括当发送方用户正在编写消息时由消息收发客户端应用104呈现给发送方用户的过滤器图库中用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送方用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理位置信息,由消息收发客户端应用104在UI内呈现特定于附近或特殊位置的地理位置过滤器。另一种类型的过滤器是数据过滤器,其可以由消息收发客户端应用104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送方用户。数据过滤器的示例包括特定位置处的当前温度、发送方用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表208内的其他注释数据是增强现实数据或LENSES。增强现实数据可以是可以添加到图像或视频中的实时特殊效果和声音。
如上所述,LENSES、覆盖、图像变换、AR图像和类似术语指的是可以对视频或图像进行的修改。这包括实时修改,实时修改在图像通过使用设备传感器被捕获,然后在修改的情况下被显示在设备的屏幕上时修改图像。这还包括对存储内容——例如,可以修改的图库中的视频剪辑——的修改。例如,在具有对多个LENSES的访问的设备中,用户可以使用具有多个LENSES的单个视频剪辑来查看不同LENSES将如何修改存储的剪辑。例如,通过为同一内容选择不同的LENSES,可以将应用不同伪随机运动模型的多个LENSE应用于同一内容。类似地,实时视频捕获可以与图示的修改一起使用,以显示当前由设备的传感器捕获的视频图像将如何修改捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者设备传感器捕获的内容可以在有或没有修改的情况下(或两者)被记录并被存储在存储器中。在一些系统中,预览功能可以示出不同LENSES同时在显示器的不同窗口中看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
使用LENSES的数据和各种系统或者使用该数据来修改内容的其他这样的变换系统因此可以涉及:对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测;在这样的对象离开视频帧中的视场、进入视频帧中的视场以及在视频帧中的视场四处移动时对这样的对象的跟踪;以及在这样的对象被跟踪时对这样的对象的修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。例如,一些实施方式可以涉及生成一个或多个对象的三维网格模型,并在视频内使用模型的变换和动画纹理来实现变换。在其他实施方式中,可以使用对对象上的点的跟踪来放置所跟踪的位置处的图像或纹理(其可以是二维或三维的)。在更进一步的实施方式中,可以使用视频帧的神经网络分析来放置内容(例如,图像或视频帧)中的图像、模型或纹理。因此,LENS数据既指用于在内容中创建变换的图像、模型和纹理,也指利用对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人脸和人体的各部分、动物或者非生物例如椅子、汽车或其他对象。
在一些实施方式中,当特定修改与要变换的内容一起被选择时,要变换的元素由计算设备识别,然后在它们存在于视频的帧中的情况下被检测和跟踪。根据修改请求修改对象的元素,从而变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要是指对象的元素的变化形式的帧变换,对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)被计算。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,针对每个元素的提及的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点和修改请求针对每个元素生成一组第二点。然后,可以通过基于该组第一点和该组第二点以及网格修改对象的元素来变换视频流的帧。在这样的方法中,也可以通过跟踪和修改背景来改变或扭曲经修改的对象的背景。
在一个或更多个实施方式中,可以通过计算对象的每个元素的特征点并基于计算的特征点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,并且然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而变换视频流的帧。根据具体修改请求,可以以不同的方式变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及修改或扭曲区域或对象的元素。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些实施方式中,使用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
在其他实施方式中,可以使用适合于面部检测的其他方法和算法。例如,在一些实施方式中,使用界标来定位特征,该界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可识别(例如,如果人有眼罩),则可以使用次要界标。这样的界标识别过程可以用于任何这样的对象。在一些实施方式中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为向量。一个形状利用相似变换(允许平移、缩放和旋转)与另一个形状对准,该相似变换使形状点之间的平均欧几里德距离最小化。平均形状是对准的训练形状的平均。
在一些实施方式中,开始从与由全局面部检测器确定的面部的位置和大小对准的平均形状对界标的搜索。然后,这样的搜索重复以下操作的步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的定位来建议暂定形状;以及使暂定形状符合全局形状模型,直到发生收敛。在一些系统中,个别模板匹配是不可靠的,并且形状模型将弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每个级别上重复。
变换系统的实施方式可以在客户端设备上捕获图像或视频流,并在客户端设备例如客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状改变、情绪迁移(例如,将面部从皱眉改变为微笑)、状态迁移(例如,使被摄体变老、减小表观年龄、改变性别)、风格迁移、图形元素应用、以及由已经被配置成在客户端设备上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例实施方式中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),该神经网络操作为在客户端设备102上操作的消息收发客户端104的一部分。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以被呈现为与本文中描述的接口相关联。修改图标包括以下改变,该改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映所选择的修改图标(例如,在用户上生成笑脸)的过程。在一些实施方式中,一旦图像或视频流被捕获并且指定的修改被选择,则修改的图像或视频流可以呈现在移动客户端设备上显示的图形用户接口中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用所选择的修改。也就是说,一旦修改图标被选择,则用户可以捕获图像或视频流并且实时或接近实时地被呈现修改的结果。此外,当正在捕获视频流时,修改可以是持久的,并且所选择的修改图标保持被切换。机器教导的神经网络可以用于实现这样的修改。
在一些实施方式中,图形用户接口——其呈现由变换系统执行的修改——可以为用户供应附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的内容捕获和选择的接口(例如,来自内容创建者用户接口的发起)。在各种实施方式中,修改可以在对修改图标的初始选择之后是持久的。用户可以通过轻击或以其他方式选择由变换系统修改的面部来开启或关闭修改,并将其存储以供以后查看或浏览到成像应用的其他区域。在由变换系统修改多个面部的情况下,用户可以通过轻击或选择在图形用户接口内修改和显示的单个面部来全局开启或关闭修改。在一些实施方式中,可以单独地修改一组多个面部之中的各个面部,或者可以通过轻击或选择图形用户接口内显示的各个面部或一系列各个面部来单独切换这样的修改。
如上所述,视频表210存储视频数据,在一个实施方式中,该视频数据与在消息表214中维护其记录的消息相关联。类似地,图像表208存储与消息数据被存储在实体表202中的消息相关联的图像数据。实体表202可以将来自注释表212的各种注释与存储在图像表208和视频表210中的各种图像和视频相关联。
化身表达列表207存储与不同上下文相关联的不同化身表达的列表。例如,化身表达列表207可以存储不同的化身纹理,每个化身纹理与不同的上下文相关联。化身纹理可以被检索并用于修改一个或更多个用户的化身以表示与化身纹理相关联的上下文。
上下文列表209存储与不同词或词组合相关联的不同上下文的列表。化身表达列表207存储上下文敏感化身系统124用来处理文本字符串以得到或确定文本字符串的上下文的规则列表。
故事表206存储与消息和相关联的图像、视频或音频数据的集合有关的数据,这些数据被编译成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,在实体表202中为其维护记录的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端应用104的UI可以包括用户可选择的图标,以使得发送方用户能够将特定内容添加到他或她的个人故事。
集合还可以构成“生活故事”,其是来自多个用户的内容的集合,该集合是手动、自动或使用手动和自动技术的组合创建的。例如,“生活故事”可以构成来自各种位置和事件的用户提交内容的策划流。其客户端设备启用了位置服务并且在特定时间处于共同位置事件处的用户可以例如经由消息收发客户端应用104的UI被呈现有选项,以将内容贡献给特定生活故事。可以由消息收发客户端应用104基于用户的位置向他或她标识生活故事。最终结果是从社区视角讲述的“生活故事”。
另外类型的内容集合被称为“位置故事”,其使得其客户端设备102位于特定地理位置(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些实施方式中,对位置故事的贡献可能需要二级认证以验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
图3是示出根据一些实施方式的消息300的结构的示意图,消息300由消息收发客户端应用104生成,以用于传送至另外的消息收发客户端应用104或消息收发服务器应用114。特定消息300的内容用于填充存储在数据库120中的消息表214,该消息表214可由消息服务器应用114访问。类似地,消息300的内容被存储在存储器中作为客户端设备102或应用服务器112的“在途”或“飞行中”的数据。消息300被示为包括以下组成部分:
·消息标识符302:识别消息300的唯一标识符。
·消息文本有效载荷304:要由用户经由客户端设备102的UI生成并且包括在消息300中的文本。
·消息图像有效载荷306:由客户端设备102的摄像装置部件捕获的或从客户端设备102的存储器检索到的、并且包括在消息300中的图像数据。
·消息视频有效载荷308:由摄像装置部件捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息300中的视频数据。
·消息音频有效载荷310:由麦克风捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息300中的音频数据。
·消息注释312:表示要应用于消息300的消息图像有效载荷306、消息视频有效载荷308或消息音频有效载荷310的注释的注释数据(例如,过滤器、贴纸或其他增强物)。
·消息持续时间参数314:参数值,其指示消息的内容(例如,消息图像有效载荷306、消息视频有效载荷308、消息音频有效载荷310)将经由消息收发客户端应用104被呈现给用户或使其对于用户可访问的以秒为单位的时间量。
·消息地理位置参数316:与消息的内容有效载荷相关联的地理位置数据(例如,纬度和经度坐标)。在有效载荷中可以包括多个消息地理位置参数316值,其中这些参数值中的每一个都与包括在内容中的内容项(例如,消息图像有效载荷306内的特定图像,或消息视频有效载荷308中的特定视频)相关联。
·消息故事标识符318:识别一个或更多个内容集合(例如,“故事”)的标识符值,消息300的消息图像有效载荷306中的特定内容项与所述一个或更多个内容集合相关联。例如,消息图像有效载荷306内的多个图像可以各自与使用标识符值的多个内容集合相关联。
·消息标签320:每个消息300可以用多个标签来标记,每个标签都指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷306中包括的特定图像描绘动物(例如狮子)的情况下,可以在消息标签320中包括指示相关动物的标签值。标签值可以基于用户输入手动地生成,或者可以使用例如图像识别自动地生成。
·消息发送者标识符322:指示在其上生成消息300并且从其发送消息300的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符324:针对其指示消息300被寻址的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。在多个用户之间的对话的情况下,标识符可以指示对话中涉及的每个用户。
消息300的各种组成部分的内容(例如,值)可以是指向表中的存储内容数据值的位置的指针。例如,消息图像有效载荷306中的图像值可以是指向图像表208内的位置(或地址)的指针。类似地,消息视频有效载荷308内的值可以指向存储在视频表210内的数据,存储在消息注释312中的值可以指向存储在注释表212中的数据,存储在消息故事标识符318中的值可以指向存储在故事表206中的数据,并且存储在消息发送者标识符322和消息接收者标识符324中的值可以指向存储在实体表202中的用户记录。
图4是示出根据示例实施方式的示例上下文敏感化身系统124的框图。上下文敏感化身系统124包括化身字幕模块414、上下文分析模块416和化身表达修改模块418。
用户启动消息收发客户端应用104的图像捕获组件。作为响应,化身字幕模块414在客户端设备102的显示屏上呈现由客户端设备102的前置或后置摄像装置捕获的图像或视频。
化身字幕模块414向用户呈现一个或更多个编辑工具以修改在客户端设备102的屏幕上呈现给用户的图像或视频。编辑工具允许用户选择一个或更多个图形元素(例如,化身、文本、表达符号、图像、视频等)来对呈现给用户的图像或视频进行添加或增强。例如,用户可以在用户选择的位置向显示屏幕上呈现的图像或视频添加文本。在一些情况下,编辑工具允许用户选择带字幕的化身选项。
响应于接收到用户对带字幕的化身选项的选择,化身字幕模块414确定用户是否参与与一个或更多个其他用户的对话。即,化身字幕模块414响应于用户从与另一用户的对话中选择使用摄像装置回复的选项来确定图像或视频是否被捕获。响应于确定使用摄像装置回复的选项从对话中被选择以捕获图像,化身字幕模块414呈现与用户参与对话的每个用户的化身。化身呈现为具有在化身上方或下方的字幕录入区域。响应于确定用户当前未与对话中的另一成员进行接触(例如,未选择使用摄像装置回复的选项来捕获图像),化身字幕模块414向用户呈现在化身上方或下方具有字幕录入区域的一个化身。在这两种情况下(单个或多个化身呈现),随着用户键入用于字幕录入区域的文本字符串的词,由用户输入到字幕录入区域的文本以圆形方式环绕化身。
上下文分析模块416处理用户输入的文本字符串中的一个或更多个词。上下文分析模块416参考存储在上下文列表209中的词和/或规则,在用户键入词时分析一个或更多个词。上下文分析模块416生成用户键入的词的上下文列表,并且对生成的上下文列表进行排序。上下文分析模块416从生成的列表中选择与最高排名相关联的给定上下文。
在一些情况下,上下文分析模块416确定字符串中的哪些词与所呈现的哪个化身相关联。上下文分析模块416可以执行语义分析和处理以基于句子结构确定哪些词与特定化身相关联。例如,如果文本字符串是“我很快乐,而约翰·史密斯很伤心”,则上下文分析模块416确定快乐与正在输入表达的用户相关联,而悲伤与约翰·史密斯的化身相关联。在这样的情况下,上下文分析模块416检索并选择与特定词相关联的每个化身的上下文。替选地,上下文分析模块416将所有化身与来自上下文列表的相同最高排名的上下文相关联。
化身表达修改模块418接收由上下文分析模块416选择的一个或多个上下文。化身表达修改模块418从化身表达列表207检索与一个或多个所选择的上下文相关联的一个或多个纹理。例如,如果所选择的上下文是悲伤的,则化身表达修改模块418检索与悲伤上下文相关联的化身纹理。例如,如果所选择的上下文是悲伤和快乐的,则化身表达修改模块418检索与悲伤和快乐上下文相关联的化身纹理。
随着用户在字幕录入区域中键入文本字符串,化身表达修改模块418使用检索到的纹理来修改一个或多个化身的表达。化身表达修改模块418可以从上下文分析模块416接收标识所呈现的多个化身中的哪个化身与哪个上下文相关联的指示。例如,当上下文分析模块416确定第一化身与对应于第一上下文的词相关联并且第二化身与对应于第二上下文的词相关联时,上下文分析模块416将此信息提供给化身表达修改模块418。化身表达修改模块418然后使用与第一上下文相关联的第一纹理来修改第一化身的表达,并且使用与第二上下文相关联的第二纹理来修改第二化身的表达。
上下文分析模块416连续且动态地处理字幕录入区域的由用户输入的词,以连续且动态地排序和选择最适合字幕的上下文。当上下文分析模块416选择不同的上下文时,上下文分析模块416通知化身表达修改模块418基于不同的或新选择的上下文来修改化身的表达。以此方式,随着用户在字幕录入区域中键入字符串的词,一个或多个化身的表达会改变以表示上下文或字符串。
图5是示出根据示例实施方式的执行过程500中的上下文敏感化身系统124的示例操作的流程图。过程500可以以由一个或更多个处理器执行的计算机可读指令实现,使得过程500的操作可以部分地或全部地由消息收发服务器系统108和/或第三方应用105的功能部件执行;因此,下面参照其通过示例的方式描述过程500。然而,在其他实施方式中,过程500的操作中的至少一些操作可以部署在各种其他硬件配置上。因此,过程500并不旨在限于消息收发服务器系统108并且可以全部地或部分地由任何其他部件实现。过程500的操作中的一些操作或全部操作可以并行、无序或完全省略。
在操作501处,上下文敏感化身系统124接收输入,该输入选择用于使用带字幕的化身来生成消息的选项。例如,上下文敏感化身系统124确定用户已经使用移动设备的摄像装置捕获了图像并且已经输入了将文本添加到图像的请求。作为响应,上下文敏感化身系统124呈现包括带字幕的化身选项的文本插入选项的菜单。上下文敏感化身系统124接收用户从菜单对带字幕的化身选项的选择。
在操作502处,上下文敏感化身系统124呈现化身和靠近化身的字幕录入区域。例如,上下文敏感化身系统124检索与用户相关联的具有中性表达的化身。上下文敏感化身系统124在化身上方或下方呈现光标,该光标使用户能够输入文本字符串,该文本字符串包括以环形方式围绕化身的一个或更多个词。
在操作503处,上下文敏感化身系统124使用包括一个或更多个词的文本字符串来填充字幕录入区域。例如,上下文敏感化身系统124从在小键盘上输入字符的用户接收一个或更多个词。
在操作504处,上下文敏感化身系统124基于文本字符串中的一个或更多个词来确定上下文。例如,上下文敏感化身系统124在用户输入这些词时对这些词进行处理,以确定这些词是与积极还是消极的上下文相关联或者是与快乐还是悲伤的上下文相关联。
在操作505处,上下文敏感化身系统124基于确定的上下文修改化身的表达。例如,上下文敏感化身系统124检索与所确定的上下文相关联的化身的纹理,并且使用检索到的纹理来修改化身的表达。即,如果上下文被确定为悲伤的,则上下文敏感化身系统124将化身的表达从中性修改为悲伤的。
图6至图8是根据示例实施方式的上下文敏感化身系统124的说明性输入和输出。例如,如图6所示,在用户使用用户设备的摄像装置来捕获图像后,用户选择将文本添加到图像的选项。作为响应,上下文敏感化身系统124呈现具有多个文本录入类型的文本选项菜单630。例如,第一文本录入类型是“@”类型,该类型允许用户添加具有对另一个用户或主题的引用的文本。第二文本录入类型是允许用户输入文本并以非常大的字体或样式将文本添加到图像的大文本录入类型。第三文本录入类型是带字幕的化身选项632,其允许用户添加化身并在靠近化身的字幕录入区域中输入文本。第四文本录入类型是彩虹文本录入类型,该类型允许用户输入具有彩色属性的文本。第五文本录入类型是允许用户输入具有脚本属性的文本的脚本类型。
如屏幕601中所示,用户选择带字幕的化身选项632。作为响应,上下文敏感化身系统124检索与用户相关联的化身610,并且将化身610与字幕录入区域620一起呈现。上下文敏感化身系统124允许用户键入文本,并且如屏幕602所示,用户输入的字符串622以环形方式环绕化身612。此外,上下文敏感化身系统124确定在用户输入的字符串中的上下文是高兴的。例如,上下文敏感化身系统124确定词“高兴的”在字符串622中并且该词具有快乐的上下文。作为响应,上下文敏感化身系统124修改化身610的表达以具有如化身612所示的快乐表达。即,屏幕601中的化身610可以具有中性表达,并且化身612可以具有快乐表达以表示用户输入的字符串622的上下文。
屏幕603示出了另一个示例,其中用户输入的字符串被确定为具有悲伤的上下文。例如,该字符串可以包括由上下文敏感化身系统124确定为具有悲伤上下文的词“最糟的”。作为响应,化身610的表达被修改为具有如屏幕603中所示的悲伤表达。用户可以选择发送选项来指定消息的接收者,该消息包括由用户捕获的图像,该图像被增强成具有经修改的表达的带字幕的化身。
如图7所示,用户键入包括引用主题或用户的符号710(例如,“@”)的字符串。屏幕701包括带符号710的字符串,该符号引用另一个用户的用户名。作为响应,上下文敏感化身系统124检索与所引用的另一用户的用户名相关联的第二化身。上下文敏感化身系统124呈现两个化身720(一个代表编写字符串的用户,另一个代表第二用户)。化身720被具有符号710的字符串围绕,该符号710以环形方式环绕化身720。化身720被修改为具有与用户输入的字符串的上下文对应的表达。用户可以选择发送选项来指定消息的接收者,该消息包括由用户捕获的图像,该图像被增强成具有带包括符号710的字幕的化身720。
在一些实施方式中,用户从与另一用户的对话中选择使用摄像装置回复的选项。响应于用户选择使用摄像装置回复的选项,消息收发客户端应用104激活摄像装置并允许用户捕获图像或视频。在用户捕获图像或视频之后,用户可以通过从文本工具菜单中选择文本录入选项来使用文本增强图像或视频。响应于用户选择带字幕的化身选项,上下文敏感化身系统124确定用户在用户选择了使用摄像装置回复的选项时捕获了图像并且用户正参与与一个或更多个其他用户的对话。在这样情况下,上下文敏感化身系统124检索用户与其参与对话的每个用户的化身,并将所有化身连同字幕录入区域一起呈现在屏幕801上。用户可以在字幕录入区域输入字符串,并且字符串以环形方式环绕化身。基于用户输入的字符串的上下文来修改一个或更多个化身的表达。在一些情况下,上下文敏感化身系统124通过分析对话中的一个或更多个词(例如,用户之间先前交换的词)以及/或者通过分析由用户输入的字符串中的用于字幕的一个或更多个词(例如,用户之间以前没有交换过的词)来修改化身的表达。
在一些实施方式中,可以基于用户之间交换的最后消息中的一个或更多个词来确定当用户选择带字幕的化身选项时而呈现的化身的初始表达。然后基于用户在字幕录入区域中输入的字符串的一个或更多个词来修改化身的初始表达。例如,用户可能正参与与另一个用户约翰的对话。用户向约翰发送或从约翰接收的最后一条消息可能是“我今天很快乐”。上下文敏感化身系统124可以确定该消息的上下文是快乐的。响应于接收到用户对带字幕的化身选项的选择(在选择使用摄像装置回复的选项并捕获图像之后),上下文敏感化身系统124可以为用户和约翰呈现具有快乐表达的化身。然后,用户可以将字符串“今天不是个好日子”输入到字幕录入区域。上下文敏感化身系统124可以确定该字符串与悲伤的上下文相关联,并且作为响应,可以将用户和约翰的化身的表达从快乐的修改成悲伤的。然后,用户可以选择发送选项以向对话中涉及的所有用户发送消息。该消息包括由用户捕获的图像、具有经修改的表达的化身以及具有由用户输入的以环形方式环绕化身的字符串的字幕。消息的接收者是基于对话成员的身份自动选择的。
图9是示出示例软件架构906的框图,示例软件架构906可以与本文中描述的各种硬件架构结合使用。图9是软件架构的非限制性示例,并且应当理解的是,可以实现许多其他架构以促进本文中描述的功能。软件架构906可以在诸如图10的机器1000的硬件上执行,机器1000包括处理器1004、存储器1014和输入/输出(I/O)部件1018等。代表性硬件层952被示出并且可以表示例如图10的机器1000。代表性硬件层952包括具有相关联的可执行指令904的处理单元954。可执行指令904表示软件架构906的可执行指令,包括本文中描述的方法、部件等的实现。硬件层952还包括也具有可执行指令904的存储器和/或存储模块存储器/存储装置956。硬件层952还可以包括其他硬件958。
在图9的示例架构中,软件架构906可以被概念化为层的堆栈,在层的堆栈中,每个层提供特定的功能。例如,软件架构906可以包括诸如操作系统902、库920、框架/中间件918、应用916和表示层914的层。在操作上,层内的应用916和/或其他组件可以通过软件堆栈激活API调用908并且响应于API调用908而接收消息912。示出的层本质上是代表性的,并且并非所有软件架构都具有所有层。例如,一些移动操作系统或专用操作系统可能不提供框架/中间件918,而其他操作系统可能提供这样的层。其他软件架构可以包括附加的层或不同的层。
操作系统902可以管理硬件资源并且提供公共服务。操作系统902可以包括例如核心922、服务924和驱动器926。核心922可以用作硬件与其他软件层之间的抽象层。例如,核心922可以负责存储器管理、处理器管理(例如,调度)、部件管理、联网、安全设置等。服务924可以为其他软件层提供其他公共服务。驱动器926负责控制底层硬件或与底层硬件接口(interface)。例如,根据硬件配置,驱动器926包括显示器驱动器、摄像装置驱动器、
Figure BDA0003681659700000201
驱动器、闪速存储器驱动器、串行通信驱动器(例如,通用串行总线(USB)驱动器)、
Figure BDA0003681659700000202
驱动器、音频驱动器、电源管理驱动器等。
库920提供由应用916和/或其他部件和/或层使用的公共基础设施。库920提供如下功能,该功能允许其他软件组件以比与底层操作系统902的功能(例如,核心922、服务924和/或驱动器926)直接对接的方式更容易的方式来执行任务。库920可以包括系统库944(例如,C标准库),系统库944可以提供函数例如存储器分配函数、串操纵函数、数学函数等。此外,库920可以包括API库946,例如媒体库(例如,支持诸如MPREG4、H.264、MP3、AAC、AMR、JPG、PNG的各种媒体格式的呈现和操纵的库)、图形库(例如,可以用于在显示器上以图形内容呈现二维和三维的OpenGL框架)、数据库库(例如,可以提供各种关系数据库功能的SQLite)、web库(例如,可以提供web浏览功能的WebKit)等。库920还可以包括各种各样的其他库948,以向应用916和其他软件组件/模块提供许多其他API。
框架/中间件918(有时也称为中间件)提供可以由应用916和/或其他软件组件/模块使用的较高级别的公共基础设施。例如,框架/中间件918可以提供各种图形用户接口功能、高级资源管理、高级位置服务等。框架/中间件918可以提供可以由应用916和/或其他软件组件/模块利用的广范围的其他API,其中一些可以特定于特定操作系统902或平台。
应用916包括内置应用938和/或第三方应用940。代表性内置应用938的示例可以包括但不限于:联系人应用、浏览器应用、图书阅读器应用、位置应用、媒体应用、消息收发应用和/或游戏应用。第三方应用940可以包括由除特定平台的供应商之外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用,并且可以是在诸如IOSTM、ANDROIDTM
Figure BDA0003681659700000211
Phone的移动操作系统或其他移动操作系统上运行的移动软件。第三方应用940可以激活由移动操作系统(例如,操作系统902)提供的API调用908,以有利于本文中描述的功能。
应用916可以使用内置操作系统功能(例如,核心922、服务924和/或驱动器926)、库920以及框架/中间件918来创建UI以与系统的用户交互。替选地或另外地,在一些系统中,可以通过表示层例如表示层914发生与用户的交互。在这些系统中,应用/部件“逻辑”可以与应用/部件的与用户交互的方面分开。
图10是示出根据一些示例实施方式的能够从机器可读介质(例如,机器可读存储介质)读取指令并且执行本文中讨论的方法中的任何一种或更多种方法的机器1000的部件的框图。具体地,图10以计算机系统的示例形式示出了机器1000的示意图,在该机器1000中可以执行指令1010(例如,软件、程序、应用、小程序、app或其他可执行代码),以使机器1000执行本文讨论的方法中的任何一种或更多种方法。因此,指令1010可以被用来实现本文中描述的模块或部件。指令1010将通用的非编程的机器1000转换成被编程为以所描述的方式执行所描述和所示功能的特定机器1000。在替选实施方式中,机器1000作为独立设备操作或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1000可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1000可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1000采取的动作的指令1010的任何机器。此外,虽然仅示出了单个机器1000,但是术语“机器”还应被认为包括单独地或联合地执行指令1010以执行本文中讨论的任何一种或更多种方法的机器的集合。
机器1000可以包括处理器1004、存储器/存储装置1006和I/O部件1018,所述处理器1004、存储器/存储装置1006和I/O部件1018可以被配置成例如经由总线1002彼此通信。在示例实施方式中,处理器1004(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另一处理器或其任何合适的组合)可以包括例如可以执行指令1010的处理器1008和处理器1012。术语“处理器”旨在包括多核处理器1004,该多核处理器1004可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。虽然图10示出了多处理器1004,但是机器1000可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或者其任何组合。
存储器/存储装置1006可以包括诸如主存储器或其他存储器存储装置的存储器1014以及存储单元1016,存储器1014和存储单元1016两者例如经由总线1002由处理器1004访问。存储单元1016和存储器1014存储体现本文中描述的方法或功能中的任何一种或更多种的指令1010。指令1010还可以在其被机器1000执行期间完全地或部分地驻留在存储器1014内、在存储单元1016内、在处理器1004中的至少一个内(例如,在处理器的高速缓存存储器内)或者在其任何合适的组合内。因此,存储器1014、存储单元1016以及处理器1004的存储器是机器可读介质的示例。
I/O部件1018可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。包括在特定机器1000中的具体I/O部件1018将取决于机器的类型。例如,诸如移动电话的便携式机器很可能包括触摸输入设备或其他这样的输入机构,而无终端(headless)服务器机器很可能不包括这样的触摸输入设备。将理解,I/O部件1018可以包括图10中未示出的许多其他部件。I/O部件1018根据功能被分组仅为了简化以下讨论,并且该分组决不是限制性的。在各种示例实施方式中,I/O部件1018可以包括输出部件1026和输入部件1028。输出部件1026可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、听觉部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。输入部件1028可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和/或力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例实施方式中,I/O部件1018可以包括生物识别部件1039、运动部件1034、环境部件1036或定位部件1038连同广泛的其他部件。例如,生物统计部件1039可以包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1034可以包括:加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。环境部件1036可以包括例如照明传感器部件(例如,光度计)、温度传感器部件(例如,检测周围温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、听觉传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近物体的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。定位部件1038可以包括位置传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测可以根据其得到海拔的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。
可以使用各种各样的技术来实现通信。I/O部件1018可以包括通信部件1040,通信部件1040能够进行操作以经由耦接1024和耦接1222分别将机器1000耦接至网络1037或设备1029。例如,通信部件1040可以包括网络接口部件或其他合适的设备以与网络1037对接。在另外示例中,通信部件1040可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、
Figure BDA0003681659700000241
部件(例如,
Figure BDA0003681659700000242
低功耗)、
Figure BDA0003681659700000243
部件和经由其他模态提供通信的其他通信部件。设备1029可以是其他机器或各种外围设备中的任何一个外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1040可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1040可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速响应(QR)代码的多维条形码、Aztec代码、数据矩阵、数据符号(Dataglyph)、最大编码(MaxiCode)、PDF417、超代码(Ultra Code)、UCC RSS-2D条形码和其他光代码的光学传感器)或听觉检测部件(例如,用于识别标记的音频信号的麦克风)。此外,可以经由通信部件1040得到各种信息,如经由因特网协议(IP)地理位置的位置、经由
Figure BDA0003681659700000244
信号三角测量的位置、经由检测可以指示特定位置的NFC信标信号的位置等。
术语表:
该上下文中的“载波信号”是指能够存储、编码或携载由机器执行的暂态或非暂态指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以便于这样的指令的通信。可以使用暂态或非暂态传输介质经由网络接口设备并且使用多个公知的传输协议中的任何一个来通过网络发送或接收指令。
该上下文中的“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、PDA、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
该上下文中的“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、
Figure BDA0003681659700000245
网络、另一类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全局移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何一种,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电业务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动电信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他标准、其他远程协议或其他数据传输技术。
该上下文中的“短暂的消息”是指可以在时间有限的持续时间内访问的消息。短暂的消息可以是文本、图像、视频等。短暂的消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
该上下文中的“机器可读介质”是指能够临时或永久地存储指令和数据的部件、设备或其他有形介质,并且可以包括但不限于随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪速存储器、光学介质、磁介质、高速缓冲存储器、其他类型的存储装置(例如,可擦除可编程只读存储器(EEPROM))和/或它们的任何合适的组合。术语“机器可读介质”应当被视为包括能够存储指令的单个介质或多个介质(例如,集中式或分布式数据库或相关联的高速缓存和服务器)。术语“机器可读介质”还将被视为包括能够存储由机器执行的指令(例如,代码)的任何介质或多个介质的组合,使得指令在由机器的一个或更多个处理器执行时使机器执行本文中描述的任何一种或更多种方法。因此,“机器可读介质”指的是单个存储装置或设备,以及包括多个存储装置或设备的“基于云”的存储系统或存储网络。术语“机器可读介质”不包括信号本身。
该上下文中的“部件”是指具有由功能或子例程调用、分支点、API或者对特定处理或控制功能提供分区或模块化的其他技术定义的边界的设备、物理实体或逻辑。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件组件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例实施方式中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置成用于执行本文中描述的某些操作的硬件部件。
也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或ASIC。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件而配置,硬件部件就成为被独特地定制成执行所配置功能的特定机器(或机器的特定部件),而不再是通用处理器。将理解,可以出于成本和时间考虑来决定在专用且永久配置的电路中还是在临时配置(例如,由软件配置)的电路中机械地实现硬件部件。相应地,短语“硬件部件”(或者“硬件实现的部件”)应当被理解成包含有形实体,即为被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的实施方式,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置成专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处分别被配置为不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个或多个特定处理器以例如在一个时刻处构成特定硬件部件,并且在不同的时刻处构成不同的硬件部件。
硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过在两个或更多个硬件部件之间或之中的信号传输(例如,通过适当的电路和总线)来实现通信。在其中多个硬件部件在不同时间处被配置或实例化的实施方式中,可以例如通过将信息存储在多个硬件部件访问的存储器结构中并且在该存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在其通信地耦接到的存储器设备中。然后,其他硬件部件可以在随后的时间访问存储器设备以检索所存储的输出并对其进行处理。
硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源进行操作(例如,信息的收集)。本文所述的示例方法的各种操作可以至少部分地由临时地配置(例如,由软件)或永久地配置以执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器或处理器实现的部件来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或操作为“软件即服务”(SaaS)。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中,这些操作能够经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)进行访问。某些操作的执行可以分布在处理器之中,不是仅驻留在单个机器内,而是部署在多个机器中。在一些示例实施方式中,处理器或处理器实现的部件可以位于单个地理位置中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例实施方式中,处理器或处理器实现的部件可以跨若干地理位置分布。
该上下文中的“处理器”是指根据控制信号(例如,“命令”、“操作码”、“机器码”等)操纵数据值并且产生被用于操作机器的对应输出信号的任何电路或虚拟电路(通过在实际处理器上执行的逻辑模拟的物理电路)。例如,处理器可以是CPU、RISC处理器、CISC处理器、GPU、DSP、ASIC、RFIC或其任何组合。处理器还可以是具有可以同时执行指令的两个或更多个独立处理器(有时称为“核”)的多核处理器。
该上下文中的“时间戳”指的是识别某个事件何时发生的字符或编码信息的序列,例如,从而给出日期和一天中的时间,有时精确到几分之一秒。
在不脱离本公开内容的范围的情况下,可以对所公开的实施方式进行改变和修改。这些和其他改变或修改旨在被包括在本公开内容的范围内,并且在所附权利要求中被表达。

Claims (20)

1.一种方法,包括:
由消息收发应用的一个或更多个处理器接收输入,所述输入选择用于使用带字幕的化身来生成消息的选项;
由所述消息收发应用呈现所述化身和靠近所述化身的字幕录入区域;
由所述消息收发应用使用包括一个或更多个词的文本字符串来填充所述字幕录入区域;
由所述消息收发应用基于所述文本字符串中的所述一个或更多个词来确定上下文;以及
由所述消息收发应用基于所确定的上下文来修改所述化身的表达。
2.根据权利要求1所述的方法,其中,所述上下文随着用户输入所述文本字符串中的一个或更多个词中的每一个而被确定,并且其中,所述化身的所述表达随着所述上下文被确定而改变。
3.根据权利要求2所述的方法,还包括:
接收来自所述用户的包括所述一个或更多个词中的第一词的输入;
确定所述第一词对应于第一上下文;以及
使所述化身呈现有与所述第一上下文对应的第一表达。
4.根据权利要求3所述的方法,还包括:
在接收到来自所述用户的包括所述第一词的输入之后,接收来自所述用户的包括所述一个或更多个词中的第二词的输入;
确定所述第二词对应于与所述第一上下文不同的第二上下文;以及
将所述化身的表达从所述第一表达改变成与所述第二上下文对应的第二表达。
5.根据权利要求1所述的方法,其中,所述表达是快乐、悲伤、兴奋、困惑或担心中的至少一种。
6.根据权利要求1所述的方法,还包括:
存储将不同上下文与相应表达相关联的数据库;以及
从所述数据库中检索与所确定的上下文相关联的表达。
7.根据权利要求1所述的方法,还包括:
接收用于访问字幕工具的请求;以及
响应于所述请求,呈现包括多个文本录入类型的菜单,其中,所述多个文本录入类型之一包括所述带字幕的化身的文本录入类型。
8.根据权利要求1所述的方法,还包括将所述消息发送至第二用户,所述消息包括具有所修改的表达的所述化身以及由第一用户捕获的图像或视频,所述化身代表所述第一用户。
9.根据权利要求1所述的方法,其中,所述字幕录入区域被呈现在所述化身的上方或下方,并且其中,随着用户输入所述文本字符串中的所述一个或更多个词,所述字幕录入区域围绕所述化身弯曲。
10.根据权利要求1所述的方法,其中,所述化身是第一化身,所述方法还包括:
当接收到所述输入时,确定第一用户当前正参与与第二用户的对话;
响应于确定第一用户当前正参与与第二用户的对话,检索与所述第二用户相关联的第二化身,所述第一用户当前正参与与所述第二用户的对话;
呈现与所述第一用户相关联的所述第一化身和与所述第二用户相关联的所述第二化身;以及
呈现靠近所述第一化身和所述第二化身的所述字幕录入区域。
11.根据权利要求10所述的方法,还包括基于所确定的上下文来修改所述第一化身和所述第二化身的表达。
12.根据权利要求10所述的方法,还包括:
呈现包括在所述第一用户与所述第二用户之间交换的多个消息的对话界面;
接收用于从所述对话界面中选择摄像装置选项的输入;
使所述第一用户能够响应于接收到用于选择所述摄像装置选项的所述输入而使用摄像装置来捕获图像;以及
在捕获到所述图像后接收用于选择生成所述消息的选项的输入。
13.根据权利要求10所述的方法,还包括:
通过处理所述对话中的一个或更多个词来确定所述对话的上下文;以及
基于所述对话中的所述一个或更多个词来修改所述第一化身和所述第二化身的表达。
14.根据权利要求10所述的方法,还包括:
基于所述文本字符串中的所述一个或更多个词中的第一词来确定与所述第一用户相关联的第一上下文;
基于所述文本字符串中的所述一个或更多个词中的第二词来确定与所述第二用户相关联的第二上下文;以及
将具有与所述第一上下文对应的第一表达的所述第一化身与具有与所述第二上下文对应的第二表达的所述第二化身一起呈现。
15.根据权利要求1所述的方法,还包括:
基于所述文本字符串中的所述一个或更多个词来识别多个上下文;
基于相关性对所述多个上下文进行排序;以及
选择所述多个上下文中的与最高排名相关联的上下文作为所确定的上下文。
16.根据权利要求1所述的方法,其中,所述化身是与第一用户相关联的第一化身,所述方法还包括:
确定所述文本字符串中的一个或更多个词标识第二用户;
响应于确定所述文本字符串中的一个或更多个词标识所述第二用户,检索与所述第二用户相关联的第二化身;
呈现与所述第一用户相关联的所述第一化身和与所述第二用户相关联的所述第二化身;以及
呈现靠近所述第一化身和所述第二化身的所述字幕录入区域。
17.一种系统,包括:
处理器,其被配置成执行包括以下操作的操作:
由消息收发应用接收输入,所述输入选择用于使用带字幕的化身来生成消息的选项;
由所述消息收发应用呈现所述化身和靠近所述化身的字幕录入区域;
由所述消息收发应用使用包括一个或更多个词的文本字符串来填充所述字幕录入区域;
由所述消息收发应用基于所述文本字符串中的所述一个或更多个词来确定上下文;以及
由所述消息收发应用基于所确定的上下文来修改所述化身的表达。
18.根据权利要求17所述的系统,其中,所述上下文随着用户输入所述文本字符串中的所述一个或更多个词中的每一个而被确定,并且其中,所述化身的表达随着所述上下文被确定而改变。
19.一种包括指令的非暂态机器可读存储介质,所述指令在由机器的一个或更多个处理器执行时使所述机器执行包括以下操作的操作:
由消息收发应用接收输入,所述输入选择用于使用带字幕的化身来生成消息的选项;
由所述消息收发应用呈现所述化身和靠近所述化身的字幕录入区域;
由所述消息收发应用使用包括一个或更多个词的文本字符串来填充所述字幕录入区域;
由所述消息收发应用基于所述文本字符串中的所述一个或更多个词来确定上下文;以及
由所述消息收发应用基于所确定的上下文来修改所述化身的表达。
20.根据权利要求19所述的非暂态机器可读存储介质,其中,所述上下文随着用户输入所述文本字符串中的所述一个或更多个词中的每一个而被确定,并且其中,所述化身的表达随着所述上下文被确定而改变。
CN202080084728.0A 2019-12-09 2020-12-09 上下文敏感化身字幕 Pending CN114787813A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/707,635 2019-12-09
US16/707,635 US11128586B2 (en) 2019-12-09 2019-12-09 Context sensitive avatar captions
PCT/US2020/070884 WO2021119662A1 (en) 2019-12-09 2020-12-09 Context sensitive avatar captions

Publications (1)

Publication Number Publication Date
CN114787813A true CN114787813A (zh) 2022-07-22

Family

ID=76210420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080084728.0A Pending CN114787813A (zh) 2019-12-09 2020-12-09 上下文敏感化身字幕

Country Status (5)

Country Link
US (3) US11128586B2 (zh)
EP (1) EP4073761A4 (zh)
KR (1) KR20220108162A (zh)
CN (1) CN114787813A (zh)
WO (1) WO2021119662A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11582176B2 (en) 2019-12-09 2023-02-14 Snap Inc. Context sensitive avatar captions

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3765994A1 (en) * 2018-03-14 2021-01-20 Sony Corporation Method, electronic device and social media server for controlling content in a video media stream using face detection
US11438466B2 (en) * 2019-12-19 2022-09-06 HCL Technologies Italy S.p.A. Generating an automatic virtual photo album
US11348300B2 (en) * 2020-04-03 2022-05-31 Magic Leap, Inc. Avatar customization for optimal gaze discrimination
US11863513B2 (en) 2020-08-31 2024-01-02 Snap Inc. Media content playback and comments management
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US11470025B2 (en) 2020-09-21 2022-10-11 Snap Inc. Chats with micro sound clips
US11509612B2 (en) * 2020-12-15 2022-11-22 Microsoft Technology Licensing, Llc Modifying an avatar to reflect a user's expression in a messaging platform
US20220319075A1 (en) * 2021-03-30 2022-10-06 Snap Inc. Customizable avatar modification system
US11636654B2 (en) 2021-05-19 2023-04-25 Snap Inc. AR-based connected portal shopping
CN115469735A (zh) * 2021-05-28 2022-12-13 北京字节跳动网络技术有限公司 基于手势的交互方法、装置和客户端
US11941227B2 (en) * 2021-06-30 2024-03-26 Snap Inc. Hybrid search system for customizable media
US11983462B2 (en) 2021-08-31 2024-05-14 Snap Inc. Conversation guided augmented reality experience
US11880947B2 (en) 2021-12-21 2024-01-23 Snap Inc. Real-time upper-body garment exchange
US11949527B2 (en) 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat
US20230410440A1 (en) * 2022-06-21 2023-12-21 Snap Inc. Integrating augmented reality experiences with other components
US11870745B1 (en) 2022-06-28 2024-01-09 Snap Inc. Media gallery sharing and management
US11893166B1 (en) 2022-11-08 2024-02-06 Snap Inc. User avatar movement control using an augmented reality eyewear device

Family Cites Families (183)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7859551B2 (en) 1993-10-15 2010-12-28 Bulman Richard L Object customization and presentation system
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
US6279017B1 (en) * 1996-08-07 2001-08-21 Randall C. Walker Method and apparatus for displaying text based upon attributes found within the text
US6023270A (en) 1997-11-17 2000-02-08 International Business Machines Corporation Delivery of objects in a virtual world using a descriptive container
US6842779B1 (en) 1998-03-11 2005-01-11 Yasuo Nishizawa Agent accessory tool cooperating with integrated application on WEB server by HTTP protocol
US20020067362A1 (en) 1998-11-06 2002-06-06 Agostino Nocera Luciano Pasquale Method and system generating an avatar animation transform using a neutral face image
US6223165B1 (en) 1999-03-22 2001-04-24 Keen.Com, Incorporated Method and apparatus to connect consumer to expert
US6772195B1 (en) 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application
JP2001230801A (ja) 2000-02-14 2001-08-24 Sony Corp 通信システムとその方法、通信サービスサーバおよび通信端末装置
US6922685B2 (en) 2000-05-22 2005-07-26 Mci, Inc. Method and system for managing partitioned data resources
US20050206610A1 (en) 2000-09-29 2005-09-22 Gary Gerard Cordelli Computer-"reflected" (avatar) mirror
US8117281B2 (en) 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
US6910186B2 (en) 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
US7925703B2 (en) 2000-12-26 2011-04-12 Numedeon, Inc. Graphical interactive interface for immersive online communities
MXPA03000966A (es) 2002-02-28 2003-09-04 Pfizer Prod Inc Agentes antidiabeticos.
EP1495447A1 (en) 2002-03-26 2005-01-12 KIM, So-Woon System and method for 3-dimension simulation of glasses
KR100493525B1 (ko) 2002-05-03 2005-06-07 안현기 아바타 메일 제공시스템 및 방법
US8495503B2 (en) 2002-06-27 2013-07-23 International Business Machines Corporation Indicating the context of a communication
US7636755B2 (en) 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US7484176B2 (en) 2003-03-03 2009-01-27 Aol Llc, A Delaware Limited Liability Company Reactive avatars
US20070168863A1 (en) 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
US20070113181A1 (en) 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
KR20040091331A (ko) 2003-04-21 2004-10-28 홍지선 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장내용에 상응하는 아바타 표현 방법 및 시스템
KR100762629B1 (ko) 2003-08-26 2007-10-01 삼성전자주식회사 휴대단말기의 백업서비스 처리방법
US7342587B2 (en) 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US7468729B1 (en) 2004-12-21 2008-12-23 Aol Llc, A Delaware Limited Liability Company Using an avatar to generate user profile information
KR100714192B1 (ko) 2005-04-08 2007-05-02 엔에이치엔(주) 노출 부위가 가변되는 아바타 제공 시스템 및 그 방법
US20060294465A1 (en) 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
US20070150368A1 (en) * 2005-09-06 2007-06-28 Samir Arora On-line personalized content and merchandising environment
US7775885B2 (en) 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
BRPI0620945B1 (pt) 2005-12-31 2018-11-27 Tencent Tech Shenzhen Co Ltd método de exibição de um avatar 3-d e sistema de exibição de um avatar 3-d
US20070176921A1 (en) 2006-01-27 2007-08-02 Koji Iwasaki System of developing urban landscape by using electronic data
WO2007093813A1 (en) 2006-02-16 2007-08-23 Weeworld Limited Portable account information
WO2007130693A2 (en) 2006-05-07 2007-11-15 Sony Computer Entertainment Inc. Methods and systems for processing an interchange of real time effects during video communication
WO2007134402A1 (en) 2006-05-24 2007-11-29 Mor(F) Dynamics Pty Ltd Instant messaging system
US20080158222A1 (en) 2006-12-29 2008-07-03 Motorola, Inc. Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks
US8504926B2 (en) 2007-01-17 2013-08-06 Lupus Labs Ug Model based avatars for virtual presence
GB2447094B (en) 2007-03-01 2010-03-10 Sony Comp Entertainment Europe Entertainment device and method
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
ATE555433T1 (de) 2007-04-26 2012-05-15 Ford Global Tech Llc Emotives beratungssystem und verfahren
CN101071457B (zh) 2007-04-28 2010-05-26 腾讯科技(深圳)有限公司 一种网络游戏中改变角色形象的方法、装置以及服务器
WO2008141125A1 (en) 2007-05-10 2008-11-20 The Trustees Of Columbia University In The City Of New York Methods and systems for creating speech-enabled avatars
US9282377B2 (en) * 2007-05-31 2016-03-08 iCommunicator LLC Apparatuses, methods and systems to provide translations of information into sign language or other formats
WO2008151424A1 (en) 2007-06-11 2008-12-18 Darwin Dimensions Inc. Metadata for avatar generation in virtual environments
GB2450757A (en) 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
US20090016617A1 (en) 2007-07-13 2009-01-15 Samsung Electronics Co., Ltd. Sender dependent messaging viewer
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8146005B2 (en) 2007-08-07 2012-03-27 International Business Machines Corporation Creating a customized avatar that reflects a user's distinguishable attributes
US20090055484A1 (en) 2007-08-20 2009-02-26 Thanh Vuong System and method for representation of electronic mail users using avatars
US20090070688A1 (en) 2007-09-07 2009-03-12 Motorola, Inc. Method and apparatus for managing interactions
US8924250B2 (en) 2007-09-13 2014-12-30 International Business Machines Corporation Advertising in virtual environments based on crowd statistics
WO2009046342A1 (en) 2007-10-04 2009-04-09 Playspan, Inc. Apparatus and method for virtual world item searching
US20090106672A1 (en) 2007-10-18 2009-04-23 Sony Ericsson Mobile Communications Ab Virtual world avatar activity governed by person's real life activity
US8892999B2 (en) 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
US8151191B2 (en) 2007-12-07 2012-04-03 International Business Machines Corporation Managing objectionable material in 3D immersive virtual worlds
US20090158170A1 (en) 2007-12-14 2009-06-18 Rajesh Narayanan Automatic profile-based avatar generation
US20090177976A1 (en) 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US8495505B2 (en) 2008-01-10 2013-07-23 International Business Machines Corporation Perspective based tagging and visualization of avatars in a virtual world
EP2263190A2 (en) 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
EP3352107A1 (en) 2008-03-03 2018-07-25 NIKE Innovate C.V. Interactive athletic equipment system
US9744466B2 (en) 2008-03-13 2017-08-29 Mattel, Inc. Widgetized avatar and a method and system of creating and using same
US8832552B2 (en) 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
US20090265604A1 (en) 2008-04-21 2009-10-22 Microsoft Corporation Graphical representation of social network vitality
US20090300525A1 (en) 2008-05-27 2009-12-03 Jolliff Maria Elena Romera Method and system for automatically updating avatar to indicate user's status
US20090303984A1 (en) 2008-06-09 2009-12-10 Clark Jason T System and method for private conversation in a public space of a virtual world
US8095878B2 (en) 2008-06-23 2012-01-10 International Business Machines Corporation Method for spell check based upon target and presence of avatars within a virtual environment
US8839327B2 (en) 2008-06-25 2014-09-16 At&T Intellectual Property Ii, Lp Method and apparatus for presenting media programs
WO2010000300A1 (en) 2008-06-30 2010-01-07 Accenture Global Services Gmbh Gaming system
US20120246585A9 (en) 2008-07-14 2012-09-27 Microsoft Corporation System for editing an avatar
AU2009276721B2 (en) 2008-07-28 2015-06-18 Breakthrough Performancetech, Llc Systems and methods for computerized interactive skill training
US8384719B2 (en) 2008-08-01 2013-02-26 Microsoft Corporation Avatar items and animations
US8832201B2 (en) 2008-08-18 2014-09-09 International Business Machines Corporation Method, system and program product for providing selective enhanced privacy and control features to one or more portions of an electronic message
US8648865B2 (en) 2008-09-26 2014-02-11 International Business Machines Corporation Variable rendering of virtual universe avatars
US8108774B2 (en) 2008-09-26 2012-01-31 International Business Machines Corporation Avatar appearance transformation in a virtual universe
US8869197B2 (en) 2008-10-01 2014-10-21 At&T Intellectual Property I, Lp Presentation of an avatar in a media communication system
US8683354B2 (en) 2008-10-16 2014-03-25 At&T Intellectual Property I, L.P. System and method for distributing an avatar
US20100115426A1 (en) 2008-11-05 2010-05-06 Yahoo! Inc. Avatar environments
US8745152B2 (en) 2008-11-06 2014-06-03 Disney Enterprises, Inc. System and method for server-side avatar pre-rendering
US8458601B2 (en) 2008-12-04 2013-06-04 International Business Machines Corporation System and method for item inquiry and information presentation via standard communication paths
WO2010074786A2 (en) 2008-12-04 2010-07-01 Total Immersion Software, Inc. System and methods for dynamically injecting expression information into an animated facial mesh
US20100162149A1 (en) 2008-12-24 2010-06-24 At&T Intellectual Property I, L.P. Systems and Methods to Provide Location Information
US9220981B2 (en) * 2008-12-30 2015-12-29 International Business Machines Corporation Controlling attribute expression within a virtual environment
US9105014B2 (en) 2009-02-03 2015-08-11 International Business Machines Corporation Interactive avatar in messaging environment
KR101558553B1 (ko) 2009-02-18 2015-10-08 삼성전자 주식회사 아바타 얼굴 표정 제어장치
US20100227682A1 (en) 2009-03-04 2010-09-09 Microsoft Corporation Awarding of avatar items in video game environment
US20100251094A1 (en) * 2009-03-27 2010-09-30 Nokia Corporation Method and apparatus for providing comments during content rendering
US20110093780A1 (en) 2009-10-16 2011-04-21 Microsoft Corporation Advertising avatar
KR20110070056A (ko) 2009-12-18 2011-06-24 한국전자통신연구원 사용자 맞춤형 고품질 3d 아바타 생성 방법 및 그 장치
TWI434227B (zh) 2009-12-29 2014-04-11 Ind Tech Res Inst 動畫產生系統及方法
US8484158B2 (en) 2010-02-01 2013-07-09 International Business Machines Corporation Managing information about avatars across virtual worlds
US20110239136A1 (en) 2010-03-10 2011-09-29 Oddmobb, Inc. Instantiating widgets into a virtual social venue
US9086776B2 (en) 2010-03-29 2015-07-21 Microsoft Technology Licensing, Llc Modifying avatar attributes
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US8692830B2 (en) 2010-06-01 2014-04-08 Apple Inc. Automatic avatar creation
US8694899B2 (en) * 2010-06-01 2014-04-08 Apple Inc. Avatars reflecting user states
US8564621B2 (en) 2010-08-11 2013-10-22 International Business Machines Corporation Replicating changes between corresponding objects
JP2012065263A (ja) 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
US20130031475A1 (en) * 2010-10-18 2013-01-31 Scene 53 Inc. Social network based virtual assembly places
KR101514327B1 (ko) 2010-11-04 2015-04-22 한국전자통신연구원 얼굴 아바타 생성 장치 및 방법
US20120124458A1 (en) 2010-11-17 2012-05-17 Nazareno Brier Cruzada Social networking website & web-based system for collecting & presenting real-time user generated information on parties & events.
US20120130717A1 (en) 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
KR20120059994A (ko) 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
KR101445263B1 (ko) 2010-12-22 2014-09-30 주식회사 케이티 맞춤형 콘텐츠 제공 시스템 및 방법
US9839844B2 (en) 2011-03-01 2017-12-12 Disney Enterprises, Inc. Sprite strip renderer
WO2012126135A1 (en) 2011-03-21 2012-09-27 Intel Corporation Method of augmented makeover with 3d face modeling and landmark alignment
US20130103760A1 (en) 2011-04-11 2013-04-25 Robert K. Golding Location-sensitive virtual identity system, apparatus, method and computer-readable medium
WO2012139276A1 (en) 2011-04-11 2012-10-18 Intel Corporation Avatar facial expression techniques
US8989786B2 (en) 2011-04-21 2015-03-24 Walking Thumbs, Llc System and method for graphical expression during text messaging communications
US9241184B2 (en) 2011-06-01 2016-01-19 At&T Intellectual Property I, L.P. Clothing visualization
CN103765479A (zh) 2011-08-09 2014-04-30 英特尔公司 基于图像的多视点3d脸部生成
KR20130022434A (ko) 2011-08-22 2013-03-07 (주)아이디피쉬 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
US20130249948A1 (en) 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
US8559980B2 (en) 2011-09-02 2013-10-15 John J. Pujol Method and system for integrated messaging and location services
US8890926B2 (en) 2011-11-02 2014-11-18 Microsoft Corporation Automatic identification and representation of most relevant people in meetings
US9782680B2 (en) 2011-12-09 2017-10-10 Futurewei Technologies, Inc. Persistent customized social media environment
WO2013097139A1 (en) 2011-12-29 2013-07-04 Intel Corporation Communication using avatar
US8810513B2 (en) 2012-02-02 2014-08-19 Kodak Alaris Inc. Method for controlling interactive display system
US20130212501A1 (en) * 2012-02-10 2013-08-15 Glen J. Anderson Perceptual computing with conversational agent
WO2013120851A1 (en) * 2012-02-13 2013-08-22 Mach-3D Sàrl Method for sharing emotions through the creation of three-dimensional avatars and their interaction through a cloud-based platform
US20130257877A1 (en) 2012-03-30 2013-10-03 Videx, Inc. Systems and Methods for Generating an Interactive Avatar Model
US9402057B2 (en) 2012-04-02 2016-07-26 Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. Interactive avatars for telecommunication systems
US9357174B2 (en) 2012-04-09 2016-05-31 Intel Corporation System and method for avatar management and selection
US20130290449A1 (en) * 2012-04-25 2013-10-31 Origami Labs, Inc. Privacy-based social content broadcast systems and methods
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
JP5497931B2 (ja) 2012-05-30 2014-05-21 株式会社コナミデジタルエンタテインメント アプリケーション装置、アプリケーション装置の制御方法、及びプログラム
AU2013206649A1 (en) 2012-07-05 2014-01-23 Aristocrat Technologies Australia Pty Limited A gaming system and a method of gaming
US20140125678A1 (en) 2012-07-11 2014-05-08 GeriJoy Inc. Virtual Companion
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
US20150206349A1 (en) 2012-08-22 2015-07-23 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US9461876B2 (en) 2012-08-29 2016-10-04 Loci System and method for fuzzy concept mapping, voting ontology crowd sourcing, and technology prediction
WO2014036708A1 (en) 2012-09-06 2014-03-13 Intel Corporation System and method for avatar creation and synchronization
US9402576B2 (en) 2012-09-12 2016-08-02 International Business Machines Corporation Electronic communication warning and modification
US9314692B2 (en) 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
US9746990B2 (en) * 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
US9501942B2 (en) 2012-10-09 2016-11-22 Kc Holdings I Personalized avatar responsive to user physical state and context
US20140129343A1 (en) 2012-11-08 2014-05-08 Microsoft Corporation Dynamic targeted advertising avatar
US20140157153A1 (en) 2012-12-05 2014-06-05 Jenny Yuen Select User Avatar on Detected Emotion
US9256860B2 (en) 2012-12-07 2016-02-09 International Business Machines Corporation Tracking participation in a shared media session
US9990373B2 (en) 2013-02-06 2018-06-05 John A. Fortkort Creation and geospatial placement of avatars based on real-world interactions
WO2014145665A2 (en) * 2013-03-15 2014-09-18 Elitizen Enterprises, Inc. Mobile social content-creation application and integrated website
CN104995662B (zh) 2013-03-20 2020-08-11 英特尔公司 用于管理化身的设备和方法以及用于动画化化身的设备
WO2014153689A1 (en) 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
US9589357B2 (en) 2013-06-04 2017-03-07 Intel Corporation Avatar-based video encoding
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US9177410B2 (en) 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image
US9706040B2 (en) 2013-10-31 2017-07-11 Udayakumar Kadirvel System and method for facilitating communication via interaction with an avatar
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
WO2015070416A1 (en) 2013-11-14 2015-05-21 Intel Corporation Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices
US9361510B2 (en) 2013-12-13 2016-06-07 Intel Corporation Efficient facial landmark tracking using online shape regression method
US9544257B2 (en) 2014-04-04 2017-01-10 Blackberry Limited System and method for conducting private messaging
US9503845B2 (en) 2014-04-17 2016-11-22 Paypal, Inc. Image customization to enhance transaction experience
WO2015164951A1 (en) 2014-05-01 2015-11-05 Abbas Mohamad Methods and systems relating to personalized evolving avatars
US20160011758A1 (en) * 2014-07-09 2016-01-14 Selfie Inc. System, apparatuses and methods for a video communications network
US20160134840A1 (en) 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
US9898849B2 (en) 2014-11-05 2018-02-20 Intel Corporation Facial expression based avatar rendering in video animation and method
KR102374446B1 (ko) 2014-12-11 2022-03-15 인텔 코포레이션 아바타 선택 메커니즘
JP6462386B2 (ja) 2015-02-05 2019-01-30 任天堂株式会社 プログラム、通信端末及び表示方法
US9779327B2 (en) * 2015-08-21 2017-10-03 International Business Machines Corporation Cognitive traits avatar for similarity matching
US20180077095A1 (en) * 2015-09-14 2018-03-15 X Development Llc Augmentation of Communications with Emotional Data
US20170087473A1 (en) 2015-09-29 2017-03-30 Sportsworld, Inc. Virtual environments for managing and interacting with virtual sports leagues
US20170118145A1 (en) 2015-10-21 2017-04-27 Futurefly Ltd. Method of using emoji to control and enrich 3d chat environments
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
US20170199855A1 (en) 2016-01-11 2017-07-13 BuilderFish, LLC System and method for providing a time-based presentation of a user-navigable project model
US10249207B2 (en) * 2016-01-19 2019-04-02 TheBeamer, LLC Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
US9911073B1 (en) 2016-03-18 2018-03-06 Snap Inc. Facial patterns for optical barcodes
US20170312634A1 (en) 2016-04-28 2017-11-02 Uraniom System and method for personalized avatar generation, especially for computer games
US11112963B2 (en) 2016-05-18 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10657701B2 (en) 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US10573048B2 (en) 2016-07-25 2020-02-25 Oath Inc. Emotional reaction sharing
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
KR102596477B1 (ko) 2016-09-23 2023-11-02 애플 인크. 아바타 생성 및 편집
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10528801B2 (en) * 2016-12-07 2020-01-07 Keyterra LLC Method and system for incorporating contextual and emotional visualization into electronic communications
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10949872B2 (en) 2017-04-28 2021-03-16 Snap Inc. Methods and systems for server generation of interactive advertising with content collections
US10521948B2 (en) * 2017-05-16 2019-12-31 Apple Inc. Emoji recording and sending
US9980100B1 (en) 2017-08-31 2018-05-22 Snap Inc. Device location based on machine learning classifications
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
US20190325201A1 (en) 2018-04-19 2019-10-24 Microsoft Technology Licensing, Llc Automated emotion detection and keyboard service
US11128586B2 (en) 2019-12-09 2021-09-21 Snap Inc. Context sensitive avatar captions

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11582176B2 (en) 2019-12-09 2023-02-14 Snap Inc. Context sensitive avatar captions

Also Published As

Publication number Publication date
WO2021119662A1 (en) 2021-06-17
KR20220108162A (ko) 2022-08-02
US11582176B2 (en) 2023-02-14
EP4073761A1 (en) 2022-10-19
US20210176197A1 (en) 2021-06-10
US11128586B2 (en) 2021-09-21
EP4073761A4 (en) 2023-01-11
US20230155969A1 (en) 2023-05-18
US20210385180A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
US11582176B2 (en) Context sensitive avatar captions
US20200412975A1 (en) Content capture with audio input feedback
US11893790B2 (en) Augmented reality item collections
US11868590B2 (en) Interface to display shared user groups
CN115443641A (zh) 将第一用户界面内容组合到第二用户界面中
US11704005B2 (en) Collaborative achievement interface
US11653069B2 (en) Subtitle splitter
US11620795B2 (en) Displaying augmented reality content in messaging application
US20200412864A1 (en) Modular camera interface
KR102577630B1 (ko) 메시징 애플리케이션에서의 증강 현실 콘텐츠의 디스플레이
US11694411B2 (en) Passing augmented reality content between devices
KR20220160084A (ko) 튜토리얼 콘텐츠와 함께 증강 현실 콘텐츠를 디스플레이
US20230091214A1 (en) Augmented reality items based on scan
CN115516445A (zh) 对于检测到的对象对增强现实内容的基于语音的选择
WO2022213088A1 (en) Customizable avatar generation system
US20220319082A1 (en) Generating modified user content that includes additional text content
US11924153B2 (en) Messaging user interface element with reminders
US11340762B2 (en) Ranking augmented reality content based on messaging contacts
EP4315107A1 (en) Generating modified user content that includes additional text content

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination