CN116194184A - 用于同步用户的图形标记生成系统 - Google Patents
用于同步用户的图形标记生成系统 Download PDFInfo
- Publication number
- CN116194184A CN116194184A CN202180063899.XA CN202180063899A CN116194184A CN 116194184 A CN116194184 A CN 116194184A CN 202180063899 A CN202180063899 A CN 202180063899A CN 116194184 A CN116194184 A CN 116194184A
- Authority
- CN
- China
- Prior art keywords
- indicator
- region
- interactive graphical
- animation
- interactive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/53—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
- A63F13/537—Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/30—Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
- A63F13/35—Details of game servers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/44—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/45—Controlling the progress of the video game
- A63F13/48—Starting a game, e.g. activating a game device or waiting for other players to join a multiplayer session
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/63—Methods for processing data by generating or executing the game program for controlling the execution of the game in time
- A63F2300/636—Methods for processing data by generating or executing the game program for controlling the execution of the game in time involving process of starting or resuming a game
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
系统和方法涉及生成交互式图形标记,该交互式图形标记包括具有第一指示符的第一区域和具有第二指示符的第二区域,第二区域在第一区域的圆周周围。系统和方法还涉及监视交互式图形标记的动画,以检测第一指示符和第二指示符何时以预定的旋转角度对准,并且响应于检测到第一指示符和第二指示符对准,在第二计算设备和第三计算设备上发起交互式游戏应用。
Description
优先权要求
本申请要求2020年9月21日提交的美国专利申请序列号17/027,397的优先权的权益,其全部内容通过引用并入本文。
背景技术
随着基于移动的社交联网系统的普及持续增长,用户越来越多地相互共享和访问程序、游戏、照片或视频。在许多情况下,游戏应用、增强现实(AR)应用、AR游戏和其他形式的媒体内容项通常被唯一地个性化,并且因此反映了在全球范围内鼓励多人协作和电子视觉通信的需求。
社交联网系统每天有数百万用户。社交联网系统中的每个用户可以在她个人的社交联网简档内的成员之间或者向社交联网简档外的个人接收、访问和发送AR游戏和应用。
附图说明
在附图(不一定按比例绘制)中,相似的附图标记可以在不同的视图中描述类似的部件。为了容易地标识对任何特定元件或动作的讨论,附图标记中的一个最高有效数字或多个最高有效数字是指该元件首次引入时所在的图号。一些非限制性示例在附图的图中示出,在附图中:
图1是根据一些示例的其中可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧和服务器侧两者的功能的消息收发系统的图解表示。
图3是根据一些示例的在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是根据一些示例的访问限制过程的流程图。
图6是示出根据一些示例的交互式图形标记的界面图。
图7是示出根据一些示例的显示在第一计算设备上的图形标记的用户界面的界面图。
图8是示出根据一些示例的显示在第一、第二和第三计算设备上的图形标记的透视图。
图9是示出根据一些示例的显示在第二和第三计算设备上的同步启动的游戏应用的用户界面的界面图。
图10是示出根据一些示例的用于生成与游戏应用相关联的图形标记的方法1000的流程图。
图11是示出根据一些示例的用于生成与游戏应用相关联的图形标记的方法1100的流程图。
图12是根据一些示例的呈计算机系统的形式的机器的图解表示,在该机器中可以执行一组指令,以使该机器执行本文中讨论的方法中的任何一种或更多种。
图13是示出可以在其中实现示例的软件架构的框图。
图14是根据一些示例的处理环境的图解表示。
具体实施方式
随着社交媒体联网系统的多人游戏应用、媒体应用及其他AR应用和体验的不断增加,使想要在分开的设备上参与多人游戏的两个或更多个用户同步变得越来越困难。例如,如果多个用户聚集在一个房间中,并且每个玩家都想要登录到多人赛车游戏中,则比赛的开始将不会与每个玩家的设备同步,因为无论每个用户尝试多少次,赛车游戏将肯定会在不同的时间激活。即使房间中的用户口头上同意同时激活他们的设备,每个移动设备的处理器也将不会彼此同步地启动赛车游戏应用,这将至少延迟几毫秒。
在当今的工业中,多人游戏、AR媒体和其他游戏应用针对智能手机设备进行编程和确认,智能手机设备在技术结构、存储器和图形处理方面更加复杂。由于联网和数字的复杂性,当前的社交媒体联网系统无法在多人游戏体验中在多个用户的游戏启动时间之间进行同步并生成网络同步和连续性。
在至少一个示例中,提供了一种生成图形标记的系统,该图形标记渲染在如下设备上,其中多个用户设备使用其集成的设备摄像装置主动并同时检测和捕获图形标记。图形标记具有至少两个指示符,其中一个指示符位于图形标记周围的固定位置,并且另一个指示符围绕图形标记的圆周旋转。
当指示符围绕图形标记的圆周旋转时,或者当指示符围绕图形标记的圆周达到旋转角度时,指示符变成与固定指示符对准。在对准的时刻或达到指定或计算的旋转角度的时刻,游戏应用的同步开始被激活并渲染在同时检测到和捕获到图形标记的每个用户设备上。因此,每个用户在多人游戏的开始和结束时彼此准确地同步。
联网计算环境
图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,多个实例中的每个都托管多个应用,包括消息收发客户端104和其他应用106。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接到消息收发客户端104的其他实例(例如,在相应的其他客户端设备102上托管的)、消息收发服务器系统108和第三方服务器110。消息收发客户端104还可以使用应用程序接口(API)与本地托管的应用106通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并且交换数据。在消息收发客户端104之间以及消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及净荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能是位于消息收发客户端104内还是位于消息收发服务器系统108内可以是设计选择。例如,可能在技术上优选的是:最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体增强和覆盖、消息内容持久化条件、社交网络信息和实况事件信息。通过经由消息收发客户端104的用户接口(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器114提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120便于访问数据库126,该数据库126存储与通过应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息净荷)。具体地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),该组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。应用程序接口(API)服务器116公开由应用服务器114支持的各种功能,包括:帐户注册;登录功能;经由应用服务器114将消息从特定消息收发客户端104发送至另一消息收发客户端104;将媒体文件(例如,图像或视频)从消息收发客户端104发送至消息收发服务器118并且用于另一消息收发客户端104的可能访问;设置媒体数据集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;在实体图(例如社交图)中添加和删除实体(例如朋友);在社交图中定位朋友;以及打开应用事件(例如,与消息收发客户端104有关)。
应用服务器114托管若干服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122以及社交网络服务器124。消息收发服务器118实现了若干消息处理技术和功能,特别是与从消息收发客户端104的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理有关的消息处理技术和功能。如将进一步详细描述的,来自多个来源的文本和媒体内容可以被聚合成内容集合(例如,被称为故事或库)。然后,使这些集合对消息收发客户端104可用。鉴于对这样的处理的硬件要求,也可以由消息收发服务器118在服务器侧执行数据的其他处理器和存储器密集型处理。
应用服务器114还包括图像处理服务器122,该图像处理服务器122专用于执行各种图像处理操作,通常相对于在从消息收发服务器118发送或者在消息收发服务器118处接收的消息的净荷内的图像或视频,执行各种图像处理操作。
社交网络服务器124支持各种社交联网功能和服务并且使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护和访问数据库126内的实体图308(如图3所示)。由社交网络服务器124支持的功能和服务的示例包括识别特定用户与其有关系或“关注”其的消息收发系统100的其他用户,以及识别特定用户的兴趣和其他实体。
返回到消息收发客户端104,外部资源(例如,应用106或小应用)的特征和功能可以使得经由消息收发客户端104的界面对用户可用。在该上下文中,“外部”指的是应用106或小应用在消息收发客户端104外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端104的创建者或提供者提供。消息收发客户端104接收用户对发起或访问这种外部资源的特征的选项的选择。外部资源可以是安装在客户端设备102上的应用106(例如,“本地app”),或者可以是托管在客户端设备102上或者远离客户端设备102(例如,在第三方服务器110上)的小规模版本的应用(例如,“小应用”)。小规模版本的应用包括应用的特征和功能的子集(例如,全规模、本地版本的应用),并且使用标记语言文档来实现。在一个示例中,小规模版本的应用(例如“小应用”)是基于web的、标记语言版本的应用,并且被嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小应用可以并入脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到用户对发起或访问外部资源的特征的选项的选择,消息收发客户端104确定所选外部资源是基于web的外部资源还是本地安装的应用106。在一些情况下,本地安装在客户端设备102上的应用106可以独立于消息收发客户端104和与消息收发客户端104分离地发起,例如通过在客户端设备102的主屏幕上选择对应于应用106的图标来发起。小规模版本的这种应用可以经由消息收发客户端104发起或访问,并且在一些示例中,在消息收发客户端104之外不能访问小规模应用的任何部分或者能够访问小规模应用的有限部分。小规模应用可以通过消息收发客户端104从例如第三方服务器110接收与小规模应用相关联的标记语言文档并处理这样的文档来发起。
响应于确定外部资源是本地安装的应用106,消息收发客户端104指示客户端设备102通过执行对应于外部资源的本地存储的代码来发起外部资源。响应于确定外部资源是基于web的资源,消息收发客户端104与第三方服务器110(例如)通信以获得对应于所选外部资源的标记语言文档。消息收发客户端104然后处理所获得的标记语言文档,以在消息收发客户端104的用户界面内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这种用户相关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以为消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与由用户组的一个或更多个成员当前或最近使用外部资源相关的通知。可以邀请一个或更多个用户加入活动的外部资源,或者发起最近使用但当前不活动的(在朋友组中的)外部资源。外部资源可以为对话中的参与者——每个参与者使用各自的消息收发客户端104——提供与进入聊天会话中的用户组的一个或更多个成员共享外部资源中的项目、状况、状态或位置的能力。共享项目可以是交互式聊天卡,聊天成员可以与其交互,例如,以发起相应的外部资源,查看外部资源内的特定信息,或将聊天成员带到外部资源内的特定位置或状态。在给定的外部资源内,响应消息可以在消息收发客户端104上发送给用户。基于外部资源的当前上下文,外部资源可以选择性地在响应中包括不同的媒体项。
消息收发客户端104可以向用户呈现可用外部资源(例如,应用106或小应用)的列表,以发起或访问给定的外部资源。该列表可以在上下文相关的菜单中呈现。例如,表示应用106(或小应用)中的不同应用106的图标可以基于用户如何发起菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的进一步细节的框图。具体地,消息收发系统100被显示为包括消息收发客户端104和应用服务器114。消息收发系统100包含若干子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、外部资源系统214和图形标记生成系统216。
短暂定时器系统202负责强制由消息收发客户端104和消息收发服务器118对内容进行临时或限时访问。短暂定时器系统202包含若干个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的合集或集合(例如,文本、图像视频和音频数据的集合)。可以将内容(例如,消息,包括图像、视频、文本和音频)的集合组织成“事件图库”或“事件故事”。可以使这样的集合在指定的时间段内(例如,与内容相关的事件的持续时间)可用。例如,可以使与音乐会相关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供特定集合存在的通知的图标。
此外,集合管理系统204包括策展接口206,策展接口206使得集合管理者能够管理和策展特定内容集合。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容的集合(例如,删除不适当的内容或冗余消息)。此外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动向这样的用户支付使用其内容的费用。
增强系统208提供使得用户能够增强(例如,注释或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布用于由消息收发系统100处理的消息的媒体覆盖相关的功能。增强系统208基于客户端设备102的地理位置可操作地向消息收发客户端104提供媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104供应媒体覆盖。媒体覆盖可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色覆盖。可以将音频和视觉内容或视觉效果应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备102拍摄的照片之上的文本或图像。在另一示例中,媒体覆盖包括位置标识覆盖(例如,威尼斯海滩)、实时事件的名称或商家名称覆盖(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理位置来标识包括在客户端设备102的地理位置处的商家的名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他记号。媒体覆盖可以存储在数据库126中并且通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理位置并且上传与所选择的地理位置相关联的内容。用户还可以指定应当向其他用户提供特定媒体覆盖的情况。增强系统208生成包括所上传的内容并且将所上传的内容与所选择的地理位置相关联的媒体覆盖。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使商家能够经由竞价过程选择与地理位置相关联的特定媒体覆盖。例如,增强系统208将最高出价商家的媒体覆盖与相应的地理位置相关联达预定义时间量。
地图系统210提供各种地理位置功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以指示用户的“朋友”的当前或过去位置,以及由这些朋友在地图的上下文内生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,在消息收发客户端104的地图界面上,可以将用户从特定地理位置发布到消息收发系统100的消息在地图的该特定定位的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状况化身)共享他或她的位置和状况信息,其中该位置和状况信息在消息收发客户端104的地图界面的上下文内被类似地显示给选定用户。
游戏系统212在消息收发客户端104的上下文内提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可用游戏的列表,所述游戏可以由用户在消息收发客户端104的上下文内启动并且与消息收发系统100的其他用户一起玩。消息收发系统100还使特定用户能够通过从消息收发客户端104向这样的其他用户发出邀请来邀请其他用户参与玩特定游戏。消息收发客户端104还支持在玩游戏的上下文中的语音和文本消息收发(例如,聊天)两者,为游戏提供排行榜,并且还支持提供游戏内奖励(例如,钱币和物品)。
外部资源系统214为消息收发客户端104提供与远程服务器(例如第三方服务器110)通信的接口,以发起或访问外部资源,即应用或小应用。每个第三方服务器110托管例如基于标记语言(例如,HTML5)的应用或小规模版本的应用(例如,游戏、公用事业、支付或拼车应用)。消息收发客户端104可以通过从第三方服务器110访问与基于web的资源相关联的HTML5文件来发起基于web的资源(例如,应用)。在某些示例中,由第三方服务器110托管的应用利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript编程。SDK包括应用编程接口(API),其具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavaScript库,其提供对消息收发客户端104的某些用户数据的给定外部资源访问。HTML5被用作编程游戏的示例技术,但是也可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由第三方服务器110从消息收发服务器118下载,或者由第三方服务器110以其他方式接收。在下载或接收之后,SDK被包括为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能,以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供了外部资源(例如,应用106或小应用)与消息收发客户端104之间的桥梁。这向用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK促进第三方服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立了两个单向通信信道。消息经由这些通信信道在外部资源与消息收发客户端104之间异步发送。每个SDK功能激活都作为消息和回调发送。每个SDK功能都是通过构造唯一的回调标识符并发送带有该回调标识符的消息来实现的。
通过使用SDK,并非所有来自消息收发客户端104的信息均与第三方服务器110共享。SDK基于外部资源的需求限制共享哪些信息。在某些示例中,每个第三方服务器110向消息收发服务器118提供对应于基于web的外部资源的HTML5文件。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(例如盒子艺术或其他图形)。一旦用户选择视觉表示或通过消息收发客户端104的GUI指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104就获得HTML5文件并实例化访问基于web的外部资源的特征所必需的资源。
消息收发客户端104呈现外部资源的图形用户界面(例如,登录页面或标题屏幕)。在呈现登录页面或标题屏幕期间、之前或之后,消息收发客户端104确定所发起的外部资源先前是否已被授权访问消息收发客户端104的用户数据。响应于确定所发起的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的另一图形用户界面,该图形用户界面包括外部资源的功能和特征。响应于确定所发起的外部资源先前没有被授权访问消息收发客户端104的用户数据,在显示外部资源的登陆页面或标题屏幕的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动(例如,将菜单动画化为从屏幕的底部向屏幕的中间或其他部分显现)菜单以用于授权外部资源访问用户数据。该菜单标识外部资源将被授权进行使用的用户数据的类型。响应于接收到接受选项的用户选择,消息收发客户端104将外部资源添加到授权的外部资源列表,并允许外部资源访问来自消息收发客户端104的用户数据。在一些示例中,外部资源被消息收发客户端104根据OAuth 2框架授权以访问用户数据。
消息收发客户端104基于正被授权的外部资源的类型控制与外部资源共享的用户数据类型。例如,向包括全规模应用(例如,应用106)的外部资源提供对第一类型用户数据(例如,具有或不具有不同化身特征的仅用户的二维化身)的访问。作为另一示例,向包括小规模版本的应用(例如,基于web的版本的应用)的外部资源提供对第二类型用户数据(例如,支付信息、用户的二维化身、用户的三维化身以及具有各种化身特征的化身)的访问。化身特征包括定制化身的外观和感觉的不同方式,例如不同的姿势、面部特征、服装等等。
图形标记生成系统216提供在消息收发服务器系统108、消息收发客户端104和应用服务器114的上下文内生成交互式和动画化图形标记、游戏同步信号请求和其他图像或图标的功能和例程。图形标记生成系统216的操作在消息收发服务器系统104、消息收发客户端108、应用服务器110或第三方服务器处执行。在一些示例中,交互式图形标记使得用户能够同步从游戏系统212传送的游戏应用的开始或结束。游戏应用也可以从第三方服务器110、第三方应用1240、应用服务器114或消息收发客户端104传送。在一些示例中,通过计算位于围绕界面图形标记的圆周的不同点处的一个或更多个指示符的角度来确定对准的角度旋转。
在一些示例中,一旦指示符被对准,或者一旦满足旋转角度,图形标记生成系统216使得至少一个游戏应用能够在每个客户端设备上启动游戏应用的同步开始。图形标记生成系统216实现了图形标记的动画功能,其包括诸如旋转、平移或变形的动画功能。图形标记生成系统216还生成游戏同步信号请求并将其发送给每个客户端设备。游戏同步信号请求可以包括来自客户端设备102的请求消息,该请求消息包括客户端设备102已经捕获到在旋转动画期间以一定角度旋转对准的动画化图形标记指示符的逻辑和语法。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括多个表,但是应当理解,数据可以以其他类型的数据结构存储(例如,作为面向对象的数据库)。
数据库126包括存储在消息表302中的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和净荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据中的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接到实体图308和简档数据316。其记录保存在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。为每个实体提供唯一的标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅举例而言,这样的关系可以是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣的或基于活动的。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并且呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)、以及用户选择的化身表示(或这种化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容中以及在由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间进行通信的状态或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员和相关团体的各种设置(例如,通知)之外,团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如覆盖或过滤器。增强数据与视频(视频的数据存储在视频表304中)和图像(图像的数据存储在图像表312中)相关联并且应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆盖在图像或视频上的覆盖。过滤器可以是各种类型的,包括当发送用户正在编写消息时由消息收发客户端104呈现给发送用户的一组过滤器中用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理位置信息,由消息收发客户端104在用户接口内呈现特定于附近或特定位置的地理位置过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以添加至图像或视频的实时特效和声音。
如上所述,增强数据包括增强现实内容项、覆盖、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似项。这包括实时修改,其在使用客户端设备102的设备传感器(例如,一个或多个摄像装置)捕获图像时对图像进行修改然后在客户端设备102的屏幕上显示修改的图像。这还包括对所存储的内容的修改,诸如对可以被修改的图库中的视频剪辑的修改。例如,在具有对多个增强现实内容项的访问权限的客户端设备102中,用户可以使用具有多个增强现实内容项的单个视频剪辑来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过为内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该相同内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由客户端设备102的传感器捕获的视频图像将如何修改捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并且存储在存储器中。在某些系统中,预览功能可以显示不同的增强现实内容项同时在显示器的不同窗口内显示的情形。例如,这可以使得具有不同伪随机动画的多个窗口能够同时在显示器上被查看。
因此,使用增强现实内容项的数据和各种系统或者使用该数据修改内容的其他这样的变换系统可以涉及视频帧中对象(例如,脸、手、身体、猫、狗、表面、物体等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时跟踪这些对象,以及在跟踪这些对象时对其进行修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,以及在视频内使用模型的变换和动画化纹理来实现变换。在其他示例中,可以使用对象上的点的跟踪将图像或纹理(可以是二维或三维的)放置在所跟踪的位置处。在更进一步的示例中,可以使用对视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既指用于在内容中创建变换的图像、模型和纹理,也指通过对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何类型的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并且将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人的面部和人身体的各部分、动物或非生物(例如椅子、汽车或其他对象)。
在一些示例中,当与要变换的内容一起选择特定修改时,要变换的元素由计算设备识别,然后如果要变换的元素存在于视频的帧中,则被检测和跟踪。根据修改请求修改对象的元素,因此变换视频流的帧。针对不同类型的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要是指对象的元素的变化形式的帧变换,计算对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于在后续阶段跟踪视频流中对象的元素。在跟踪处理中,针对每个元素的提及的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点和修改的请求针对每个元素生成一组第二点。然后,可以通过基于该组第一点和该组第二点以及网格修改对象的元素来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来改变或扭曲所修改对象的背景。
在一些示例中,可以通过计算对象的每个元素的特征点并且基于计算的特征点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而对视频流的帧进行变换。根据具体的修改请求,提到的区域的属性可以以不同的方式进行变换。这种修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少某些部分;将一个或更多个新对象包括在基于修改请求的区域中;以及修改或扭曲区域或对象的元素。在各种示例中,可以使用这样的修改的任何组合或其他类似修改。针对某些要被动画化的模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,使用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的脸部区域以检测脸部特征参考点。
可以使用适合面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,针对面部界标,可以使用左眼瞳孔的位置。如果初始界标不可识别(例如,如果人有眼罩),则可以使用次级界标。这样的界标标识过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标来将形状表示为矢量。将一个形状通过相似变换(允许平移、缩放和旋转)与另一形状对准,该相似变换使形状点之间的平均欧几里得距离最小化。平均形状是对准的训练形状的平均值。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的平均形状开始搜索界标。然后,这样的搜索重复以下步骤直至发生收敛:通过每个点周围的图像纹理的模板匹配来调整形状点的位置从而建议暂定形状,然后使暂定形状符合全局形状模型。在一些系统中,个别的模板匹配是不可靠的,并且形状模型将弱模板匹配的结果进行池化,以形成更强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每个水平上重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并且在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状变化、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使被摄体变老、减少表观年龄、改变性别)、风格转换、图形元素应用、以及由已经被配置成在客户端设备102上有效执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍),该神经网络操作作为在客户端设备102上操作的消息收发客户端104的一部分。在消息收发客户端104内操作的变换系统确定图像或视频流中的面部的存在并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以被呈现为与本文中描述的界面相关联。修改图标包括改变,所述改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,变换系统就发起转换用户的图像以反映所选择的修改图标(例如,在用户上生成笑脸)的过程。一旦图像或视频流被捕获并且指定的修改被选择,修改的图像或视频流就可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以在图像或视频流的一部分上实施复杂的卷积神经网络,以生成和应用所选择的修改。即,一旦选择了修改图标,用户就可以捕获图像或视频流并且实时或近乎实时地呈现修改结果。此外,当正在捕获视频流时,修改可以是持久的,并且所选择的修改图标保持被切换。机器学习的神经网络可以用于实现此类修改。
呈现由变换系统执行的修改的图形用户接口可以为用户提供附加的交互选项。这样的选项可以基于用于发起内容捕获和对特定计算机动画模型的选择的界面(例如,从内容创建者用户界面发起)。在各种示例中,修改可以在对修改图标的初始选择之后持久化。用户可以通过轻击或以其他方式选择由变换系统修改的面部来打开或关闭修改,并且将其存储以供以后查看或浏览到成像应用的其他区域。在变换系统修改多个面部的情况下,用户可以通过轻击或选择在图形用户界面内修改和显示的单个面部来全局打开或关闭修改。在一些示例中,可以单独地修改一组多个面部之中的各个面部,或者可以通过轻击或选择图形用户接口内显示的单独的面部或一系列单独的面部来单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被编译成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,针对其在实体表306中维持记录的每个用户)发起。用户可以以已经由该用户创建和发送/广播的内容的集合的形式创建“个人故事”。为此,消息收发客户端104的用户接口可以包括用户可选择的图标,以使得发送用户能够将特定内容添加到他或她的个人故事。
集合还可以构成作为来自多个用户的内容的集合的“实况故事”,所述内容是手动地、自动地或者使用手动技术和自动技术的组合创建的。例如,“实况故事”可以构成来自不同位置和事件的用户提交内容的策划流。其客户端设备启用了定位服务并且在特定时间处于共同位置事件处的用户可以例如经由消息收发客户端104的用户接口被呈现有将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的位置向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另外类型的内容集合被称为“位置故事”,其使得其客户端设备102位于特定地理位置(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证来验证终端用户是否属于特定组织或其他实体(例如,是大学校园中的学生)。
如上面提到的,视频表304存储视频数据,在一个示例中,该视频数据与其记录保存在消息表302内的消息相关联。类似地,图像表312存储与其消息数据存储在实体表306中的消息相关联的图像数据。实体表306可以使来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端104生成,以用于传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容用于填充存储在数据库126中的消息表302,该消息表302可由消息收发服务器118访问。类似地,消息400的内容作为客户端设备102或应用服务器114的“传输中”(“in-transit”)或“飞行中”(“in-flight”)数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:识别消息400的唯一标识符。
·消息文本净荷404:要由用户经由客户端设备102的用户接口生成并且包括在消息400中的文本。
·消息图像净荷406:由客户端设备102的摄像装置部件捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息400中的图像数据。用于发送或接收的消息400的图像数据可以被存储在图像表312中。
·消息视频净荷408:由摄像装置部件捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息400中的视频数据。用于发送或接收的消息400的视频数据可以被存储在视频表304中。
·消息音频净荷410:由麦克风捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像净荷406、消息视频净荷408或消息音频净荷410的增强的增强数据(例如,过滤器、贴纸或其他注解或增强)。用于发送或接收的消息400的增强数据可以被存储在增强表310中。
·消息持续时间参数414:参数值,其指示消息的内容(例如,消息图像净荷406、消息视频净荷408、消息音频净荷410)将经由消息收发客户端104被呈现给用户或使其对于用户可访问的以秒为单位的时间量。
·消息地理位置参数416:与消息的内容净荷相关联的地理位置数据(例如,纬度和经度坐标)。在净荷中可以包括多个消息地理位置参数416值,其中这些参数值中的每一个都与包括在内容中的内容项(例如,消息图像净荷406内的特定图像、或消息视频净荷408中的特定视频)相关联。
·消息故事标识符418:标识一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值,通过其将消息400的消息图像净荷406中的特定内容项与所述一个或更多个内容集合相关联。例如,可以使用标识符值将消息图像净荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,这些标签中的每个标签都指示消息净荷中包括的内容的主题。例如,在消息图像净荷406中包括的特定图像描绘动物(例如狮子)的情况下,可以在消息标签420中包括指示相关动物的标签值。标签值可以基于用户输入手动地生成,或者可以使用例如图像识别自动地生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各种组成部分的内容(例如,值)可以是指向其内存储有内容数据值的表中的位置的指针。例如,消息图像净荷406中的图像值可以是指向图像表312内的位置的指针(或是图像表312内的位置的地址)。类似地,消息视频净荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412中的值可以指向存储在注释表310中的数据,存储在消息故事标识符418中的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424中的值可以指向存储在实体表306中的用户记录。
基于时间的访问限制架构
图5是示出访问限制过程500的示意图,根据该访问限制过程500,对内容(例如,短暂消息502和相关联的多媒体数据净荷)或内容集合(例如,短暂消息组504)的访问可以是有时间限制的(例如,使其短暂)。
短暂消息502被示出为与消息持续时间参数506相关联,该消息持续时间参数506的值确定由消息收发客户端104将短暂消息502显示给短暂消息502的接收用户的时间量。在一个示例中,根据发送用户使用消息持续时间参数506指定的时间量,接收用户可以查看短暂消息502最多10秒。
消息持续时间参数506和消息接收者标识符424被示出为是对消息定时器510的输入,消息定时器510负责确定短暂消息502被示出给由消息接收者标识符424标识的特定接收用户的时间量。具体而言,短暂消息502将仅被示出给相关接收用户达由消息持续时间参数506的值确定的时间段。消息定时器510被示出为向更一般化的短暂定时器系统202提供输出,该短暂定时器系统202负责向接收用户显示内容(例如,短暂消息502)的总体定时。
在图5中,短暂消息502被示出为包括在短暂消息组504(例如,个人故事或事件故事中的消息的集合)中。短暂消息组504具有相关联的组持续时间参数508,该组持续时间参数508的值确定短暂消息组504被呈现并可被消息收发系统100的用户访问的持续时间。例如,组持续时间参数508可以是音乐会的持续时间,其中短暂消息组504是关于该音乐会的内容的集合。替选地,当执行短暂消息组504的设置和创建时,用户(拥有用户或策展人用户)可以指定组持续时间参数508的值。
另外,短暂消息组504中的每个短暂消息502具有相关联的组参与参数512,该组参与参数512的值确定短暂消息502将在短暂消息组504的上下文中可被访问的持续时间。因此,在短暂消息组504本身就组持续时间参数508而言到期之前,特定的短暂消息组504可能“到期”并且在短暂消息组504的上下文中变得不可访问。组持续时间参数508、组参与参数512和消息接收者标识符424各自向组定时器514提供输入,该组定时器514可操作地首先确定短暂消息组504的特定短暂消息502是否将被显示给特定接收用户,并且如果是,显示多长时间。注意,短暂消息组504由于消息接收者标识符424也知道特定接收用户的身份。
因此,组定时器514可操作地控制相关联的短暂消息组504的总寿命、以及包括在短暂消息组504中的单个短暂消息502。在一个示例中,短暂消息组504中的每个短暂消息502在由组持续时间参数508指定的时间段内保持可查看和可访问。在另一个示例中,基于组参与参数512,在短暂消息组504的上下文中,特定短暂消息502可能到期。注意,即使在短暂消息组504的上下文中,消息持续时间参数506仍然可以确定特定短暂消息502被显示给接收用户的持续时间。因此,消息持续时间参数506确定特定短暂消息502被显示给接收用户的持续时间,而不管接收用户是在短暂消息组504的上下文内部还是外部查看该短暂消息502。
短暂定时器系统202还可以基于确定其已超过相关联的组参与参数512可操作地从短暂消息组504中移除特定短暂消息502。例如,当发送用户已经建立了从张贴起24小时的组参与参数512时,短暂定时器系统202将在指定的24小时之后从短暂消息组504中移除相关的短暂消息502。当短暂消息组504内的每个短暂消息502的组参与参数512已经到期时,或者当短暂消息组504本身就组持续时间参数508而言已经到期时,短暂定时器系统202还进行操作以移除短暂消息组504。
在某些使用情况下,特定短暂消息组504的创建者可以指定不确定的组持续时间参数508。在这种情况下,短暂消息组504内的最后剩余的短暂消息502的组参与参数512的到期将确定短暂消息组504本身何时到期。在这种情况下,被添加到短暂消息组504的具有新的组参与参数512的新的短暂消息502有效地延长了短暂消息组504的寿命,以等于组参与参数512的值。
响应于短暂定时器系统202确定短暂消息组504已到期(例如,不再可访问),短暂定时器系统202与消息收发系统100(以及例如,具体是消息收发客户端104)通信,以使与相关短暂消息组504相关联的记号(例如,图标)不再显示在消息收发客户端104的用户界面内。类似地,当短暂定时器系统202确定特定短暂消息502的消息持续时间参数506已经到期时,短暂定时器系统202使消息收发客户端104不再显示与短暂消息502相关联的记号(例如,图标或文本标识)。
图6是示出根据一些示例的交互式图形标记602的界面图600。在一个示例中,交互式图形标记602是包括标记指示符612和固定标记指示符614的数字对象或图像,其可以被渲染为二维图像、三维图像、增强现实(AR)图像、混合现实(MR)图像或虚拟现实(VR)图像。根据一个示例,当标记指示符612和标记指示符612在标记指示符612的动画期间对准时,在同步的开始时间在每个客户端设备上激活诸如游戏应用的应用,因为每个客户端设备使用它们各自的客户端设备集成摄像装置同时捕获到交互式图形标记602(下面更详细地解释)。
在另一个示例中,当在标记指示符612的动画期间标记指示符612达到旋转角度时,在同步的开始时间在每个客户端设备上激活诸如游戏应用的应用,因为每个客户端设备使用它们各自的客户端设备集成摄像装置同时捕获到交互式图形标记602(下面更详细地解释)。在一些示例中,交互式图形标记602可以是媒体覆盖,其包括音频和视觉内容以及视觉效果或其他AR、VR和MR内容项、覆盖、图像变换、AR图像以及类似的图形、图标、数字图片或数字对象。
如图6中所示,在一个示例中,交互式图形标记602包括缓冲区域604、圆周区域610、标记指示符612、固定标记指示符614、背景图像608和动画区域606。在一个示例中,固定标记指示符614是圆形图标形式的图形标记指示符图标,其位于交互式图形标记602的圆周区域610上的固定角度或点处。在一些示例中,固定标记指示符614可以采用任何形状或形式,并且可以被渲染为图标、对象、媒体覆盖,该媒体覆盖包括音频和视觉内容以及视觉效果或其他AR、VR和MR内容项、覆盖、图像变换、AR图像以及类似的图形、图标、数字图片或数字对象。
固定标记指示符614也可以位于围绕交互式图形标记602的圆周或区域的任何点或角度处。例如,固定标记指示符614位于0度或“6点钟”位置。固定标记指示符614也可以被渲染为二维空间、三维空间、AR环境、MR环境或虚拟环境中的动画。动画包括旋转、变形、平移和其他动画化视觉效果。在一个示例中,固定标记指示符614在围绕圆周区域610的激活点或激活角度处保持固定。
在一些示例中,激活点或激活角度表示围绕圆周区域610指定的计算点或角度,当在标记指示符612的动画期间达到计算点或角度或者计算点或角度与标记指示符612对准时,其激活在相应客户端设备102的显示器上应用的同步开始,相应客户端设备102同时捕获在它们相应客户端设备102上的交互式图形标记602(下面更详细地解释)。在其他示例中,标记指示符612可以被动画化为围绕固定标记指示符614或动画区域606旋转、移动、变形或平移。
在一个示例中,标记指示符612是圆形图标形式的图形标记指示符图标,其位于交互式图形标记602的动画区域606内或外。动画区域606是交互式图形标记602的中心处的标记指示符612内的区域,其包括其中标记指示符612覆盖在其上的背景图像608。背景图像608可以是任何媒体覆盖,其包括音频和视觉内容以及视觉效果或其他AR、VR和MR内容项、覆盖、图像变换、AR图像以及类似的图形、图标、数字图片或数字对象。
在一些示例中,动画功能被应用于动画区域606,例如二维、三维、AR、MR或VR环境中的旋转功能、平移功能或变形功能。虽然动画区域606允许动画,但是交互式图形标记602作为整体被完全动画化。交互式图形标记602的动画被渲染为标记指示符612和动画区域606围绕交互式图形标记602的旋转轴旋转、平移或变形。
仍参照图6,标记指示符612可以采用任何形状或形式,并且可以被渲染为图标、对象、媒体覆盖,该媒体覆盖包括音频和视觉内容以及视觉效果或其他AR、VR和MR内容项、覆盖、图像变换、AR图像以及类似的图形、图标、数字图片或数字对象。标记指示符612也可以被渲染为二维空间、三维空间、AR环境、MR环境或虚拟环境中的动画。动画包括旋转动画功能、变形动画功能、平移动画功能或其他动画化视觉效果。
在其他示例中,通过将动画应用于标记指示符612例如旋转动画功能,或通过在顺时针方向上围绕动画区域606或围绕动画区域606的旋转轴移动标记指示符612来修改标记指示符612。应用在标记指示符612上的动画还可以包括在逆时针方向上围绕固定标记指示符614的旋转轴或动画区域606的旋转轴旋转或移动。可以以不同的速度例如慢速、中速或快速配置动画。随着标记指示符612围绕动画区域606在顺时针方向上旋转,标记指示符612遇到缓冲区域604,缓冲区域604是防止用户设备太靠近交互式图形标记602的开始位置或角度捕获或扫描的区、区域或角度。在另一示例中,缓冲区域604可以被定位为与标记指示符612或固定标记指示符614正交或者位于与标记指示符612或固定标记指示符614正交的位置。
图7是示出根据一些示例的显示在显示设备702上的交互式图形标记602的用户界面700的界面图。在一些示例中,多个客户端设备用户例如客户端设备102在交互式图形标记602被渲染在显示设备702上时捕获交互式图形标记602。显示设备702可以是能够渲染或显示交互式图形标记602或其他图像的任何设备显示器,例如计算设备、膝上型计算机、台式计算机、智能手机、可穿戴显示设备、电视等。出于说明的目的,显示设备702对应于包括计算设备显示器704的膝上型计算机。交互式图形标记602被渲染在投影在计算设备显示器704上的坐标平面的中心处。在其他示例中,交互式图形标记602可以在计算设备显示器704上渲染在显示器上的任何点或位置处。
如图7中所示,动画功能被应用于交互式图形标记602。当固定标记指示符614关于标记指示符612以0度旋转角度定位时,标记指示符612正围绕交互式图形标记602的旋转轴的动画区域606旋转。在另一个示例中,固定标记指示符614可以被定位在从0度到360度的任何旋转角度处。应用于标记指示符612的动画功能可以是动画区域606内或动画区域606外的旋转动画、移动动画或变形动画。随着标记指示符612旋转到与固定标记指示符614对准的位置处,应用被激活并在同步的开始时间渲染在同时捕获交互式图形标记602的每个客户端设备102上。
图8是示出根据一些示例的显示在第一、第二和第三计算设备上的图形标记的透视图800。如图8中所示,当客户端设备102捕获正显示在膝上型计算机702的计算设备显示器704上的交互式图形标记602时,交互式图形标记602被渲染在每个客户端设备102的每个显示器上。交互式图形标记602被显示在客户端设备显示器802的中心和客户端设备显示器804的中心。
如所示的,标记指示符612朝向固定标记指示符614旋转,固定标记指示符614位于计算设备显示器704上显示的圆周区域610上的0度旋转角度处。标记指示符612的动画在动画区域606中被渲染,并且在逆时针方向上接近与固定标记指示符614对准。当交互式图形标记602正显示在它们各自的设备上时,每个客户端设备102正在监视和捕获交互式图形标记602的动画。
在一个示例中,客户端设备102使用集成到它们各自的设备中的摄像装置来检测或捕获显示设备702上显示的交互式图形标记602。在其他示例中,能够使用图像分析技术和视觉标记例程和处理的图像识别来捕获图像的任何设备都可以用于检测和捕获交互式图形标记602。如图9中所示,客户端设备102正从两个不同的视点和视角捕获和检测显示在计算设备显示器704上的交互式图形标记602。在一些示例中,交互式图形标记602可以从相对于计算设备显示器704和客户端设备102原点的多个视点和视觉视角来捕获。
图9是示出根据一些示例的显示在第二和第三计算设备上的同步发起的游戏应用的透视图。图9描绘了当随着标记指示符612旋转成与固定标记指示符614对准每个设备同时捕获交互式图形标记602时,在客户端设备显示器802和客户端设备显示器804上渲染和显示应用,例如游戏应用902。
在一些示例中,当游戏应用902被激活时,显示游戏应用902的同步游戏开始通知904。游戏应用902的同步激活基于标记指示符612和固定标记指示符614对准的动画的同时检测。例如,声明“玩家1游戏开始!”和“玩家2游戏开始!”的消息被显示在客户端设备显示器802和客户端设备显示器804上,从而通知每个用户游戏应用902的开始与每个客户端设备102同步。在其他示例中,也可以在计算设备显示器704上渲染基于标记指示符612和固定标记指示符614对准的动画的同时检测的游戏应用902的同步激活的视觉指示。
在一个示例中,动画功能例如旋转功能、变形功能或平移功能可以应用于动画区域606内或外的标记指示符612,这使标记指示符612移动至指定的旋转角度,例如圆周区域610上的45度角。当客户端设备102检测并捕获移动到指定旋转角度的标记指示符612时,游戏应用902的同步游戏开始被发起,从而使游戏应用902在客户端设备显示器802和客户端设备显示器804上同步渲染并显示。
图10是示出根据一些示例的用于生成与游戏应用相关联的图形标记的方法900的流程图。虽然方法1000的特定操作被描述为由特定设备执行,但是在不同的示例中,不同的设备或设备的组合可以执行这些操作。例如,下面描述的如正由客户端设备102执行的操作也可以由服务器侧计算设备(例如,消息的消息收发服务器系统108)或第三方服务器计算设备来执行,或者与它们结合来执行。
该方法开始于操作1002,在操作1002期间客户端设备102更具体地客户端设备102上执行的应用(例如,消息收发客户端104)生成交互式图形标记602,其包括具有第一指示符的第一区域和具有第二指示符的第二区域,第二区域在第一区域的圆周周围。如上所述,第一区域可以对应于动画区域606或圆周区域610,并且第二区域可以对应于动画区域606或圆周区域610。
在一个示例中,第一区域表示动画区域606,并且第二区域表示圆周区域610。交互式图形标记602包括标记指示符612和固定标记指示符614,在一个示例中,其表示第一指示符和第二指示符。然而,附加的视觉图形指示符可以包括到交互式图形标记602的构造和图形设计中。
在操作1004中,客户端设备102使交互式图形标记602的动画显示在第一计算设备的显示界面上,交互式图形标记602的动画包括第一区域围绕交互式图形标记的旋转轴在第一方向上旋转。在一些示例中,交互式图形标记602的动画可以包括动画区域606中的平移、移动、变形或移位。
第一方向可以是顺时针方向、逆时针方向、左、右、上、下或对角线方向。在其他示例中,动画可以是移动图形元素例如标记、标志、文本、对象或图像的视觉效果。它也可以是赛璐珞动画、二维动画、三维动画、运动图形动画或定格动画。动画也可以在增强现实、混合现实或虚拟现实中渲染。
在操作1006中,客户端设备102从第二计算设备和第三计算设备接收游戏同步信号请求。游戏同步信号请求消息可以从操作单独的客户端设备102、应用服务器114、第三方服务器110、第三方服务器应用或计算设备的附加用户发送。游戏同步信号请求包括使得客户端设备102能够检测或捕获在旋转动画期间以一定角度旋转对准的动画化图形标记指示符的逻辑。在操作1008中,响应于接收到游戏同步信号请求,客户端设备102监视交互式图形标记602的动画,以检测第一指示符和第二指示符何时对准。
在一些示例中,监视交互式图形标记602的动画还可以包括检测或捕获标记指示符612(例如,第一指示符)在其旋转成与固定标记指示符614(第二指示符)直接对准时或在其旋转到围绕交互式图形标记602的圆周区域610指定的旋转角度时的动画。
在操作1010中,响应于检测到第一指示符和第二指示符对准,客户端设备102使在第二计算设备和第三计算设备上发起与游戏同步信号请求相关联的交互式游戏应用。交互式游戏应用的发起还可以包括在每个客户端设备102上激活同步游戏开始功能,每个客户端设备102使用诸如集成摄像装置的捕获设备来同时检测和捕获交互式图形标记602。在激活同步游戏开始功能后,游戏应用就被同步地在每个客户端设备102上同时渲染,如图9中所示。
在另一个示例中,响应于检测到第一指示符被动画化为围绕交互式图形标记602的圆周区域610的指定的旋转角度,客户端设备102使在第二计算设备和第三计算设备上发起与游戏同步信号请求相关联的交互式游戏应用。基于以旋转角度动画化的标记指示符612的交互式游戏应用的发起还可以包括在每个客户端设备102上激活同步游戏开始功能,每个客户端设备102使用诸如集成摄像装置的捕获设备来同时检测和捕获交互式图形标记602。在激活同步游戏开始功能后,游戏应用就被同步地在每个客户端设备102上同时渲染和显示,如图9中所示。
在一些示例中,响应于检测到第一指示符(例如,标记指示符612)被动画化为围绕交互式图形标记602的圆周区域610的指定的旋转角度或者响应于检测到第一指示符(例如,标记指示符612)和第二指示符(例如,固定标记指示符614)对准,可以由客户端设备102发起不同的操作。例如,可以执行应用于交互式游戏应用的终止功能,可以发起应用于交互式游戏应用的游戏模式改变功能,或者可以执行玩家修改功能。玩家修改功能包括在游戏应用中添加登录活动的用户或者移除不活动的用户。
图11是示出根据一些示例的用于生成与游戏应用相关联的图形标记的方法1100的流程图。虽然方法1100的特定操作被描述为由特定设备执行,但是在不同的示例中,不同的设备或设备的组合可以执行这些操作。例如,下面描述的如正由客户端设备102执行的操作也可以由服务器侧计算设备(例如,消息的消息收发服务器系统108)或第三方服务器计算设备来执行,或者与它们结合来执行。
该方法开始于操作1102,在操作1102期间,客户端设备102更具体地客户端设备102上执行的应用(例如,消息收发客户端104)捕获交互式图形标记的动画,交互式图形标记602包括具有第一指示符的第一区域和具有第二指示符的第二区域,第二区域在第一区域的圆周周围,并且交互式图形标记的动画包括第一区域围绕交互式图形标记的旋转轴在第一方向上旋转。
在一个示例中,交互式图形标记602被渲染或显示在第一计算设备例如膝上型计算机、电视、投影仪、智能手机、台式计算机显示器或另一种类型的显示设备上。客户端设备102利用与客户端设备102相关联的或集成到客户端设备102中的摄像装置来执行捕获操作。如上面所提到的,第一区域表示动画区域606,并且第二区域表示圆周区域610。交互式图形标记602包括标记指示符612和固定标记指示符614,在一个示例中,其表示第一指示符和第二指示符。然而,附加的视觉图形指示符可以包括到交互式图形标记602的构造和图形设计中。
在操作1104中,客户端设备102监视交互式图形标记的动画,以检测第一指示符和第二指示符何时对准。在另一示例中,客户端设备102监视交互式图形标记的动画,以检测第一指示符和第二指示符何时达到预定的旋转角度,如图7和图9中所描述的,或者其何时旋转到围绕交互式图形标记602的圆周区域610指定的旋转角度。
响应于检测到第一指示符和第二指示符对准,操作1106使在客户端设备102处发起交互式游戏应用。交互式游戏应用的发起还可以包括在每个客户端设备102上激活同步游戏开始功能,每个客户端设备102使用诸如集成摄像装置的捕获设备来同时检测和捕获交互式图形标记602。在激活同步游戏开始功能后,游戏应用就被同步地在每个客户端设备102上同时渲染,如图9中所示。在另一示例中,交互式游戏应用的发起基于标记指示符612以旋转角度被动画化,这也可以包括在每个客户端设备102上激活同步游戏开始功能,每个客户端设备102使用诸如集成摄像装置的捕获设备来同时检测和捕获交互式图形标记602。在激活同步游戏开始功能后,游戏应用就被同步地在每个客户端设备102上同时渲染和显示,如图9中所示。
机器架构
图12是机器1200的图解表示,在该机器1200内可以执行用于使机器1200执行本文所讨论的方法中的任何一个或更多个方法的指令1210(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1210可以使机器1200执行本文描述的方法中的任何一个或更多个方法。指令1210将通用的未经编程的机器1200转换成特定机器1200,该特定机器1200被编程为以所述方式执行所述和所示功能。机器1200可以作为独立设备操作或者可以耦接(例如,联网)到其他机器。在联网部署中,机器1200可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份操作,或者在对等(或分布式)网络环境中作为对等机器操作。机器1200可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1200采取的动作的指令1210的任何机器。此外,虽然仅示出了单个机器1200,但是术语“机器”还应被认为包括单独地或联合地执行指令1210以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1200可以包括客户端设备102或者形成消息收发服务器系统108的一部分的若干个服务器设备中的任何一个。在一些示例中,机器1200还可以包括客户端和服务器系统二者,其中在服务器侧执行特定方法或算法的某些操作,并且在客户端侧执行特定方法或算法的某些操作。
机器1200可以包括可以被配置成经由总线1240彼此通信的处理器1204、存储器1206和输入/输出I/O部件1202。在示例中,处理器1204(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1210的处理器1208和处理器1212。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。虽然图12示出了多处理器1204,但是机器1200可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或者其任何组合。
存储器1206包括主存储器1214、静态存储器1216和存储单元1218,其均可由处理器1204经由总线1240访问。主存储器1206、静态存储器1216和存储单元1218存储体现本文中描述的方法或功能中的任何一种或更多种的指令1210。指令1210还可以在其被机器1200执行期间完全地或部分地驻留在主存储器1214内、在静态存储器1216内、在存储单元1218内的机器可读介质1220内、在处理器1204中的至少一个内(例如,在处理器的高速缓存存储器内)、或者在其任何合适的组合内。
I/O部件1202可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。包括在特定机器中的具体I/O部件1202将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。将理解的是,I/O部件1202可以包括图12中未示出的许多其他部件。在各种示例中,I/O部件1202可以包括用户输出部件1226和用户输入部件1228。用户输出部件1226可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、听觉部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。用户输入部件1228可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或另一指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在另外的示例中,I/O部件1202可以包括生物计量部件1230、运动部件1232、环境部件1234或位置部件1236以及广泛的一系列其他部件。例如,生物计量部件1230包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1232包括:加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1234包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测周围温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近物体的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更传统的摄像装置模式捕获静止图像和视频,这些图像类似地使用增强数据进行增强。除了前置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感应摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1236包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据该气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用多种技术来实现通信。I/O部件1202还包括通信部件1238,通信部件1238能够进行操作以经由相应的耦接或连接将机器1200耦接至网络1222或设备1224。例如,通信部件1238可以包括网络接口部件或另一合适的设备以与网络1222对接。在另外的示例中,通信部件1238可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能量)、/>部件以及经由其他模态提供通信的其他通信部件。设备1224可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1238可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1238可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速响应(QR)代码的多维条形码、Aztec代码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光代码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1238得出各种信息,例如经由因特网协议(IP)地理位置的位置、经由信号三角测量的位置、经由检测可以指示特定位置的NFC信标信号的位置等。
各种存储器(例如,主存储器1214、静态存储器1216以及处理器1204的存储器)以及存储单元1218可以存储由本文中描述的方法或功能中的任何一个或更多个实现或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1210)在由处理器1204执行时使得各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1238中包括的网络接口部件),使用传输介质并且使用多个公知的传输协议中的任意一种传输协议(例如,超文本传输协议(HTTP)),通过网络1222来发送或接收指令1210。类似地,可以使用传输介质经由至设备1224的耦接(例如,对等耦接)来发送或接收指令1210。
软件架构
图13是示出软件架构1304的框图1300,该软件架构1304可以安装在本文所描述的设备中的任何一个或更多个设备上。软件架构1304由诸如机器1302的硬件支持,机器1302包括处理器1320、存储器1326和I/O部件1338。在该示例中,软件架构1304可以被概念化为层的堆栈,其中每个层提供特定的功能。软件架构1304包括下述层,例如操作系统1312、库1310、框架1308和应用1306。在操作上,应用1306通过软件堆栈激活API调用1350并且接收响应于API调用1350的消息1352。
操作系统1312管理硬件资源并且提供公共服务。操作系统1312包括例如:内核1314、服务1316、以及驱动器1322。内核1314用作硬件与其他软件层之间的抽象层。例如,内核1314提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置等功能。服务1316可以为其他软件层提供其他公共服务。驱动器1322负责控制底层硬件或与底层硬件对接(interface)。例如,驱动器1322可以包括显示驱动器、摄像装置驱动器、或/>低能量驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、/>驱动器、音频驱动器、电力管理驱动器等。
库1310提供由应用1306使用的公共低级基础设施。库1310可以包括系统库1318(例如,C标准库),该系统库1318提供例如存储器分配函数、串操纵函数、数学函数等函数。另外,库1310可以包括API库1324,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如是运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)渲染的OpenGL框架)、数据库库(例如,用于提供各种关系数据库功能的SQLite)、web库(例如,用于提供web浏览功能的WebKit)等。库1310还可以包括各种其他库1328,以向应用1306提供许多其他API。
框架1308提供由应用1306使用的公共高级基础设施。例如,框架1308提供各种图形用户界面(GUI)功能、高级别资源管理和高级定位服务。框架1308可以提供可以由应用1306使用的广泛的其他API,所述其他API中的一些API可以特定于特定操作系统或平台。
在示例中,应用1306可以包括家庭应用1336、联系人应用1330、浏览器应用1332、书籍阅读器应用1334、定位应用1342、媒体应用1344、消息收发应用1346、游戏应用1348和诸如第三方应用1340的各种各样的其他应用。应用1306是执行程序中限定的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1306中的一个或更多个应用,所述编程语言例如是面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,第三方应用1340(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是移动操作系统例如IOSTM、ANDROIDTM、Phone、或其他移动操作系统上运行的移动软件。在该示例中,第三方应用1340可以激活由操作系统1312提供的API调用1350以有助于本文中描述的功能。
处理组件
现在转向图14,示出了处理环境1400的图解表示,其包括处理器1402、处理器1406和处理器1408(例如,GPU、CPU或其组合)。
处理器1402被示出为被耦接至电源1404,并包括(永久配置或临时实例化的)模块,即图形标记组件1410。图形标记组件1410可操作地生成交互式图形标记,使交互式图形标记的动画显示在第一计算设备的显示界面上,从第二计算设备和第三计算设备接收游戏同步信号请求,监视交互式图形标记的动画以检测第一指示符和第二指示符何时对准,并且使在第二计算设备和第三计算设备上发起与游戏同步信号请求相关联的交互式游戏应用。虽然未示出,但是处理器1402可以替选地包括执行特征图形标记生成系统216的操作的图形标记组件1410。如所示的,处理器1402通信地耦接至处理器1406和处理器1408二者。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以利于这些指令的通信。可以使用传输介质经由网络接口设备来通过网络发送或接收指令。
“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、其他类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全局移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强数据速率GSM演进(EDGE)技术、第三代合作伙伴计划(3GPP)(包括3G、第四代无线(4G)网络、通用移动电信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准)、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有以下边界的设备、物理实体或逻辑,该边界由功能或子例程调用、分支点、API或者对特定处理或控制功能提供分区或模块化的其他技术定义。部件可以经由它们的接口与其他部件结合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元,并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件组件(例如,实施在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)的专用处理器。硬件部件还可以包括通过软件被短暂配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,硬件部件就变成被独特地定制成执行所配置的功能的特定机器(或机器的特定部件),而不再是通用处理器。将理解的是,是在专用且永久配置的电路系统中机械地实现硬件部件还是在短暂配置(例如,通过软件配置)的电路系统中实现硬件部件的决策可以是出于成本和时间考虑来驱动的。相应地,短语“硬件部件”(或者“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑到硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每一个进行配置或实例化。例如,在硬件部件包括通过软件配置成变成专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处分别被配置为不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置一个特定处理器或多个特定处理器以例如在一个时刻处构成特定硬件部件并且在不同时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过在硬件部件中的两个或更多个硬件部件之间或之中(例如,通过适当的电路和总线)的信号传输来实现通信。在其中多个硬件部件在不同时间处被配置或被实例化的示例中,可以例如通过将信息存储在多个硬件部件访问的存储器结构中并且在所述存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在通信上耦接的存储器设备中。然后,其他硬件部件可以在随后的时间访问存储器设备以检索所存储的输出并且对所存储的输出进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。本文中描述的示例方法的各种操作可以至少部分地由被临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是临时地被配置还是永久地被配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文中描述的方法可以至少部分地由处理器实现,其中特定的一个或多个处理器是硬件的示例。例如,方法的操作中的至少一些操作可以由一个或更多个处理器1004或处理器实现的部件来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由一组计算机(作为包括处理器的机器的示例)执行,其中,这些操作能够经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)被访问。操作中的某些操作的执行可以分布在处理器之中,不是仅驻留在单个机器内而是跨多个机器被部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理位置(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨若干地理位置而分布。
“计算机可读存储介质”是指机器存储介质和传输介质二者。因此,这些术语包括存储设备/介质和载波/经调制的数据信号二者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中可互换地使用。
“短暂消息”是指在时间有限的持续时间内可访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收方指定的设置。无论设置技术如何,消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,术语应视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换地使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,所述载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以有助于软件或数据的通信。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指使其特性中的一个或更多个特性被设置或改变以将信息编码其中的信号。术语“传输介质”和“信号介质”意指相同的事物,并且可以在本公开内容中互换使用。
Claims (20)
1.一种方法,包括:
捕获交互式图形标记的动画,所述交互式图形标记包括具有第一指示符的第一区域和具有第二指示符的第二区域,所述第二区域在所述第一区域的圆周周围,并且所述交互式图形标记的动画包括所述第一区域围绕所述交互式图形标记的旋转轴在第一方向上旋转;
监视所述交互式图形标记的动画,以检测所述第一指示符和所述第二指示符何时以预定的旋转角度对准;以及
响应于检测到所述第一指示符和所述第二指示符对准,使发起交互式游戏应用。
2.根据权利要求1所述的方法,其中,所述交互式图形标记被显示在第一计算设备上。
3.根据权利要求2所述的方法,其中,所述交互式图形标记包括三维图像、增强现实图像、混合现实图像、虚拟现实图像或图像变换。
4.根据权利要求1所述的方法,其中,所述交互式图形标记的第一区域包括多个图像,所述多个图像包括增强现实图像、混合现实图像、虚拟现实图像或图像变换中的任一种。
5.根据权利要求2所述的方法,其中,捕获所述交互式图形标记的动画包括使用相应的摄像装置从至少多个视角视点进行捕获。
6.根据权利要求5所述的方法,其中,所述多个视角视点中的每个视角视点是不同的。
7.根据权利要求1所述的方法,其中,在所述第一方向上的旋转基于第一速度。
8.根据权利要求1所述的方法,其中,所述动画包括围绕所述交互式图形标记的旋转轴以第二速度在第二方向上旋转。
9.根据权利要求1所述的方法,其中,所述第二区域包括与所述第二指示符正交定位的缓冲区域。
10.根据权利要求8所述的方法,还包括:
响应于检测到所述第一指示符和所述第二指示符对准,终止所述交互式游戏应用。
11.根据权利要求1所述的方法,响应于检测到所述第一指示符和所述第二指示符对准,引起所述交互式游戏应用的模式改变。
12.一种系统,包括:
处理器;以及
存储指令的存储器,所述指令在由所述处理器执行时配置所述系统以执行包括以下的操作:
捕获交互式图形标记的动画,所述交互式图形标记包括具有第一指示符的第一区域和具有第二指示符的第二区域,所述第二区域在所述第一区域的圆周周围,并且所述交互式图形标记的动画包括所述第一区域围绕所述交互式图形标记的旋转轴在第一方向上旋转;
监视所述交互式图形标记的动画,以检测所述第一指示符和所述第二指示符何时以预定的旋转角度对准;以及
响应于检测到所述第一指示符和所述第二指示符对准,使发起交互式游戏应用。
13.根据权利要求12所述的系统,其中,所述交互式图形标记被显示在第一计算设备上。
14.根据权利要求12所述的系统,其中,所述交互式图形标记包括三维图像、增强现实图像、混合现实图像、虚拟现实图像或图像变换。
15.根据权利要求13所述的系统,其中,捕获所述交互式图形标记的动画包括使用相应的摄像装置从至少多个视角视点进行捕获。
16.根据权利要求12所述的系统,其中,所述动画包括围绕所述交互式图形标记的旋转轴以第二速度在第二方向上旋转。
17.根据权利要求12所述的系统,其中,所述第二区域包括与所述第二指示符正交定位的缓冲区域。
18.根据权利要求16所述的系统,还包括:
响应于检测到所述第一指示符和所述第二指示符对准,使终止交互式游戏应用。
19.根据权利要求12所述的系统,响应于检测到所述第一指示符和所述第二指示符对准,引起所述交互式游戏应用的模式改变。
20.一种非暂态计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令在由计算机执行时使所述计算机执行包括以下的操作:
捕获交互式图形标记的动画,所述交互式图形标记包括具有第一指示符的第一区域和具有第二指示符的第二区域,所述第二区域在所述第一区域的圆周周围,并且所述交互式图形标记的动画包括所述第一区域围绕所述交互式图形标记的旋转轴在第一方向上旋转;
监视所述交互式图形标记的动画,以检测所述第一指示符和所述第二指示符何时以预定的旋转角度对准;以及
响应于检测到所述第一指示符和所述第二指示符对准,使发起交互式游戏应用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/027,397 | 2020-09-21 | ||
US17/027,397 US11452939B2 (en) | 2020-09-21 | 2020-09-21 | Graphical marker generation system for synchronizing users |
PCT/US2021/071499 WO2022061364A1 (en) | 2020-09-21 | 2021-09-17 | Graphical marker generation system for synchronizing users |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116194184A true CN116194184A (zh) | 2023-05-30 |
Family
ID=78087609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180063899.XA Pending CN116194184A (zh) | 2020-09-21 | 2021-09-17 | 用于同步用户的图形标记生成系统 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11452939B2 (zh) |
EP (1) | EP4213955A1 (zh) |
KR (1) | KR20230066635A (zh) |
CN (1) | CN116194184A (zh) |
WO (1) | WO2022061364A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11452939B2 (en) * | 2020-09-21 | 2022-09-27 | Snap Inc. | Graphical marker generation system for synchronizing users |
CN112929582A (zh) * | 2021-02-04 | 2021-06-08 | 北京字跳网络技术有限公司 | 一种特效展示方法、装置、设备及介质 |
US20240071000A1 (en) * | 2022-08-25 | 2024-02-29 | Snap Inc. | External computer vision for an eyewear device |
Family Cites Families (201)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7859551B2 (en) | 1993-10-15 | 2010-12-28 | Bulman Richard L | Object customization and presentation system |
US5880731A (en) | 1995-12-14 | 1999-03-09 | Microsoft Corporation | Use of avatars with automatic gesturing and bounded interaction in on-line chat session |
US6023270A (en) | 1997-11-17 | 2000-02-08 | International Business Machines Corporation | Delivery of objects in a virtual world using a descriptive container |
US6842779B1 (en) | 1998-03-11 | 2005-01-11 | Yasuo Nishizawa | Agent accessory tool cooperating with integrated application on WEB server by HTTP protocol |
US20020067362A1 (en) | 1998-11-06 | 2002-06-06 | Agostino Nocera Luciano Pasquale | Method and system generating an avatar animation transform using a neutral face image |
US6223165B1 (en) | 1999-03-22 | 2001-04-24 | Keen.Com, Incorporated | Method and apparatus to connect consumer to expert |
FR2799916A1 (fr) * | 1999-10-15 | 2001-04-20 | Yves Jean Paul Guy Reza | Ensemble d'interface entre un utilisateur et un dispositif electronique |
US6772195B1 (en) | 1999-10-29 | 2004-08-03 | Electronic Arts, Inc. | Chat clusters for a virtual world application |
JP2001230801A (ja) | 2000-02-14 | 2001-08-24 | Sony Corp | 通信システムとその方法、通信サービスサーバおよび通信端末装置 |
US6922685B2 (en) | 2000-05-22 | 2005-07-26 | Mci, Inc. | Method and system for managing partitioned data resources |
US20050206610A1 (en) | 2000-09-29 | 2005-09-22 | Gary Gerard Cordelli | Computer-"reflected" (avatar) mirror |
US8117281B2 (en) | 2006-11-02 | 2012-02-14 | Addnclick, Inc. | Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content |
US6910186B2 (en) | 2000-12-08 | 2005-06-21 | Kyunam Kim | Graphic chatting with organizational avatars |
US7925703B2 (en) | 2000-12-26 | 2011-04-12 | Numedeon, Inc. | Graphical interactive interface for immersive online communities |
MXPA03000966A (es) | 2002-02-28 | 2003-09-04 | Pfizer Prod Inc | Agentes antidiabeticos. |
EP1495447A1 (en) | 2002-03-26 | 2005-01-12 | KIM, So-Woon | System and method for 3-dimension simulation of glasses |
KR100493525B1 (ko) | 2002-05-03 | 2005-06-07 | 안현기 | 아바타 메일 제공시스템 및 방법 |
US8495503B2 (en) | 2002-06-27 | 2013-07-23 | International Business Machines Corporation | Indicating the context of a communication |
US7123351B1 (en) * | 2002-08-20 | 2006-10-17 | Schaefer Philip R | Method and apparatus for measuring distances using light |
US7636755B2 (en) | 2002-11-21 | 2009-12-22 | Aol Llc | Multiple avatar personalities |
US20070113181A1 (en) | 2003-03-03 | 2007-05-17 | Blattner Patrick D | Using avatars to communicate real-time information |
US7484176B2 (en) | 2003-03-03 | 2009-01-27 | Aol Llc, A Delaware Limited Liability Company | Reactive avatars |
US20070168863A1 (en) | 2003-03-03 | 2007-07-19 | Aol Llc | Interacting avatars in an instant messaging communication session |
KR20040091331A (ko) | 2003-04-21 | 2004-10-28 | 홍지선 | 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장내용에 상응하는 아바타 표현 방법 및 시스템 |
KR100762629B1 (ko) | 2003-08-26 | 2007-10-01 | 삼성전자주식회사 | 휴대단말기의 백업서비스 처리방법 |
JP4587166B2 (ja) * | 2004-09-14 | 2010-11-24 | キヤノン株式会社 | 移動体追跡システム、撮影装置及び撮影方法 |
US7342587B2 (en) | 2004-10-12 | 2008-03-11 | Imvu, Inc. | Computer-implemented system and method for home page customization and e-commerce support |
US7468729B1 (en) | 2004-12-21 | 2008-12-23 | Aol Llc, A Delaware Limited Liability Company | Using an avatar to generate user profile information |
KR100714192B1 (ko) | 2005-04-08 | 2007-05-02 | 엔에이치엔(주) | 노출 부위가 가변되는 아바타 제공 시스템 및 그 방법 |
US7412089B2 (en) * | 2005-05-23 | 2008-08-12 | Nextcode Corporation | Efficient finder patterns and methods for application to 2D machine vision problems |
US20060294465A1 (en) | 2005-06-22 | 2006-12-28 | Comverse, Inc. | Method and system for creating and distributing mobile avatars |
US8963926B2 (en) | 2006-07-11 | 2015-02-24 | Pandoodle Corporation | User customized animated video and method for making the same |
US7775885B2 (en) | 2005-10-14 | 2010-08-17 | Leviathan Entertainment, Llc | Event-driven alteration of avatars |
BRPI0620945B1 (pt) | 2005-12-31 | 2018-11-27 | Tencent Tech Shenzhen Co Ltd | método de exibição de um avatar 3-d e sistema de exibição de um avatar 3-d |
US20070176921A1 (en) | 2006-01-27 | 2007-08-02 | Koji Iwasaki | System of developing urban landscape by using electronic data |
WO2007093813A1 (en) | 2006-02-16 | 2007-08-23 | Weeworld Limited | Portable account information |
WO2007130693A2 (en) | 2006-05-07 | 2007-11-15 | Sony Computer Entertainment Inc. | Methods and systems for processing an interchange of real time effects during video communication |
WO2007134402A1 (en) | 2006-05-24 | 2007-11-29 | Mor(F) Dynamics Pty Ltd | Instant messaging system |
US8368946B2 (en) * | 2006-12-22 | 2013-02-05 | Sony Corporation | Imaging device, information processing device, information processing system, recording control method thereof, and program for causing a computer to execute the method |
US20080158222A1 (en) | 2006-12-29 | 2008-07-03 | Motorola, Inc. | Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks |
US8504926B2 (en) | 2007-01-17 | 2013-08-06 | Lupus Labs Ug | Model based avatars for virtual presence |
GB0703974D0 (en) | 2007-03-01 | 2007-04-11 | Sony Comp Entertainment Europe | Entertainment device |
GB2447094B (en) | 2007-03-01 | 2010-03-10 | Sony Comp Entertainment Europe | Entertainment device and method |
ATE555433T1 (de) | 2007-04-26 | 2012-05-15 | Ford Global Tech Llc | Emotives beratungssystem und verfahren |
CN101071457B (zh) | 2007-04-28 | 2010-05-26 | 腾讯科技(深圳)有限公司 | 一种网络游戏中改变角色形象的方法、装置以及服务器 |
WO2008141125A1 (en) | 2007-05-10 | 2008-11-20 | The Trustees Of Columbia University In The City Of New York | Methods and systems for creating speech-enabled avatars |
WO2008151424A1 (en) | 2007-06-11 | 2008-12-18 | Darwin Dimensions Inc. | Metadata for avatar generation in virtual environments |
GB2450757A (en) | 2007-07-06 | 2009-01-07 | Sony Comp Entertainment Europe | Avatar customisation, transmission and reception |
US20090016617A1 (en) | 2007-07-13 | 2009-01-15 | Samsung Electronics Co., Ltd. | Sender dependent messaging viewer |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US8146005B2 (en) | 2007-08-07 | 2012-03-27 | International Business Machines Corporation | Creating a customized avatar that reflects a user's distinguishable attributes |
US20090055484A1 (en) | 2007-08-20 | 2009-02-26 | Thanh Vuong | System and method for representation of electronic mail users using avatars |
US20090070688A1 (en) | 2007-09-07 | 2009-03-12 | Motorola, Inc. | Method and apparatus for managing interactions |
US8924250B2 (en) | 2007-09-13 | 2014-12-30 | International Business Machines Corporation | Advertising in virtual environments based on crowd statistics |
WO2009046342A1 (en) | 2007-10-04 | 2009-04-09 | Playspan, Inc. | Apparatus and method for virtual world item searching |
US20090106672A1 (en) | 2007-10-18 | 2009-04-23 | Sony Ericsson Mobile Communications Ab | Virtual world avatar activity governed by person's real life activity |
US8892999B2 (en) | 2007-11-30 | 2014-11-18 | Nike, Inc. | Interactive avatar for social network services |
US8151191B2 (en) | 2007-12-07 | 2012-04-03 | International Business Machines Corporation | Managing objectionable material in 3D immersive virtual worlds |
US20090158170A1 (en) | 2007-12-14 | 2009-06-18 | Rajesh Narayanan | Automatic profile-based avatar generation |
US20090177976A1 (en) | 2008-01-09 | 2009-07-09 | Bokor Brian R | Managing and presenting avatar mood effects in a virtual world |
US8495505B2 (en) | 2008-01-10 | 2013-07-23 | International Business Machines Corporation | Perspective based tagging and visualization of avatars in a virtual world |
EP2263190A2 (en) | 2008-02-13 | 2010-12-22 | Ubisoft Entertainment S.A. | Live-action image capture |
EP3352107A1 (en) | 2008-03-03 | 2018-07-25 | NIKE Innovate C.V. | Interactive athletic equipment system |
US9744466B2 (en) | 2008-03-13 | 2017-08-29 | Mattel, Inc. | Widgetized avatar and a method and system of creating and using same |
US8832552B2 (en) | 2008-04-03 | 2014-09-09 | Nokia Corporation | Automated selection of avatar characteristics for groups |
US20090265604A1 (en) | 2008-04-21 | 2009-10-22 | Microsoft Corporation | Graphical representation of social network vitality |
US20090300525A1 (en) | 2008-05-27 | 2009-12-03 | Jolliff Maria Elena Romera | Method and system for automatically updating avatar to indicate user's status |
US20090303984A1 (en) | 2008-06-09 | 2009-12-10 | Clark Jason T | System and method for private conversation in a public space of a virtual world |
US8095878B2 (en) | 2008-06-23 | 2012-01-10 | International Business Machines Corporation | Method for spell check based upon target and presence of avatars within a virtual environment |
US8839327B2 (en) | 2008-06-25 | 2014-09-16 | At&T Intellectual Property Ii, Lp | Method and apparatus for presenting media programs |
WO2010000300A1 (en) | 2008-06-30 | 2010-01-07 | Accenture Global Services Gmbh | Gaming system |
US20120246585A9 (en) | 2008-07-14 | 2012-09-27 | Microsoft Corporation | System for editing an avatar |
AU2009276721B2 (en) | 2008-07-28 | 2015-06-18 | Breakthrough Performancetech, Llc | Systems and methods for computerized interactive skill training |
US8384719B2 (en) | 2008-08-01 | 2013-02-26 | Microsoft Corporation | Avatar items and animations |
US8832201B2 (en) | 2008-08-18 | 2014-09-09 | International Business Machines Corporation | Method, system and program product for providing selective enhanced privacy and control features to one or more portions of an electronic message |
US8108774B2 (en) | 2008-09-26 | 2012-01-31 | International Business Machines Corporation | Avatar appearance transformation in a virtual universe |
US8648865B2 (en) | 2008-09-26 | 2014-02-11 | International Business Machines Corporation | Variable rendering of virtual universe avatars |
US8869197B2 (en) | 2008-10-01 | 2014-10-21 | At&T Intellectual Property I, Lp | Presentation of an avatar in a media communication system |
US8683354B2 (en) | 2008-10-16 | 2014-03-25 | At&T Intellectual Property I, L.P. | System and method for distributing an avatar |
US20100115426A1 (en) | 2008-11-05 | 2010-05-06 | Yahoo! Inc. | Avatar environments |
US8745152B2 (en) | 2008-11-06 | 2014-06-03 | Disney Enterprises, Inc. | System and method for server-side avatar pre-rendering |
WO2010074786A2 (en) | 2008-12-04 | 2010-07-01 | Total Immersion Software, Inc. | System and methods for dynamically injecting expression information into an animated facial mesh |
US8458601B2 (en) | 2008-12-04 | 2013-06-04 | International Business Machines Corporation | System and method for item inquiry and information presentation via standard communication paths |
US20100162149A1 (en) | 2008-12-24 | 2010-06-24 | At&T Intellectual Property I, L.P. | Systems and Methods to Provide Location Information |
US9105014B2 (en) | 2009-02-03 | 2015-08-11 | International Business Machines Corporation | Interactive avatar in messaging environment |
KR101558553B1 (ko) | 2009-02-18 | 2015-10-08 | 삼성전자 주식회사 | 아바타 얼굴 표정 제어장치 |
US20100227682A1 (en) | 2009-03-04 | 2010-09-09 | Microsoft Corporation | Awarding of avatar items in video game environment |
US20110093780A1 (en) | 2009-10-16 | 2011-04-21 | Microsoft Corporation | Advertising avatar |
KR20110070056A (ko) | 2009-12-18 | 2011-06-24 | 한국전자통신연구원 | 사용자 맞춤형 고품질 3d 아바타 생성 방법 및 그 장치 |
TWI434227B (zh) | 2009-12-29 | 2014-04-11 | Ind Tech Res Inst | 動畫產生系統及方法 |
US8484158B2 (en) | 2010-02-01 | 2013-07-09 | International Business Machines Corporation | Managing information about avatars across virtual worlds |
US20110239136A1 (en) | 2010-03-10 | 2011-09-29 | Oddmobb, Inc. | Instantiating widgets into a virtual social venue |
US9086776B2 (en) | 2010-03-29 | 2015-07-21 | Microsoft Technology Licensing, Llc | Modifying avatar attributes |
TWI439960B (zh) | 2010-04-07 | 2014-06-01 | Apple Inc | 虛擬使用者編輯環境 |
US8692830B2 (en) | 2010-06-01 | 2014-04-08 | Apple Inc. | Automatic avatar creation |
US8564621B2 (en) | 2010-08-11 | 2013-10-22 | International Business Machines Corporation | Replicating changes between corresponding objects |
JP2012065263A (ja) | 2010-09-17 | 2012-03-29 | Olympus Imaging Corp | 撮影機器 |
KR101514327B1 (ko) | 2010-11-04 | 2015-04-22 | 한국전자통신연구원 | 얼굴 아바타 생성 장치 및 방법 |
US20120124458A1 (en) | 2010-11-17 | 2012-05-17 | Nazareno Brier Cruzada | Social networking website & web-based system for collecting & presenting real-time user generated information on parties & events. |
US20120130717A1 (en) | 2010-11-19 | 2012-05-24 | Microsoft Corporation | Real-time Animation for an Expressive Avatar |
KR20120059994A (ko) | 2010-12-01 | 2012-06-11 | 삼성전자주식회사 | 표정 제어점을 이용한 아바타 제어 장치 및 방법 |
KR101445263B1 (ko) | 2010-12-22 | 2014-09-30 | 주식회사 케이티 | 맞춤형 콘텐츠 제공 시스템 및 방법 |
US9839844B2 (en) | 2011-03-01 | 2017-12-12 | Disney Enterprises, Inc. | Sprite strip renderer |
WO2012126135A1 (en) | 2011-03-21 | 2012-09-27 | Intel Corporation | Method of augmented makeover with 3d face modeling and landmark alignment |
US20130103760A1 (en) | 2011-04-11 | 2013-04-25 | Robert K. Golding | Location-sensitive virtual identity system, apparatus, method and computer-readable medium |
WO2012139276A1 (en) | 2011-04-11 | 2012-10-18 | Intel Corporation | Avatar facial expression techniques |
US8989786B2 (en) | 2011-04-21 | 2015-03-24 | Walking Thumbs, Llc | System and method for graphical expression during text messaging communications |
US8882595B2 (en) * | 2011-04-29 | 2014-11-11 | 2343127 Ontartio Inc. | Systems and methods of importing virtual objects using barcodes |
US8827160B1 (en) * | 2012-05-16 | 2014-09-09 | Andrew Pascal | Game sequences initiated by scanning of QR codes |
US8794508B1 (en) * | 2011-05-16 | 2014-08-05 | Andrew Pascal | Dynamic physical interaction tracking system and method |
US9241184B2 (en) | 2011-06-01 | 2016-01-19 | At&T Intellectual Property I, L.P. | Clothing visualization |
US20130189925A1 (en) * | 2011-07-29 | 2013-07-25 | SIFTEO, Inc. | Pairing Wireless Device Using Multiple Modalities |
CN103765479A (zh) | 2011-08-09 | 2014-04-30 | 英特尔公司 | 基于图像的多视点3d脸部生成 |
KR20130022434A (ko) | 2011-08-22 | 2013-03-07 | (주)아이디피쉬 | 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법 |
US20130249948A1 (en) | 2011-08-26 | 2013-09-26 | Reincloud Corporation | Providing interactive travel content at a display device |
US8559980B2 (en) | 2011-09-02 | 2013-10-15 | John J. Pujol | Method and system for integrated messaging and location services |
US8890926B2 (en) | 2011-11-02 | 2014-11-18 | Microsoft Corporation | Automatic identification and representation of most relevant people in meetings |
US20130137510A1 (en) * | 2011-11-30 | 2013-05-30 | Igt | Communications from gaming machines using optically formatted data |
US9782680B2 (en) | 2011-12-09 | 2017-10-10 | Futurewei Technologies, Inc. | Persistent customized social media environment |
WO2013097139A1 (en) | 2011-12-29 | 2013-07-04 | Intel Corporation | Communication using avatar |
US8810513B2 (en) | 2012-02-02 | 2014-08-19 | Kodak Alaris Inc. | Method for controlling interactive display system |
US20130257877A1 (en) | 2012-03-30 | 2013-10-03 | Videx, Inc. | Systems and Methods for Generating an Interactive Avatar Model |
US9402057B2 (en) | 2012-04-02 | 2016-07-26 | Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. | Interactive avatars for telecommunication systems |
US9357174B2 (en) | 2012-04-09 | 2016-05-31 | Intel Corporation | System and method for avatar management and selection |
WO2013166588A1 (en) | 2012-05-08 | 2013-11-14 | Bitstrips Inc. | System and method for adaptable avatars |
JP5497931B2 (ja) | 2012-05-30 | 2014-05-21 | 株式会社コナミデジタルエンタテインメント | アプリケーション装置、アプリケーション装置の制御方法、及びプログラム |
US20130344963A1 (en) * | 2012-06-22 | 2013-12-26 | Diwakar Gupta | Multiplayer synchronous gaming systems and methods |
AU2013206649A1 (en) | 2012-07-05 | 2014-01-23 | Aristocrat Technologies Australia Pty Limited | A gaming system and a method of gaming |
US20140125678A1 (en) | 2012-07-11 | 2014-05-08 | GeriJoy Inc. | Virtual Companion |
US10116598B2 (en) | 2012-08-15 | 2018-10-30 | Imvu, Inc. | System and method for increasing clarity and expressiveness in network communications |
US20150206349A1 (en) | 2012-08-22 | 2015-07-23 | Goldrun Corporation | Augmented reality virtual content platform apparatuses, methods and systems |
US9461876B2 (en) | 2012-08-29 | 2016-10-04 | Loci | System and method for fuzzy concept mapping, voting ontology crowd sourcing, and technology prediction |
WO2014036708A1 (en) | 2012-09-06 | 2014-03-13 | Intel Corporation | System and method for avatar creation and synchronization |
US9314692B2 (en) | 2012-09-21 | 2016-04-19 | Luxand, Inc. | Method of creating avatar from user submitted image |
US9746990B2 (en) | 2012-09-28 | 2017-08-29 | Intel Corporation | Selectively augmenting communications transmitted by a communication device |
US9501942B2 (en) | 2012-10-09 | 2016-11-22 | Kc Holdings I | Personalized avatar responsive to user physical state and context |
US20140129343A1 (en) | 2012-11-08 | 2014-05-08 | Microsoft Corporation | Dynamic targeted advertising avatar |
US8813154B1 (en) * | 2012-12-07 | 2014-08-19 | American Megatrends, Inc. | Injecting a code into video data without or with limited human perception by flashing the code |
US9256860B2 (en) | 2012-12-07 | 2016-02-09 | International Business Machines Corporation | Tracking participation in a shared media session |
US9990373B2 (en) | 2013-02-06 | 2018-06-05 | John A. Fortkort | Creation and geospatial placement of avatars based on real-world interactions |
US9311640B2 (en) * | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods and arrangements for smartphone payments and transactions |
US9312949B1 (en) * | 2013-03-05 | 2016-04-12 | Square, Inc. | Pairing techniques for a wireless card reader |
US9391782B1 (en) * | 2013-03-14 | 2016-07-12 | Microstrategy Incorporated | Validation of user credentials |
CN104995662B (zh) | 2013-03-20 | 2020-08-11 | 英特尔公司 | 用于管理化身的设备和方法以及用于动画化化身的设备 |
WO2014153689A1 (en) | 2013-03-29 | 2014-10-02 | Intel Corporation | Avatar animation, social networking and touch screen applications |
JP5406396B1 (ja) | 2013-04-03 | 2014-02-05 | 株式会社 ディー・エヌ・エー | サーバー装置、及び、プログラム |
US9589357B2 (en) | 2013-06-04 | 2017-03-07 | Intel Corporation | Avatar-based video encoding |
US9378576B2 (en) | 2013-06-07 | 2016-06-28 | Faceshift Ag | Online modeling for real-time facial animation |
US20150011309A1 (en) * | 2013-07-03 | 2015-01-08 | Raw Thrills, Inc. | QR Code Scoring System |
US9177410B2 (en) | 2013-08-09 | 2015-11-03 | Ayla Mandel | System and method for creating avatars or animated sequences using human body features extracted from a still image |
US9646358B2 (en) * | 2013-09-20 | 2017-05-09 | Infosys Limited | Methods for scene based video watermarking and devices thereof |
US9706040B2 (en) | 2013-10-31 | 2017-07-11 | Udayakumar Kadirvel | System and method for facilitating communication via interaction with an avatar |
US9508197B2 (en) | 2013-11-01 | 2016-11-29 | Microsoft Technology Licensing, Llc | Generating an avatar from real time image data |
WO2015070416A1 (en) | 2013-11-14 | 2015-05-21 | Intel Corporation | Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices |
US9361510B2 (en) | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
US9544257B2 (en) | 2014-04-04 | 2017-01-10 | Blackberry Limited | System and method for conducting private messaging |
US9503845B2 (en) | 2014-04-17 | 2016-11-22 | Paypal, Inc. | Image customization to enhance transaction experience |
WO2015164951A1 (en) | 2014-05-01 | 2015-11-05 | Abbas Mohamad | Methods and systems relating to personalized evolving avatars |
US9022291B1 (en) * | 2014-07-24 | 2015-05-05 | Apple Inc. | Invisible optical label for transmitting information between computing devices |
US20160134840A1 (en) | 2014-07-28 | 2016-05-12 | Alexa Margaret McCulloch | Avatar-Mediated Telepresence Systems with Enhanced Filtering |
US9898849B2 (en) | 2014-11-05 | 2018-02-20 | Intel Corporation | Facial expression based avatar rendering in video animation and method |
KR102374446B1 (ko) | 2014-12-11 | 2022-03-15 | 인텔 코포레이션 | 아바타 선택 메커니즘 |
US10218684B2 (en) * | 2015-01-30 | 2019-02-26 | Ncr Corporation | Secure data transmission |
JP6462386B2 (ja) | 2015-02-05 | 2019-01-30 | 任天堂株式会社 | プログラム、通信端末及び表示方法 |
US9740920B1 (en) * | 2015-09-10 | 2017-08-22 | Symantec Corporation | Systems and methods for securely authenticating users via facial recognition |
US20170087473A1 (en) | 2015-09-29 | 2017-03-30 | Sportsworld, Inc. | Virtual environments for managing and interacting with virtual sports leagues |
US20170118145A1 (en) | 2015-10-21 | 2017-04-27 | Futurefly Ltd. | Method of using emoji to control and enrich 3d chat environments |
US9911198B2 (en) * | 2015-12-17 | 2018-03-06 | Canon Kabushiki Kaisha | Method, system and apparatus for matching moving targets between camera views |
US10475225B2 (en) | 2015-12-18 | 2019-11-12 | Intel Corporation | Avatar animation system |
US9916867B2 (en) * | 2016-01-06 | 2018-03-13 | Hulu, LLC | Video capture and testing of media player playback of a video |
US20170199855A1 (en) | 2016-01-11 | 2017-07-13 | BuilderFish, LLC | System and method for providing a time-based presentation of a user-navigable project model |
WO2017146565A1 (en) * | 2016-02-25 | 2017-08-31 | Three Logic Concepts Sdn. Bhd. | System and method of processing gaming machine payout wirelessly |
US9911073B1 (en) | 2016-03-18 | 2018-03-06 | Snap Inc. | Facial patterns for optical barcodes |
US10019639B2 (en) * | 2016-04-19 | 2018-07-10 | Blackberry Limited | Determining a boundary associated with image data |
US20170312634A1 (en) | 2016-04-28 | 2017-11-02 | Uraniom | System and method for personalized avatar generation, especially for computer games |
US11493988B2 (en) | 2016-04-29 | 2022-11-08 | Hewlett-Packard Development Company, L.P. | Guidance information relating to a target image |
US11112963B2 (en) | 2016-05-18 | 2021-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for messaging |
US10657701B2 (en) | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
CN107596677B (zh) * | 2016-07-12 | 2021-01-05 | 雅达朗知识产权有限公司 | 在线式投杯球游戏系统 |
US10573048B2 (en) | 2016-07-25 | 2020-02-25 | Oath Inc. | Emotional reaction sharing |
CN107665231A (zh) * | 2016-07-27 | 2018-02-06 | 优屏亚太私人有限公司 | 定位方法和系统 |
US20180046874A1 (en) * | 2016-08-10 | 2018-02-15 | Usens, Inc. | System and method for marker based tracking |
US20180047200A1 (en) | 2016-08-11 | 2018-02-15 | Jibjab Media Inc. | Combining user images and computer-generated illustrations to produce personalized animated digital avatars |
US11132758B2 (en) * | 2016-09-14 | 2021-09-28 | Inscape Data, Inc. | Embedding data in video without visible impairments |
US10726673B2 (en) * | 2016-09-20 | 2020-07-28 | Acres Technology | Automatic application of a bonus to an electronic gaming device responsive to player interaction with a mobile computing device |
KR102596477B1 (ko) | 2016-09-23 | 2023-11-02 | 애플 인크. | 아바타 생성 및 편집 |
US20180089879A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Synchronizing Display of Multiple Animations |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10242477B1 (en) | 2017-01-16 | 2019-03-26 | Snap Inc. | Coded vision system |
US11893647B2 (en) | 2017-04-27 | 2024-02-06 | Snap Inc. | Location-based virtual avatars |
US10949872B2 (en) | 2017-04-28 | 2021-03-16 | Snap Inc. | Methods and systems for server generation of interactive advertising with content collections |
US9980100B1 (en) | 2017-08-31 | 2018-05-22 | Snap Inc. | Device location based on machine learning classifications |
US10657695B2 (en) | 2017-10-30 | 2020-05-19 | Snap Inc. | Animated chat presence |
US20190259123A1 (en) * | 2018-02-22 | 2019-08-22 | Michael Barnett | System and method of data transfer in-band in video via optically encoded images |
USD889556S1 (en) * | 2018-09-19 | 2020-07-07 | Aristocrat Technologies Australia Pty Limited | Slot table hybrid design |
US20200090453A1 (en) * | 2018-09-19 | 2020-03-19 | Igt | Pairing augmented reality devices with electronic gaming machines |
US11599963B2 (en) * | 2018-09-25 | 2023-03-07 | Uber Technologies, Inc. | Pairing transport service users and drivers using animation |
US10762317B2 (en) * | 2018-11-06 | 2020-09-01 | International Business Machines Corporation | Quick response (QR) code deformation |
US11064149B1 (en) * | 2020-02-21 | 2021-07-13 | The National Institute for Research and Development for Biological Sciences | Blended integration of quick response codes into images and video |
US11452939B2 (en) | 2020-09-21 | 2022-09-27 | Snap Inc. | Graphical marker generation system for synchronizing users |
-
2020
- 2020-09-21 US US17/027,397 patent/US11452939B2/en active Active
-
2021
- 2021-09-17 CN CN202180063899.XA patent/CN116194184A/zh active Pending
- 2021-09-17 EP EP21790752.6A patent/EP4213955A1/en active Pending
- 2021-09-17 WO PCT/US2021/071499 patent/WO2022061364A1/en unknown
- 2021-09-17 KR KR1020237012998A patent/KR20230066635A/ko unknown
-
2022
- 2022-09-16 US US17/946,486 patent/US11833427B2/en active Active
-
2023
- 2023-10-30 US US18/385,322 patent/US20240058699A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20230066635A (ko) | 2023-05-16 |
WO2022061364A1 (en) | 2022-03-24 |
US20240058699A1 (en) | 2024-02-22 |
US20220088477A1 (en) | 2022-03-24 |
US11452939B2 (en) | 2022-09-27 |
EP4213955A1 (en) | 2023-07-26 |
US20230019561A1 (en) | 2023-01-19 |
US11833427B2 (en) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115552403B (zh) | 用于媒体内容项的私人集合的邀请媒体覆盖物 | |
CN115777194B (zh) | 包括外部资源停靠栏和抽屉的消息收发系统 | |
CN115668887A (zh) | 用于媒体内容项的共享集合的邀请媒体覆盖 | |
US11833427B2 (en) | Graphical marker generation system for synchronizing users | |
CN115668888A (zh) | 特色内容集合界面 | |
CN115917506A (zh) | 第三方资源授权 | |
CN115668119A (zh) | 用于消息收发系统的具有标贴的回复界面 | |
CN115697508A (zh) | 游戏结果覆盖系统 | |
CN116438788A (zh) | 媒体内容回放和评论管理 | |
CN115885247A (zh) | 用于启动应用的视觉搜索 | |
CN116113991A (zh) | 用于关节动画的运动表示 | |
CN116235194A (zh) | 媒体内容传输和管理 | |
CN116349215A (zh) | 利用微声音剪辑来聊天 | |
CN116057917A (zh) | 记录的声音的缩略图 | |
CN116529748A (zh) | 消息系统中基于ar的化妆产品集 | |
CN116724314A (zh) | 生成式对抗网络操纵的图像效果 | |
CN115701304A (zh) | 上下文发送菜单 | |
CN117501675A (zh) | 呈现由消息应用从第三方资源接收的内容 | |
CN116648895A (zh) | 用于捕获多个视频片段的摄像装置模式 | |
CN116235196A (zh) | 跨平台的数据管理和集成 | |
CN116034577A (zh) | 上下文应用菜单 | |
CN115698931A (zh) | 上下文动作栏 | |
US11918888B2 (en) | Multi-user AR experience with offline synchronization | |
US20220103495A1 (en) | Generating media content items for sharing to external applications | |
CN117597940A (zh) | 用于呈现适用于摄像装置的功能的用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |