CN116114258A - 用于位姿驱动的虚拟效果的用户界面 - Google Patents

用于位姿驱动的虚拟效果的用户界面 Download PDF

Info

Publication number
CN116114258A
CN116114258A CN202180055726.3A CN202180055726A CN116114258A CN 116114258 A CN116114258 A CN 116114258A CN 202180055726 A CN202180055726 A CN 202180055726A CN 116114258 A CN116114258 A CN 116114258A
Authority
CN
China
Prior art keywords
video
pose
series
pose information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180055726.3A
Other languages
English (en)
Inventor
阿米尔·阿拉维
奥拉·雷赫柳克
石欣桐
乔纳森·索利欣
奥莱夏·沃罗诺娃
阿尔乔姆·亚戈金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN116114258A publication Critical patent/CN116114258A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/222Monitoring or handling of messages using geographical location information, e.g. messages transmitted or received in proximity of a certain spot or area

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本文的系统和方法描述了一种用于通过图像捕获装置实时捕获视频的方法。该系统提供多个视觉位姿提示,在捕获视频的同时识别视频中的第一位姿信息,将第一系列虚拟效果应用于视频,识别第二位姿信息,并且将第二系列虚拟效果应用于视频,第二系列虚拟效果基于第一系列虚拟效果。

Description

用于位姿驱动的虚拟效果的用户界面
优先权要求
本申请要求于2020年8月13日提交的序列号为62/706,391的美国临时申请的优先权的权益,其全部内容通过引用并入本文中。
背景技术
当今,在许多视频中,在视频被拍摄之后,在后处理中添加诸如屏幕抖动、颜色校正等效果。这在由不同创建者重复的舞蹈视频中尤其流行。
附图说明
在附图中,相同的附图标记可以在不同的视图中描述类似的部件,附图不一定按比例绘制。为了容易地标识对任何特定要素或动作的讨论,附图标记中的一个或多个最高有效数字是指该要素在其中首次被介绍的图号。在附图中以示例而非限制的方式示出了一些实施方式,在附图中:
图1是根据一些示例的其中可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能二者的消息收发系统的图解表示。
图3是根据一些示例的在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是根据一些示例的访问限制过程的流程图。
图6是根据一些示例的用于通过图像捕获装置实时捕获视频的方法的流程图。
图7是根据一些示例的骨骼位姿系统的图解表示。
图8是根据一些示例的骨骼位姿系统的示例用户行为流程。
图9是根据一些示例的骨骼位姿系统的示例用户行为流程。
图10是根据一些示例的骨骼位姿系统的示例用户行为流程。
图11是根据一些示例的骨骼位姿系统的示例用户行为流程。
图12是根据一些示例实施方式的骨骼位姿系统的图解表示。
图13是根据一些示例的用于通过图像捕获装置实时捕获视频的方法的流程图。
图14至图19是根据一些示例实施方式的骨骼位姿系统的示例用户界面。
图20是示出其中可以实现示例的软件架构的框图。
图21是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行指令集合以使该机器执行本文所讨论的方法中任何一种或更多种。
具体实施方式
所提出的系统和方法描述了使用人的运动来驱动使用增强现实(AR)的视觉效果的骨骼位姿系统。例如,骨骼位姿系统检测用户的位姿(例如,用户的身体如何定位以及每个关节之间的角度)以“触发”虚拟效果。在另一示例中,骨骼位姿系统跟踪用户的手或关节,以允许用户控制他们期望的虚拟效果的水平。在一个示例中,骨骼位姿系统在用户的手涉及触发虚拟效果的参考点(例如,如果用户将他们的手朝向摄像装置取景器的角移动,则其将触发虚拟效果)时检测用户的手。在另一示例中,骨骼位姿系统检测手势以触发虚拟效果。骨骼位姿系统还可以将多个虚拟效果链接在一起作为效果的序列。
联网计算环境
图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备106的多个实例,每个实例托管若干应用,包括消息收发客户端108。每个消息收发客户端108经由网络102(例如,因特网)通信地耦接至消息收发客户端108和消息收发服务器系统104的其他实例。
消息收发客户端108能够经由网络102与另一消息收发客户端108和消息收发服务器系统104通信并且交换数据。在消息收发客户端108之间以及消息收发客户端108与消息收发服务器系统104之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统104经由网络102向特定消息收发客户端108提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端108或由消息收发服务器系统104执行,但是某些功能的在消息收发客户端108或消息收发服务器系统104内的定位可以是设计选择。例如,在技术上可以优选的是:最初将某些技术和功能部署在消息收发服务器系统104内,但是后面将该技术和功能迁移至客户端设备106具有足够处理能力的消息收发客户端108。
消息收发服务器系统104支持向消息收发客户端108提供的各种服务和操作。这样的操作包括向消息收发客户端108发送数据、从消息收发客户端108接收数据以及对由消息收发客户端108生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和覆盖、消息内容持续条件、社交网络信息和实况事件信息。通过经由消息收发客户端108的用户接口(UI)可用的功能来激活和控制消息收发系统100内的数据交换.
现在具体地转至消息收发服务器系统104,应用程序接口(API)服务器112耦接至应用服务器110并且向应用服务器110提供编程接口。应用服务器110通信地耦接至数据库服务器116,数据库服务器116利于访问数据库124,该数据库124存储与通过应用服务器110处理的消息相关联的数据。类似地,web服务器126耦接至应用服务器110,并且向应用服务器110提供基于web的接口。为此,web服务器126通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
应用程序接口(API)服务器112在客户端设备106与应用服务器110之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器112提供一组接口(例如,例程和协议),消息收发客户端108可以调用或查询该组接口以激活应用服务器110的功能。应用程序接口(API)服务器112显露由应用服务器110支持的各种功能,包括:帐户注册;登录功能;经由应用服务器110将消息从特定消息收发客户端108发送至另一消息收发客户端108;将媒体文件(例如,图像或视频)从消息收发客户端108发送至消息收发服务器114并且用于另一消息收发客户端108的可能访问;设置媒体数据集合(例如,故事);检索客户端设备106的用户的朋友列表;检索这样的集合;检索消息和内容;在实体图(例如社交图)中添加和删除实体(例如朋友);在社交图中定位朋友;以及打开应用事件(例如,与消息收发客户端108有关)。
应用服务器110托管若干服务器应用和子系统,包括例如消息收发服务器114、图像处理服务器118和社交网络服务器120。消息收发服务器114实现了若干消息处理技术和功能,特别是与从消息收发客户端108的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理有关的消息处理技术和功能。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库)。然后,使这些集合对消息收发客户端108可用。鉴于对这样的处理的硬件要求,也可以由消息收发服务器114在服务器侧执行数据的其他处理器和存储器密集型处理。
应用服务器110还包括图像处理服务器118,该图像处理服务器118专用于执行各种图像处理操作,通常相对于在从消息收发服务器114发送或者在消息收发服务器114处接收的消息的有效载荷内的图像或视频,执行各种图像处理操作。
社交网络服务器120支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器114。为此,社交网络服务器120维护和访问数据库124内的实体图308(如图3所示)。由社交网络服务器120支持的功能和服务的示例包括识别消息收发系统100中的与特定用户有关系或该特定用户正在“关注”的其他用户,以及识别特定用户的兴趣和其他实体。
骨骼位姿系统122使用人的运动来驱动使用增强现实的视觉效果。例如,骨骼位姿系统122从图像捕获装置接收人的视频并且识别位姿。响应于识别到姿态,骨骼位姿系统122实时地将虚拟效果应用于视频。
系统架构
图2是示出根据一些示例的关于消息收发系统100的进一步细节的框图。具体地,消息收发系统100被显示为包括消息收发客户端108和应用服务器110。消息收发系统100包含若干子系统,这些子系统在客户端侧由消息收发客户端108支持并且在服务器侧由应用服务器110支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统206、地图系统210和游戏系统212以及骨骼位姿系统122。
短暂定时器系统202负责施行由消息收发客户端108和消息收发服务器114对内容进行临时或限时访问。短暂定时器系统202包含若干个定时器,这些定时器基于与消息或消息集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端108访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的合集或集合(例如,文本、图像、视频和音频数据的集合)。可以将内容(例如,消息,包括图像、视频、文本和音频)的集合组织成“事件图库”或“事件故事”。可以使这样的集合在指定的时间段内(例如,与内容相关的事件的持续时间)可用。例如,可以在音乐会的持续时间内使与音乐会相关的内容作为“故事”可用。集合管理系统204还可以负责向消息收发客户端108的用户接口发布提供特定集合存在的通知的图标。
此外,集合管理系统204还包括使得集合管理者能够管理和策展内容的特定集合的策展接口208。例如,策展接口208使得事件组织者能够策展与特定事件相关的内容集合(例如,删除不适当的内容或冗余消息)。此外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地向这样的用户支付以使用他们的内容。
增强系统206提供使得用户能够增强(例如,注释或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统206提供与生成和发布用于由消息收发系统100处理的消息的媒体覆盖(media overlay)相关的功能。增强系统206基于客户端设备106的地理定位可操作地向消息收发客户端108提供媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强系统206基于诸如客户端设备106的用户的社交网络信息的其他信息可操作地向消息收发客户端108提供媒体覆盖。媒体覆盖可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、标志、动画和声音效果。视觉效果的示例包括色彩覆盖。音频和视觉内容或视觉效果可以应用于客户端设备106处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备106拍摄的照片之上的文本或图像。在另一示例中,媒体覆盖包括位置标识(例如,威尼斯海滩)覆盖、实况事件的名称或商家名称(例如,海滩咖啡馆)覆盖。在另一示例中,增强系统206使用客户端设备106的地理定位来标识包括在客户端设备106的地理定位处的商家的名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他标记。媒体覆盖可以存储在数据库124中并且通过数据库服务器116访问。
在一些示例中,增强系统206提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位并且上传与所选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体覆盖的情况。增强系统206生成包括所上传的内容并且将所上传的内容与所选择的地理定位相关联的媒体覆盖。
在其他示例中,增强系统206提供基于商家的发布平台,该基于商家的发布平台使商家能够经由竞价处理选择与地理定位相关联的特定媒体覆盖。例如,增强系统206将最高竞价商家的媒体覆盖与相应的地理定位相关联达预定义时间量。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端108呈现基于地图的媒体内容和消息。例如,地图系统210能够在地图上显示(例如,存储在配置文件数据318中的)用户图标或化身,以指示用户的“朋友”的当前或过去位置,以及由这些朋友在地图的上下文内生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,在消息收发客户端108的地图界面上,可以将用户从特定定位位置发布到消息收发系统100的消息在地图的该特定位置的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端108与消息收发系统100的其他用户(例如,使用适当的状况化身)共享他或她的位置和状况信息,其中该位置和状况信息类似地在消息收发客户端108的地图界面的上下文内被显示给所选择的用户。
游戏系统212在消息收发客户端108的上下文内提供各种游戏功能。消息收发客户端108提供游戏界面,该游戏界面提供可用游戏的列表,该游戏可以由用户在消息收发客户端108的上下文中启动并且与消息收发系统100的其他用户一起玩。消息收发系统100还使特定用户能够通过从消息收发客户端108向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。消息收发客户端108还支持在玩游戏的上下文中的语音消息收发和文本消息收发(例如,聊天)两者,为游戏提供排行榜,并且还支持提供游戏内奖励(例如,钱币和物品)。
骨骼位姿系统122使用人的运动来驱动使用增强现实的视觉效果。例如,骨骼位姿系统122从图像捕获装置接收人的视频并且识别位姿。响应于识别到位姿,骨骼位姿系统122实时地将虚拟效果应用于视频。在一些示例中,骨骼位姿系统122在消息收发客户端108的上下文内操作。在一些示例中,骨骼位姿系统122可以由应用服务器110支持。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统104的数据库124中的数据结构300的示意图。虽然数据库124的内容被示出为包括若干表,但是将理解的是,数据可以以其他类型的数据结构进行存储(例如,作为面向对象数据库)。
数据库124包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据中的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接到实体图308和配置文件数据318。在实体表306内为其维持记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统104存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一的标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或基于活动的社交关系、专业关系(例如,在共同的公司或组织工作)。
配置文件数据318存储关于特定实体的多种类型的配置文件数据。基于由特定实体指定的隐私设置,配置文件数据318可以被选择性地使用并且呈现给消息收发系统100的其他用户。在实体是个人的情况下,配置文件数据318包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置),以及用户选择的化身表示(或这种化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容中以及在由消息收发客户端108向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间进行通信的状态或活动的图解表示。
在实体是团体的情况下,除了团体名称、成员和相关团体的各种设置(例如,通知)之外,团体的配置文件数据318还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库124还在增强表310中存储增强数据,例如覆盖或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆盖在图像或视频上的覆盖。过滤器可以是各种类型的,包括当发送用户正在编写消息时由消息收发客户端108呈现给发送用户的一组过滤器中用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,可以基于由客户端设备106的全球定位系统(GPS)单元确定的地理定位信息,由消息收发客户端108在用户接口内呈现特定于附近或特殊位置的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端108基于在消息创建过程期间由客户端设备106收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备106的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、覆盖、图像变换、AR图像,并且类似的术语是指可以应用于图像数据(例如,视频或图像)的修改。这包括实时修改,其在使用客户端设备106的设备传感器(例如,一个或多个摄像装置)捕获图像时对图像进行修改并且然后在修改的情况下在客户端设备106的屏幕上显示图像。这还包括对所存储的内容的修改,例如对可以被修改的图库中的视频剪辑的修改。例如,在可以访问多个增强现实内容项的客户端设备106中,用户可以使用具有多个增强现实内容项的单个视频剪辑来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过为内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由客户端设备106的传感器捕获的视频图像将如何修改捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或二者)的情况下被记录并且存储在存储器中。在某些系统中,预览功能可以同时显示不同的增强现实内容项在显示器的不同窗口中将看起来如何。例如,这可以实现同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的各种系统或使用该数据修改内容的其他这样的变换系统以及数据可以涉及视频帧中对象(例如,脸、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这些对象的跟踪,以及在跟踪这些对象时对其进行的修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的3维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在所跟踪的位置处。在更进一步的示例中,可以使用对视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既指用于在内容中创建变换的图像、模型和纹理,也指通过对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何类型的计算机化系统的存储器中的任何类型的视频数据(例如,视频流、视频文件)来执行实时视频处理。例如,用户可以加载视频文件并且将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人的面部和人身体的各部分、动物或非生物(诸如椅子、汽车或其他对象)。
在一些示例中,当与要变换的内容一起选择特定修改时,要变换的元素由计算设备识别,并且然后如果要变换的元素存在于视频的帧中,则被检测和跟踪。根据修改请求修改对象的元素,从而变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要是指改变对象的元素的形式的帧的变换,计算对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,将所提及的每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一点的第一集合,并且基于第一点的集合和修改请求针对每个元素生成第二点的集合。然后,可以通过基于第一点的集合和第二点的集合以及网格修改对象的元素,对视频流的帧进行转换。在这种方法中,也可以通过跟踪和修改背景来使被修改对象的背景改变或变形。
在一些示例中,可以通过计算对象的每个元素的特征点并且基于计算的特征点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,然后基于这些点生成各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改的请求来修改区域的属性,从而转换视频流的帧。根据具体的修改请求,可以以不同的方式变换所提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少一些部分;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其变形。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,使用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
在其他示例中,可以使用适合面部检测的其他方法和算法。例如,在一些实施方式中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,对于面部界标,可以使用左眼瞳孔的位置。如果初始界标不可识别(例如,如果人有眼罩),则可以使用次级界标。这样的界标识别过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。将一个形状通过相似变换(允许平移、缩放和旋转)与另一形状对准,该相似变换使形状点之间的平均欧几里得距离最小化。平均形状是对准的训练形状的平均。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的平均形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的位置而建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,个别模板匹配是不可靠的,并且形状模型将弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索在从粗略分辨率到精细分辨率的图像金字塔的每个级别上重复。
变换系统可以在客户端设备(例如,客户端设备106)上捕获图像或视频流,并且在客户端设备106上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状变化、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减少表观年龄、改变性别)、风格转换、图形元素应用,以及由已经被配置成在客户端设备106上有效执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有神经网络的客户端设备106来捕获用户的图像或视频流(例如,自拍),该神经网络操作作为在客户端设备106上操作的消息收发客户端108的一部分。在消息收发客户端108内操作的变换系统确定图像或视频流中的面部的存在并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以被呈现为与本文中描述的界面相关联。修改图标包括以下变化,该变化可以是作为修改操作的一部分的修改图像或视频流中的用户面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映所选择的修改图标(例如,在用户上生成笑脸)的处理。一旦图像或视频流被捕获并且指定的修改被选择,修改的图像或视频流就可以呈现在客户端设备106上显示的图形用户界面中。变换系统可以在图像或视频流的一部分上实施复杂的卷积神经网络,以生成和应用所选择的修改。也就是说,一旦选择了修改图标,用户就可以捕获图像或视频流并且实时或近乎实时地被呈现了修改结果。此外,当正在捕获视频流时,修改可以是持久的,并且所选择的修改图标保持被切换。机器教导的神经网络可以用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以为用户提供附加的交互选项。这样的选项可以基于用于发起内容捕获和对特定计算机动画模型的选择的界面(例如,从内容创建者用户界面发起)。在各种实施方式中,修改可以在对修改图标的初始选择之后是持久的。用户可以通过轻击或以其他方式选择由变换系统修改的面部来打开或关闭修改,并且将其存储以供以后查看或浏览到成像应用的其他区域。在由变换系统修改多个面部的情况下,用户可以通过轻击或选择在图形用户界面内修改和显示的单个面部来全局打开或关闭修改。在一些实施方式中,可以通过轻击或选择图形用户接口内显示的单独面部或一系列面部来单独修改一组多个面部中的各个面部,或者单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如其记录保存在实体表306中的每个用户)发起。用户可以以已经由该用户创建和发送/广播的内容的集合的形式创建“个人故事”。为此,消息收发客户端108的用户接口可以包括用户可选择的图标,以使得发送用户能够将特定内容添加到他或她的个人故事。
集合还可以构成作为来自多个用户的内容的集合的“实况故事”,所述内容是手动地、自动地或者使用手动技术和自动技术的组合创建的。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。其客户端设备启用了定位服务并且在特定时间处于共同位置事件处的用户可以例如经由消息收发客户端108的用户接口被呈现有将内容贡献给特定实况故事的选项。可以由消息收发客户端108基于他或她的位置向用户标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另外类型的内容集合被称为“位置故事”,其使得其客户端设备106位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证以验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如上面提到的,视频表304存储视频数据,在一个示例中,该视频数据与其记录保存在消息表302内的消息相关联。类似地,图像表312存储图像数据,该图像数据与其消息数据存储在实体表306中的消息相关联。实体表306可以使来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据库124还可以将位姿信息存储在位姿表316中。位姿表316可以与来自增强表310的各种增强相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端108生成,以用于传送至另外的消息收发客户端108或消息收发服务器114。特定消息400的内容用于填充存储在数据库124中的消息表302,该消息表302可由消息收发服务器114访问。类似地,消息400的内容被存储在存储器中作为客户端设备106或应用服务器110的“传输中”或“飞行中”的数据。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备106的用户接口生成并且被包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备106的摄像装置部件捕获的或从客户端设备106的存储器部件检索的、并且包括在消息400中的图像数据。发送或接收到的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获的或从客户端设备106的存储器部件检索到的、并且包括在消息400中的视频数据。发送或接收到的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获的或从客户端设备106的存储器部件检索的、并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、贴纸或其他注解或增强)。发送或接收到的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:参数值,其指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)将经由消息收发客户端108被呈现给用户或使其对于用户可访问的以秒为单位的时间量。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以被包括在有效载荷中,这些参数值中的每个参数值与包括在内容中的内容项(例如消息图像有效载荷406内的特定图像或消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值,其中消息400的消息图像有效载荷406中的特定内容项与一个或更多个内容集合相关联。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,多个标签中的每个标签指示消息有效载荷中所包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如狮子)的情况下,可以在消息标签420中包括指示相关动物的标签值。标签值可以基于用户输入手动地生成,或可以使用例如图像识别自动地生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备106的用户的标识符(例如消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400被寻址到的客户端设备106的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各个组成部分的内容(例如,值)可以是指向其内存储有内容数据值的表中的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
基于时间的访问限制架构
图5是示出访问限制过程500的示意图,根据该访问限制过程,对内容(例如,短暂消息502和相关联的数据的多媒体有效载荷)或内容集合(例如,短暂消息组504)的访问可以是时间受限的(例如,使得是短暂的)。
短暂消息502被示为与消息持续时间参数506相关联,消息持续时间参数506的值确定消息收发客户端108将向短暂消息502的接收用户显示短暂消息502的时间量。在一个示例中,取决于发送用户使用消息持续时间参数506指定的时间量,接收用户可查看短暂消息502达到最多10秒。
消息持续时间参数506和消息接收者标识符424被示出为是消息定时器510的输入,消息定时器510负责确定向由消息接收者标识符424标识的特定接收用户示出短暂消息502的时间量。特别地,仅在由消息持续时间参数506的值确定的时间段内向相关接收用户示出短暂消息502。消息定时器510被示出为向更一般化的短暂定时器系统202提供输出,该短暂定时器系统202负责向接收用户显示内容(例如,短暂消息502)的总体定时。
图5中示出的短暂消息502被包括在短暂消息组504(例如,个人故事或事件故事中的消息的集合)内。短暂消息组504具有相关联的组持续时间参数508,组持续时间参数508的值确定短暂消息组504被呈现并且可由消息收发系统100的用户访问的持续时间。例如,组持续时间参数508可以是音乐会的持续时间,其中,短暂消息组504是涉及该音乐会的内容的集合。替选地,当执行短暂消息组504的设置和创建时,用户(拥有用户或策展者用户)可以指定组持续时间参数508的值。
另外,短暂消息组504内的每个短暂消息502具有相关联的组参与参数512,组参与参数512的值确定在短暂消息组504的上下文内将可访问短暂消息502的持续时间。因此,在短暂消息组504本身根据组持续时间参数508到期之前,特定的短暂消息组504可以“到期”并且在短暂消息组504的上下文中变得不可访问。组持续时间参数508、组参与参数512和消息接收者标识符424各自向组定时器514提供输入,组定时器514可操作地首先确定短暂消息组504的特定短暂消息502是否将被显示给特定接收用户,并且如果是,则确定显示多长时间。注意,由于消息接收者标识符424,短暂消息组504也知道特定接收用户的身份。
因此,组定时器514可操作地控制相关联的短暂消息组504以及包括在短暂消息组504中的单独的短暂消息502的总寿命期限。在一个示例中,短暂消息组504内的每个短暂消息502在由组持续时间参数508指定的时间段内保持可查看和可访问。在另一示例中,在短暂消息组504的上下文内,某个短暂消息502可以基于组参与参数512而到期。注意,即使在短暂消息组504的上下文内,消息持续时间参数506也仍然可以确定向接收用户显示特定短暂消息502的持续时间。因此,消息持续时间参数506确定向接收用户显示特定短暂消息502的持续时间,而不管接收用户是在短暂消息组504的上下文之内还是之外查看该短暂消息502。
短暂定时器系统202还可以基于确定特定的短暂消息502已经超过相关联的组参与参数512而从短暂消息组504中可操作地移除该特定的短暂消息502。例如,当发送用户已经建立了从发布起24小时的组参与参数512时,短暂定时器系统202将在指定的24小时之后从短暂消息组504中移除相关的短暂消息502。当针对短暂消息组504内的每个短暂消息502的组参与参数512已经到期时,或者当短暂消息组504本身根据组持续时间参数508已经到期时,短暂定时器系统202还进行操作以移除短暂消息组504。
在某些使用情况下,特定短暂消息组504的创建者可以指定无期限的组持续时间参数508。在这种情况下,针对短暂消息组504内最后剩余的短暂消息502的组参与参数512的到期将确定短暂消息组504本身何时到期。在这种情况下,添加至短暂消息组504的具有新的组参与参数512的新的短暂消息502实际上将短暂消息组504的寿命延长到等于组参与参数512的值。
响应于短暂定时器系统202确定短暂消息组504已经到期(例如,不再是可访问的),短暂定时器系统202与消息收发系统100(并且例如特别是消息收发客户端108)通信,以使得与相关短暂消息组504相关联的标记(例如,图标)不再显示在消息收发客户端108的用户界面内。类似地,当短暂定时器系统202确定针对特定短暂消息502的消息持续时间参数506已经到期时,短暂定时器系统202使消息收发客户端108不再显示与短暂消息502相关联的标记(例如,图标或文本标识)。
图6是用于使用人的位姿信息来实时驱动虚拟效果的示例方法。虽然所描述的流程图可以将操作示为顺序过程,但是许多操作可以并行或同时执行。此外,可以重新安排操作的顺序。过程在其操作完成时终止。过程可以对应于方法、程序、算法等。方法的操作可以全部或部分地执行,可以结合其他方法中的一些或全部操作来执行,并且可以由任何数目的不同系统(例如本文所述的系统)或其任何部分(例如包括在任何系统中的处理器)来执行。
在操作602中,骨骼位姿系统122在图像捕获装置捕获视频期间识别视频中的第一位姿信息。第一位姿信息包括视频中描绘的人的第一多个关节位置。应当理解的是,第一位姿信息还可以包括例如动物、面部或动画生物或化身的位姿信息。在操作604处,响应于识别到第一位姿信息,骨骼位姿系统122将第一虚拟效果应用于视频。第一虚拟效果可以是增强现实内容项。关于增强现实内容项的其他细节可以结合上述图3找到。在捕获视频的同时,实时或接近实时地将第一虚拟效果应用于视频。
在操作606处,骨骼位姿系统122识别视频中的第二位姿信息。例如,第二位姿信息是视频中描绘的人的第二多个关节位置。第二位姿信息不同于第一位姿信息。此外,在识别到第一位姿信息之后的时间点识别第二位姿信息。例如,第二位姿信息包括人的新关节位置(例如,人已经移动,或者人正在执行不同的位姿)。在操作608处,响应于识别到第二位姿信息,骨骼位姿系统122将第二虚拟效果应用于视频。第二虚拟效果可以是第二增强现实内容项。第二虚拟效果基于第一虚拟效果。例如,第二虚拟效果可以仅在第一视觉效果之后被应用。在一些示例中,第二虚拟效果描述第一视觉效果的较低级别的粒度。在另一示例中,第二虚拟效果增强了第一虚拟效果。例如,第一虚拟效果可以在视频的捕获期间向视频添加滤色器。第二虚拟效果可以基于第二位姿信息使通过第一虚拟效果施加的视频的颜色变暗或变亮。
在一些示例中,骨骼位姿系统122存储包括第一视觉效果和第二视觉效果的修改的视频,并且将该视频作为短暂消息发送至计算设备。修改的视频包括在视频的第一时间点出现的第一虚拟效果和在视频的第二时间点出现的第二虚拟效果。
在一些示例中,骨骼位姿系统122识别视频中的手。骨骼位姿系统122跟踪视频中手从第一位置到第二位置的运动,并且基于所跟踪的手的运动修改第一视觉效果的粒度级别。
图7是骨骼位姿系统122的图解表示。骨骼位姿系统122包括核心位姿系统706、位姿模块1206和相关模块1204。核心位姿系统706识别各个位姿。例如,核心位姿系统706识别第一位姿信息和第二位姿信息。在识别到位姿之后,骨骼位姿系统122确定应用于视频的虚拟效果。例如,一旦识别到位姿,骨骼位姿系统122访问启动虚拟效果并且应用虚拟效果的位姿模块704。
位姿模块704包括子系统,该子系统包含用于创建不同AR体验的指令集合。例如,位姿模块704中的子系统可以包括创建AR游戏体验的JavaScript文件。相关模块702可以与位姿模块704和骨骼位姿系统122一起使用。在一些示例中,可以独立地使用相关模块702。相关模块702包括描述各种触发事件(例如,用户张开他们的嘴、用户在屏幕上滑动等)的指令。
图8是根据一些示例的骨骼位姿系统122的示例用户行为流程。例如,当用户示出其左手时,骨骼位姿系统122识别左手(操作802)。如果用户向上或向下移动手,则骨骼位姿系统122应用这样的虚拟效果:该虚拟效果通过增大不透明度(例如,基于检测到按照操作806用户向上移动手)或减小不透明度(例如,基于检测到按照操作808用户向下移动手)来改变由图像捕获装置捕获的视频的不透明度(操作804)。如果用户向左或向右移动手,则骨骼位姿系统122应用这样的虚拟效果:该虚拟效果通过增大饱和度(例如,基于检测到按照操作814向右移动手)或减小饱和度(例如,基于检测到按照操作812向左移动手)来改变视频中的饱和度(操作810)水平。当用户示出其右手时,骨骼位姿系统122识别右手(操作816)。类似地,如果用户向上或向下移动手,则骨骼位姿系统122应用这样的虚拟效果:该虚拟效果通过增大不透明度(例如,基于检测到按照操作820用户向上移动其手)或减小不透明度(例如,基于检测到按照操作722用户向下移动其手)来改变由图像捕获装置捕获的视频的不透明度(操作818)。如果用户向左或向右移动手,则骨骼位姿系统122应用这样的虚拟效果:该虚拟效果通过增大饱和度(例如,基于检测到按照操作828用户向右移动其手)或减小饱和度(例如,基于检测到按照操作826用户向左移动其手)来改变视频中的饱和度(操作824)水平。
图9是根据一些示例的骨骼位姿系统122的用户行为流程的示例。首先,在操作902处,用户示出她的左手。用户可以向上移动她的手(操作904)或向下移动她的手(操作906)以改变不透明度。例如,在操作904处,用户可以向上移动她的手以增加不透明度。然后,在操作908处,用户可以再次在静态位置示出她的左手。这向骨骼位姿系统122指示用户想要保持视频上的增加不透明度效果。在操作908处再次在静态位置示出她的左手之后,用户可以向左移动她的手(操作910)或向右移动她的手(操作912)以改变饱和度。因此,骨骼位姿系统122可以使用用户移动来增加视频的不透明度并且增加修改的视频的饱和度。
图10是根据一些示例的骨骼位姿系统122中的用户行为流程的示例。例如,如果用户在摄像装置视图的右上方(例如,按照操作1004在图像捕获装置的摄像装置视图中的右上方部分)拍手(操作1002),则骨骼位姿系统122对视频应用“屏幕抖动”和红色滤色器。例如,屏幕抖动效果向图像捕获装置的图形用户界面内显示的整个屏幕添加模糊性并且使整个平面抖动。当骨骼位姿系统122正在使用图像捕获装置捕获视频时,骨骼位姿系统122实时地应用屏幕抖动和红色滤色器。如果用户到摄像装置视图的左上方(操作1008)第二次拍手(操作906),则骨骼位姿系统122应用“屏幕抖动”效果和蓝色滤色器。如果用户在摄像装置视图的右下方操作(操作1012)第三次拍手(操作1010),则骨骼位姿系统122应用绿色滤色器和“屏幕抖动”效果。如果用户到摄像装置视图的左下方(操作1016)第四次拍手(操作1014),则骨骼位姿系统122对视频应用“屏幕抖动”效果并应用黄色滤色器。如果用户向摄像装置视图的左侧移动(操作1018),则骨骼位姿系统122将虚拟踪迹应用到摄像装置视图的左侧。如果用户向后行走(操作1020)离开摄像装置(例如,图像捕获装置),则骨骼位姿系统122在用户前方应用虚拟轨迹。如果用户跳跃(操作1022),则骨骼位姿系统122应用使虚拟五彩碎屑片落在用户身上的增强现实效果。如果用户跺左脚(操作1026),则骨骼位姿系统122应用将屏幕向左移位的屏幕移位效果。如果用户跺右脚(操作1024),则骨骼位姿系统122应用将屏幕向右移位的屏幕移位效果。在一些示例中,图10中的用户行为流程可以在骨骼位姿系统122识别到音频提示时启动。例如,骨骼位姿系统122可以在识别特定歌曲或歌曲的特定部分之后启动图10中描述的用户行为流程。因此,根据用户的位姿,骨骼位姿系统122应用不同的虚拟效果。此外,所应用的虚拟效果对于用户的位姿是直观的。
图11是骨骼位姿系统122中的用户行为流程的示例。骨骼位姿系统122可以用于游戏应用的上下文中。例如,如果用户成功地复制了显示在客户端设备的图形用户界面上的第一位姿1102,则骨骼位姿系统122生成谜题1104。为了解决谜题,用户可能需要执行第二位姿1106。如果用户成功地执行第二位姿,则骨骼位姿系统122确定用户已经赢得游戏1108。
图12是根据一些示例实施方式的骨骼位姿系统122的图解表示。骨骼位姿系统122包括核心位姿系统706、位姿模块704和相关模块702。在一些示例中,骨骼位姿系统122与一组响应系统1202通信地耦接。该组响应系统1202包括以下中的一个或更多个:行为系统、提示系统和多响应系统。虽然骨骼位姿系统122是被设计成帮助创建者用户(例如,创建AR效果的用户)基于骨骼位姿或姿势链接多个AR效果的触发的集合,但是行为系统、提示系统和多响应系统(统称为响应系统1202)是被设计成创建AR效果或帮助用户链接多个位姿或姿势的响应的集合。
行为系统是将触发链接到单个响应(例如,单个AR效果)的单个响应系统。多系统响应系统将触发链接到一组多响应。提示系统向用户提供提示以帮助用户执行触发一个或更多个AR效果所需的位姿或姿势。
图13是用于使用人的位姿信息来实时驱动虚拟效果的示例方法。虽然所描述的流程图可以将操作示出为顺序过程,但是操作中的许多操作可以并行或同时执行。另外,可以重新安排操作的顺序。过程在其操作完成时终止。过程可以对应于方法、程序、算法等。方法的操作可以全部或部分地执行,可以结合其他方法中的一些操作或全部操作来执行,并且可以由任何数目的不同系统(例如本文所述的系统)或系统的任何部分(例如包括在任何系统中的处理器)来执行。
在操作1302中,骨骼位姿系统122在视频捕获期间提供多个视觉位姿提示,多个位姿提示呈现在图像捕获装置的图形用户界面上。在操作1304中,骨骼位姿系统122识别视频中与多个视觉位姿提示中的第一位姿提示对应的第一位姿信息。在操作1306中,骨骼位姿系统122响应于识别到第一位姿信息,将第一系列虚拟效果应用于视频。在操作1308中,骨骼位姿系统122识别视频中与多个视觉位姿提示中的第二位姿提示对应的第二位姿信息,第二位姿信息在第一位姿信息之后被识别。在操作1310中,骨骼位姿系统122响应于识别到第二位姿信息,将第二系列虚拟效果应用于视频,第二系列虚拟效果基于第一系列虚拟效果。
图14至图19是骨骼位姿系统122的示例用户界面。图14中的用户界面可以显示在创建者用户(例如,正在创建由骨骼跟踪驱动的AR效果的用户)的计算设备的图形用户界面上。在一个示例中,如果用户正在移动其身体以指向摄像装置的捕获视图内的区域,则触发AR效果。在另一示例中,基于用户的骨骼身体位姿或姿势来触发AR效果。用户可以在图形用户界面上选择身体的区域,并且将各种AR效果应用于这些区域。例如,用户可以选择大区域(1404、1406)或者用户可以选择进一步界定的区域(1408、1410)。用户可以使用显示在图形用户界面上的可选用户界面元素(例如,按钮、复选框、下拉列表)来选择大区域和小区域。
图15是根据一些示例实施方式的显示脚本的示例用户界面。脚本由骨骼位姿系统122提供。例如,脚本提供关于人的骨骼的信息。在一些示例中,脚本可以由消息收发服务器系统104提供。用户可以选择第一可选用户界面元素(例如,按钮)1502来启动用于AR触发效果的脚本。用户可以选择第二可选用户界面元素1504来设置触发类型。例如,如图15所示,触发基于姿势。用户还可以选择脚本的响应(1506、1508)。例如,用户可以选择响应1506和响应1508来分别指示触发事件应该何时开始和结束。
在一些示例中,用户界面包括阈值字段,该阈值字段指示为了触发AR效果,位置或姿势需要有多精确。在一些示例中,用户界面包括触发开始关键字和触发结束关键字。用户界面还可以包括切换字段,该切换字段指示是否可以重复AR效果。在一些示例中,用户界面包括持续时间,该持续时间指示应该将AR效果应用于图像或视频的时间长度。
图16是根据示例实施方式的如何限定姿势的图示。项1602表示身体部位,而项1604表示身体部位1602的位置。图16中的图像示出了提供身体(1602)的相关关节之间的关系的一系列数字(例如,1602)。
图17是根据示例实施方式的显示脚本的示例用户界面。在一些示例中,用户选择第一可选用户界面元素1702来启动用于AR触发效果的脚本。用户可以选择第二可选用户界面元素1704来设置触发类型。用户可以选择第三可选用户界面元素1708以进一步限定触发类型。例如,在图17中,用于AR效果的触发事件可能需要左腕触摸屏幕。另外,用户可以选择第四可选用户界面元素1706来添加效果长度值,使得AR效果将在某个预定时间之后结束。
图18是根据示例实施方式的显示脚本的示例用户界面。在一些示例中,AR效果可以由两个关节有多靠近来触发(例如,用户正在跳舞并且将其右腕放在其左腕上以触发AR效果)。骨骼位姿系统122的用户可以通过使用第一可选用户界面元素1802来选择触发类型来配置该AR效果。然后,用户可以选择表示第一关节1804的可选用户界面,并且选择表示第二关节1806的可选用户界面。用户还可以输入表示触发AR效果所需的两个关节之间的距离的阈值1808。
图19是根据示例实施方式的显示脚本的示例用户界面。在一些示例中,由骨骼位姿系统122触发的AR效果可以是连续的而不是离散的。例如,用户的左腕与右腕之间的距离设置效果的不透明度。用户可以通过使用可选用户界面1910启动脚本来启动连续效果。用户可以选择用户界面元素1904、1906和1908以进一步定制AR效果。
在一些示例中,可以将姿势和位姿组合以创建通过骨骼位姿跟踪驱动的示例AR效果。
a.1.用户触摸屏幕上的虚拟苹果,并且虚拟苹果消失,同时立方体附于手上。
b.2.用户触摸屏幕上的虚拟樱桃,并且另一只手发生相同的情况。
c.3.用户举起双手并且色彩效果应用于屏幕。
软件架构
图20是示出软件架构2004的框图2000,该软件架构2004可以安装在本文所描述的任何一个或更多个装置上。软件架构2004由硬件例如包括处理器2020、存储器2026和I/O部件2038的机器2002支持。在该示例中,软件架构2004可以被概念化为层的堆叠,在该层的堆叠中,每个层提供特定的功能。软件架构2004包括诸如操作系统2012、库2010、框架2008和应用2006的层。在操作上,应用2006通过软件堆栈来激活API调用2050并且响应于API调用2050来接收消息2052。
操作系统2012管理硬件资源并且提供公共服务。操作系统2012包括例如核2014、服务2016和驱动器2022。核2014充当硬件层与其他软件层之间的抽象层。例如,核2014提供存储器管理、处理器管理(例如,调度)、部件管理、网络和安全设置以及其他功能。服务2016可以为其他软件层提供其他公共服务。驱动器2022负责控制底层硬件或与底层硬件对接。例如,驱动器2022可以包括显示驱动器、摄像装置驱动器、
Figure BDA0004113273880000221
Figure BDA0004113273880000222
低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、
Figure BDA0004113273880000223
驱动器、音频驱动器、电源管理驱动器等。
库2010提供由应用2006使用的公共低级基础设施。库2010可以包括系统库2018(例如,C标准库),系统库2018提供诸如存储器分配功能、串操纵功能、数学功能等的功能。另外,库2010可以包括API库2024,例如媒体库(例如,用于支持各种媒体格式的呈现和操作的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)进行呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库2010还可以包括各种各样的其他库2028,以向应用2006提供许多其他API。
框架2008提供由应用2006使用的公共高级基础设施。例如,框架2008提供各种图形用户界面(GUI)功能、高级资源管理以及高级定位服务。框架2008可以提供可由应用2006使用的广泛的其他API,其中的一些API可以专用于特定的操作系统或平台。
在示例中,应用2006可以包括家庭应用2036、联系人应用2030、浏览器应用2032、书籍阅读器应用2034、位置应用2042、媒体应用2044、消息收发应用2046、游戏应用2048和诸如第三方应用2040的各种各样的其他应用。应用2006是执行程序中限定的功能的程序。可以使用各种编程语言来创建以各种方式构造的应用2006中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如C或汇编语言)。在特定示例中,第三方应用2040(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTM
Figure BDA0004113273880000231
的移动操作系统或其他移动操作系统上运行的移动软件。在该示例中,第三方应用2040可以激活由操作系统2012提供的API调用2050以有助于本文中描述的功能。
机器架构
图21是机器2100的图解表示,在该机器2100内可以执行用于使机器2100执行本文所讨论的方法中的任何一个或更多个方法的指令2110(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令2110可以使机器2100执行本文所描述的方法中的任何一个或更多个方法。指令2110将通用的非编程的机器2100转换成被编程成以所描述的方式执行所描述和所示出的功能的特定机器2100。机器2100可以作为独立设备操作或者可以耦接(例如,联网)到其他机器。在联网的部署中,机器2100可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器2100可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器2100采取的动作的指令2110的任何机器。此外,虽然仅示出了单个机器2100,但是术语“机器”还应被视为包括单独或联合执行指令2110以执行本文中讨论的方法中的任何一个或更多个方法的机器的集合。例如,机器2100可以包括客户端设备106或者形成消息收发服务器系统104的一部分的若干个服务器设备中的任何一个。在一些示例中,机器2100还可以包括客户端和服务器系统二者,其中在服务器侧执行特定方法或算法的某些操作,并且在客户端侧执行特定方法或算法的某些操作。
机器2100可以包括可以被配置成经由总线2140彼此通信的处理器2104、存储器2106和输入/输出(I/O)部件638。在示例中,处理器2104(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令2110的处理器2108和处理器2112。术语“处理器”旨在包括多核处理器,该多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。虽然图21示出了多个处理器2104,但是机器2100可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或者其任何组合。
存储器2106包括处理器2104可以经由总线2140访问的主存储器2114、静态存储器2116和存储单元2118。主存储器2106、静态存储器2116和存储单元2118存储实现本文中所描述的方法或功能中的任何一个或更多个方法或功能的指令2110。指令2110还可以在其被机器2100执行期间完全地或部分地驻留在主存储器2114内、在静态存储器2116内、在存储单元2118内的机器可读介质2120内、在处理器2104中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或其任何合适的组合内。
I/O部件2102可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种各样的部件。包括在特定机器中的特定I/O部件2102将取决于机器的类型。例如,便携式机器诸如移动电话可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。将理解的是,I/O部件2102可以包括图21中未示出的许多其他部件。在各种示例中,I/O部件2102可以包括用户输出部件2126和用户输入部件2128。用户输出部件2126可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件2128可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏、或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件2102可以包括生物识别部件2130、运动部件2132、环境部件2134、或定位部件2136以及各种其他部件。例如,生物识别部件2130包括用于检测表达(例如,手表达、面部表情、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件2132包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件2134包括例如:一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近度传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)、或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备106可以具有摄像装置系统,该摄像装置系统包括例如客户端设备106的前表面上的前置摄像装置和客户端设备106的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备106的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更传统的摄像装置模式捕获静止图像和视频,这些图像类似地使用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备106还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备106的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备106的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
定位部件2136包括位置传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测可以得到海拔的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。
可以使用各种各样的技术来实施通信。I/O部件2102还包括通信部件2138,通信部件2138可操作以经由相应的耦接或连接将机器2100耦接至网络2122或设备2124。例如,通信部件2138可以包括网络接口部件或另一合适的设备以与网络2122对接。在其他示例中,通信部件2138可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、
Figure BDA0004113273880000261
部件(例如,
Figure BDA0004113273880000262
低功耗)、
Figure BDA0004113273880000263
部件以及经由其他形式提供通信的其他通信部件。设备2124可以是其他机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件2138可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件2138可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速反应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(UltraCode)、UCC RSS-2D条形码的多维条形码和其他光学码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件2138得出各种信息,例如经由因特网协议(IP)地理定位的位置、经由
Figure BDA0004113273880000271
信号三角测量的位置、经由检测可以指示特定位置的NFC信标信号的位置等。
各种存储器(例如,主存储器2114、静态存储器2116以及处理器2104的存储器)以及存储单元2118可以存储由本文中描述的方法或功能中的任何一个或更多个实现或使用的指令和数据结构(例如,软件)中的一组或更多组。这些指令(例如,指令2110)在由处理器2104执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件2138中包括的网络接口部件),使用传输介质并且使用若干公知的传输协议中的任意一种传输协议(例如,超文本传输协议(HTTP)),通过网络2122来发送或接收指令2110。类似地,可以使用传输介质经由到设备2124的耦接(例如,对等耦接)来发送或接收指令2110。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且可以在本公开内容中可互换地使用。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和/或设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移动磁盘;磁光盘;以及CD-ROM和DVD-ROM磁盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,所述载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以有助于软件或数据的通信。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指使其特性中的一个或更多个特性以将信息编码在信号中的方式来设置或改变的信号。术语“传输介质”和“信号介质”指相同的事物并且可以在本公开内容中互换使用。

Claims (20)

1.一种用于通过图像捕获装置实时捕获视频的方法,包括:
在所述视频的捕获期间提供多个视觉位姿提示,所述多个位姿提示呈现在所述图像捕获装置的图形用户界面上;
在捕获所述视频的同时识别所述视频中的第一位姿信息,所述第一位姿信息对应于所述多个视觉位姿提示中的第一位姿提示;
响应于识别到所述第一位姿信息,将第一系列虚拟效果应用于所述视频;
识别所述视频中与所述多个视觉位姿提示中的第二位姿提示对应的第二位姿信息,所述第二位姿信息在所述第一位姿信息之后被识别;以及
响应于识别到所述第二位姿信息,在捕获所述视频的同时将第二系列虚拟效果应用于所述视频,所述第二系列虚拟效果基于所述第一系列虚拟效果。
2.根据权利要求1所述的方法,其中,所述第一位姿信息表示所述视频中描绘的人的第一多个关节位置。
3.根据权利要求1所述的方法,其中,所述第二位姿信息表示所述视频中描绘的人的第二多个关节位置。
4.根据权利要求1所述的方法,其中,所述第一系列虚拟效果是多个第一增强现实内容项。
5.根据权利要求4所述的方法,其中,在捕获期间将所述多个第一增强现实内容项实时地应用于所述视频。
6.根据权利要求1所述的方法,其中,所述第二系列虚拟效果是多个第二增强现实内容项。
7.根据权利要求1所述的方法,还包括:
存储包括第一时间处的所述第一系列虚拟效果和第二时间处的所述第二系列虚拟效果的所述视频;以及
将所述视频作为短暂消息发送至计算设备。
8.根据权利要求1所述的方法,其中,识别所述第一位姿信息还包括:
识别所述视频中的手;
跟踪所述手从第一位置到第二位置的运动;以及
基于所跟踪的手的运动来修改所述第一系列虚拟效果中的虚拟效果的粒度级别。
9.一种系统,包括:
处理器;以及
存储器,其存储指令,所述指令在由所述处理器执行时将所述系统配置成执行操作,所述操作包括:
在视频的捕获期间提供多个视觉位姿提示,所述多个位姿提示呈现在图像捕获装置的图形用户界面上;
在捕获所述视频的同时识别所述视频中的第一位姿信息,所述第一位姿信息对应于所述多个视觉位姿提示中的第一位姿提示;
响应于识别到所述第一位姿信息,将第一系列虚拟效果应用于所述视频;
识别所述视频中与所述多个视觉位姿提示中的第二位姿提示对应的第二位姿信息,所述第二位姿信息在所述第一位姿信息之后被识别;以及
响应于识别到所述第二位姿信息,在捕获所述视频的同时将第二系列虚拟效果应用于所述视频,所述第二系列虚拟效果基于所述第一系列虚拟效果。
10.根据权利要求9所述的系统,其中,所述第一位姿信息表示所述视频中描绘的人的第一多个关节位置。
11.根据权利要求9所述的系统,其中,所述第二位姿信息表示所述视频中描绘的人的第二多个关节位置。
12.根据权利要求9所述的系统,其中,所述第一系列虚拟效果是多个第一增强现实内容项。
13.根据权利要求12所述的系统,其中,在捕获期间将所述多个第一增强现实内容项实时地应用于所述视频。
14.根据权利要求9所述的系统,其中,所述第二系列虚拟效果是多个第二增强现实内容项。
15.根据权利要求9所述的系统,其中,所述操作还包括:
存储包括第一时间处的所述第一系列虚拟效果和第二时间处的所述第二系列虚拟效果的所述视频;以及
将所述视频作为短暂消息发送至计算设备。
16.根据权利要求9所述的系统,其中,识别所述第一位姿信息还包括:
识别所述视频中的手;
跟踪所述手从第一位置到第二位置的运动;以及
基于所跟踪的手的运动来修改所述第一系列虚拟效果中的虚拟效果的粒度级别。
17.一种非暂态计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令在由计算机执行时使所述计算机执行操作,所述操作包括:
在视频的捕获期间提供多个视觉位姿提示,所述多个位姿提示呈现在图像捕获装置的图形用户界面上;
在捕获所述视频的同时识别所述视频中的第一位姿信息,所述第一位姿信息对应于所述多个视觉位姿提示中的第一位姿提示;
响应于识别到所述第一位姿信息,将第一系列虚拟效果应用于所述视频;
识别所述视频中与所述多个视觉位姿提示中的第二位姿提示对应的第二位姿信息,所述第二位姿信息在所述第一位姿信息之后被识别;以及
响应于识别到所述第二位姿信息,在捕获所述视频的同时将第二系列虚拟效果应用于所述视频,所述第二系列虚拟效果基于所述第一系列虚拟效果。
18.根据权利要求17所述的计算机可读存储介质,其中,所述第一位姿信息表示所述视频中描绘的人的第一多个关节位置。
19.根据权利要求17所述的计算机可读存储介质,其中,所述第二位姿信息表示所述视频中描绘的人的第二多个关节位置。
20.根据权利要求17所述的计算机可读存储介质,其中,所述第一系列虚拟效果是多个第一增强现实内容项。
CN202180055726.3A 2020-08-13 2021-08-13 用于位姿驱动的虚拟效果的用户界面 Pending CN116114258A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062706391P 2020-08-13 2020-08-13
US62/706,391 2020-08-13
PCT/US2021/071181 WO2022036372A1 (en) 2020-08-13 2021-08-13 User interface for pose driven virtual effects

Publications (1)

Publication Number Publication Date
CN116114258A true CN116114258A (zh) 2023-05-12

Family

ID=77726587

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180055726.3A Pending CN116114258A (zh) 2020-08-13 2021-08-13 用于位姿驱动的虚拟效果的用户界面

Country Status (5)

Country Link
US (2) US11832015B2 (zh)
EP (1) EP4197180A1 (zh)
KR (1) KR20230047480A (zh)
CN (1) CN116114258A (zh)
WO (1) WO2022036372A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230047480A (ko) 2020-08-13 2023-04-07 스냅 인코포레이티드 포즈 구동형 가상 효과들을 위한 사용자 인터페이스
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US11949527B2 (en) 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat

Family Cites Families (193)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758257A (en) 1994-11-29 1998-05-26 Herz; Frederick System and method for scheduling broadcast of and access to video programs and other data using customer profiles
US5978773A (en) 1995-06-20 1999-11-02 Neomedia Technologies, Inc. System and method for using an ordinary article of commerce to access a remote computer
EP0814611B1 (de) 1996-06-17 2002-08-28 Siemens Aktiengesellschaft Kommunikationssystem und Verfahren zur Aufnahme und Verwaltung digitaler Bilder
JP3783331B2 (ja) 1997-05-14 2006-06-07 ブラザー工業株式会社 メール送信システム、メール受信システムおよび記録媒体
US6158044A (en) 1997-05-21 2000-12-05 Epropose, Inc. Proposal based architecture system
WO1998058321A1 (en) 1997-06-17 1998-12-23 Purdue Pharma Lp Self-destructing document and e-mail messaging system
FI973945A (fi) 1997-10-13 1999-04-14 Nokia Telecommunications Oy Lyhytsanomia välittävä tiedonsiirtojärjestelmä
US6484196B1 (en) 1998-03-20 2002-11-19 Advanced Web Solutions Internet messaging system and method for use in computer networks
US7173651B1 (en) 1998-06-02 2007-02-06 Knowles Andrew T Apparatus and system for prompt digital photo delivery and archival
US6205432B1 (en) 1998-06-05 2001-03-20 Creative Internet Concepts, Llc Background advertising system
WO2000017768A1 (en) 1998-09-23 2000-03-30 Ogilvie John W L Self-removing email
US6324569B1 (en) 1998-09-23 2001-11-27 John W. L. Ogilvie Self-removing email verified or designated as such by a message distributor for the convenience of a recipient
US6757713B1 (en) 1998-09-23 2004-06-29 John W. L. Ogilvie Method for including a self-removing indicator in a self-removing message
US6701347B1 (en) 1998-09-23 2004-03-02 John W. L. Ogilvie Method for including a self-removing code in a self-removing email message that contains an advertisement
US6167435A (en) 1998-10-30 2000-12-26 Netcreations, Inc. Double opt-in™ method and system for verifying subscriptions to information distribution services
US7240199B2 (en) 2000-12-06 2007-07-03 Rpost International Limited System and method for verifying delivery and integrity of electronic messages
US7149893B1 (en) 1999-09-07 2006-12-12 Poofaway.Com, Inc. System and method for enabling the originator of an electronic mail message to preset an expiration time, date, and/or event, and to control processing or handling by a recipient
US7124164B1 (en) 2001-04-17 2006-10-17 Chemtob Helen J Method and apparatus for providing group interaction via communications networks
US6505123B1 (en) 2000-07-24 2003-01-07 Weatherbank, Inc. Interactive weather advisory system
US6754621B1 (en) 2000-10-06 2004-06-22 Andrew Cunningham Asynchronous hypertext messaging system and method
JP2002132647A (ja) 2000-10-19 2002-05-10 Kizna Corp 電子掲示板及び電子掲示板システム
US7243163B1 (en) 2001-08-07 2007-07-10 Good Technology, Inc. System and method for full wireless synchronization of a data processing apparatus with a messaging system
JP4440503B2 (ja) 2001-09-20 2010-03-24 富士通株式会社 情報一覧作成装置及びそのプログラム
US20100098702A1 (en) 2008-09-16 2010-04-22 Longgui Wang Method of treating androgen independent prostate cancer
US7356564B2 (en) 2002-01-09 2008-04-08 At&T Delaware Intellectual Property, Inc. Method, system, and apparatus for providing self-destructing electronic mail messages
US20030217106A1 (en) 2002-03-25 2003-11-20 Eytan Adar System and method for profiling clients within a system for harvesting community knowledge
US7278168B1 (en) 2002-11-27 2007-10-02 Adobe Systems Incorporated Dynamic enabling of functionality in electronic document readers
US7411493B2 (en) 2003-03-01 2008-08-12 User-Centric Ip, L.P. User-centric event reporting
US6978147B2 (en) 2003-03-19 2005-12-20 Motorola, Inc. Wireless messaging device with selectable scroll display and message pre-fetch
GB0308991D0 (en) 2003-04-17 2003-05-28 Psion Digital Ltd A data access replication or communication system comprising a distributed software application
US7703140B2 (en) 2003-09-30 2010-04-20 Guardian Data Storage, Llc Method and system for securing digital assets using process-driven security policies
US7191221B2 (en) 2003-10-30 2007-03-13 International Business Machines Corporation Method for managing electronic mail receipts using audio-visual notification enhancements
US7535890B2 (en) 2003-12-18 2009-05-19 Ayalogic, Inc. System and method for instant VoIP messaging
WO2005062217A1 (ja) 2003-12-19 2005-07-07 Fujitsu Limited プレゼンス情報管理方法、及び、サーバ
US7478402B2 (en) 2004-02-12 2009-01-13 Microsoft Corporation Configurable message pipelines
US7904510B2 (en) 2004-02-23 2011-03-08 Microsoft Corporation Systems and methods for managing discussion threads based on ratings
US7912904B2 (en) 2004-03-31 2011-03-22 Google Inc. Email system with conversation-centric user interface
US7607096B2 (en) 2004-05-01 2009-10-20 Microsoft Corporation System and method for a user interface directed to discovering and publishing presence information on a network
US7593740B2 (en) 2004-05-12 2009-09-22 Google, Inc. Location-based social software for mobile devices
EP1752000A1 (fr) 2004-05-27 2007-02-14 France Telecom S.A. Procede et installation de transmission d"un message a duree de validite predeterminee a destination d"un terminal d"abonne
US7519670B2 (en) 2004-08-12 2009-04-14 International Business Machines Corporation Method for disappearing ink for text messaging
US8745132B2 (en) 2004-09-10 2014-06-03 Silver State Intellectual Technologies, Inc. System and method for audio and video portable publishing system
US7496347B2 (en) 2004-11-12 2009-02-24 Velocita Wireless Llc Method and apparatus for providing secure wireless communication
US8396456B2 (en) 2005-06-28 2013-03-12 Avaya Integrated Cabinet Solutions Inc. Visual voicemail management
US8266219B2 (en) 2005-07-20 2012-09-11 Research In Motion Limited Method and system for instant messaging conversation security
US7610345B2 (en) 2005-07-28 2009-10-27 Vaporstream Incorporated Reduced traceability electronic message system and method
CN1794708A (zh) 2005-07-29 2006-06-28 华为技术有限公司 呈现业务系统及发布呈现信息的方法
US8332475B2 (en) 2005-08-22 2012-12-11 Triplay Communications Ltd. Messaging system and method
US7949107B2 (en) 2005-08-24 2011-05-24 International Business Machines Corporation Method, system, and computer program product for providing privacy measures in instant messaging systems
US20070073823A1 (en) 2005-09-29 2007-03-29 International Business Machines Corporation Method and apparatus to secure and retrieve instant messages
US8284663B2 (en) 2005-10-14 2012-10-09 Turbine, Inc. Selectively ordered protocol for unreliable channels
ITMI20052290A1 (it) 2005-11-30 2007-06-01 Pasqua Roberto Della Servizio di messaggistica istantanea con interfaccia utente minimizzata
US7856360B2 (en) 2006-01-30 2010-12-21 Hoozware, Inc. System for providing a service to venues where people aggregate
US7743009B2 (en) 2006-02-10 2010-06-22 Strands, Inc. System and methods for prioritizing mobile media player files
US8112478B2 (en) 2006-03-13 2012-02-07 Oracle International Corporation Email and discussion forum system
US8255473B2 (en) 2006-04-04 2012-08-28 International Business Machines Corporation Caching message fragments during real-time messaging conversations
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
USRE47534E1 (en) 2007-04-23 2019-07-23 Ramot At Tel Aviv University Ltd. System, method and a computer readable medium for providing an output image
US20080270938A1 (en) 2007-04-29 2008-10-30 Elizabeth Marie Carlson System for self-registering visitor information with geographic specificity and searchable fields
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
US8170957B2 (en) 2007-08-08 2012-05-01 Sinart Points Technology, Inc. System and method for managing digital interactions
US8909714B2 (en) 2007-08-21 2014-12-09 Microsoft Corporation Electronic mail delay adaptation
US8244593B2 (en) 2007-11-20 2012-08-14 Pure Verticals, Inc. Method and system for monetizing content
KR101387527B1 (ko) 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
US8214443B2 (en) 2008-03-05 2012-07-03 Aol Inc. Electronic mail forwarding service
WO2009121046A1 (en) 2008-03-28 2009-10-01 Celltrust Corporation Systems and methods for secure short messaging service and multimedia messaging service
US20100082427A1 (en) 2008-09-30 2010-04-01 Yahoo! Inc. System and Method for Context Enhanced Ad Creation
US8719238B2 (en) 2009-01-22 2014-05-06 Sunstein Kann Murphy & Timbers LLP Office-based notification messaging system
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8214446B1 (en) 2009-06-04 2012-07-03 Imdb.Com, Inc. Segmenting access to electronic message boards
US8479080B1 (en) 2009-07-12 2013-07-02 Apple Inc. Adaptive over-provisioning in memory systems
US20110099507A1 (en) 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US20140171036A1 (en) 2009-11-18 2014-06-19 Gwendolyn Simmons Method of communication
CN102118419B (zh) 2009-12-30 2014-07-16 华为技术有限公司 一种图片信息的传输方法、装置和通信系统
US9443227B2 (en) 2010-02-16 2016-09-13 Tigertext, Inc. Messaging system apparatuses circuits and methods of operation thereof
US20110213845A1 (en) 2010-02-26 2011-09-01 Research In Motion Limited Automatic deletion of electronic messages
CN102884490B (zh) 2010-03-05 2016-05-04 索尼电脑娱乐美国公司 在共享的稳定虚拟空间上维持多视图
US8433755B2 (en) 2010-04-07 2013-04-30 Apple Inc. Dynamic designation of a central distributor in a multi-participant conference
WO2011133824A1 (en) 2010-04-21 2011-10-27 Michael Jerry Saylor Multimodal interactive voice response system
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US20110320373A1 (en) 2010-06-25 2011-12-29 Microsoft Corporation Product conversations among social groups
AU2011274218C1 (en) 2010-07-01 2016-11-03 Absolute Software Corporation Automatic creation and modification of dynamic geofences
US8233887B2 (en) 2010-07-28 2012-07-31 Sprint Communications Company L.P. Covert message redaction and recovery in a wireless communication device
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
US8457668B2 (en) 2011-01-18 2013-06-04 Claremont Speede Mobile sender initiated SMS message deletion method and system
US20120209921A1 (en) 2011-02-10 2012-08-16 International Business Machines Corporation Instant Message Management Method and Apparatus
US9331972B2 (en) 2011-03-31 2016-05-03 Loment, Inc. Automatic expiration of messages communicated to an end user communication device
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
WO2013008251A2 (en) 2011-07-08 2013-01-17 Hughes Systique India Private Limited Method and system for social networking in a restricted connectivity environment
US20130071093A1 (en) 2011-09-16 2013-03-21 William Turner Hanks Maintaining viewer activity information of a recorded program for program deletion decisions
US20130194301A1 (en) 2012-01-30 2013-08-01 Burn Note, Inc. System and method for securely transmiting sensitive information
US20150370320A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Smart Clothing with Human-to-Computer Textile Interface
US9560006B2 (en) 2012-07-26 2017-01-31 Google Inc. Method and apparatus for expiring messages in electronic communications
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
US20150199082A1 (en) 2012-11-13 2015-07-16 Google Inc. Displaying actionable items in an overscroll area
US20140201527A1 (en) 2013-01-17 2014-07-17 Zohar KRIVOROT Systems and methods for secure and private delivery of content
CN103049761B (zh) 2013-01-21 2016-08-03 中国地质大学(武汉) 基于手语手套的手语识别方法及系统
US9264463B2 (en) 2013-03-15 2016-02-16 Facebook, Inc. Method and system of managing ephemeral post in a social networking system
US9736218B2 (en) 2013-04-24 2017-08-15 Blackberry Limited Device, system and method for processing character data
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US8914752B1 (en) 2013-08-22 2014-12-16 Snapchat, Inc. Apparatus and method for accelerated display of ephemeral messages
US9558756B2 (en) 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
US9462175B2 (en) * 2013-11-18 2016-10-04 Heekwan Kim Digital annotation-based visual recognition book pronunciation system and related method of operation
US9083770B1 (en) 2013-11-26 2015-07-14 Snapchat, Inc. Method and system for integrating real time communication features in applications
CA2863124A1 (en) 2014-01-03 2015-07-03 Investel Capital Corporation User content sharing system and method with automated external content integration
US9628950B1 (en) 2014-01-12 2017-04-18 Investment Asset Holdings Llc Location-based messaging
US10283162B2 (en) 2014-02-05 2019-05-07 Avatar Merger Sub II, LLC Method for triggering events in a video
WO2015123537A1 (en) 2014-02-13 2015-08-20 Ashok Ramu Virtual data backup
US8909725B1 (en) 2014-03-07 2014-12-09 Snapchat, Inc. Content delivery network for ephemeral objects
US9479909B2 (en) 2014-03-20 2016-10-25 Tigertext, Inc. Method of sending messages to devices not configured to receive them
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9396354B1 (en) 2014-05-28 2016-07-19 Snapchat, Inc. Apparatus and method for automated privacy protection in distributed images
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9113301B1 (en) 2014-06-13 2015-08-18 Snapchat, Inc. Geo-location based event gallery
KR20200033999A (ko) 2014-10-24 2020-03-30 스냅 인코포레이티드 메시지의 우선 순위 지정
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10824654B2 (en) 2014-09-18 2020-11-03 Snap Inc. Geolocation-based pictographs
US11783898B2 (en) 2014-09-18 2023-10-10 Jonker Llc Ephemeral storage elements, circuits, and systems
US11216869B2 (en) 2014-09-23 2022-01-04 Snap Inc. User interface to augment an image using geolocation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US9854219B2 (en) 2014-12-19 2017-12-26 Snap Inc. Gallery of videos set to an audio time line
US10311916B2 (en) 2014-12-19 2019-06-04 Snap Inc. Gallery of videos set to an audio time line
US9754355B2 (en) 2015-01-09 2017-09-05 Snap Inc. Object recognition based photo filters
US9111164B1 (en) 2015-01-19 2015-08-18 Snapchat, Inc. Custom functional patterns for optical barcodes
US9294425B1 (en) 2015-02-06 2016-03-22 Snapchat, Inc. Storage and processing of ephemeral messages
US9148424B1 (en) 2015-03-13 2015-09-29 Snapchat, Inc. Systems and methods for IP-based intrusion detection
KR102371138B1 (ko) 2015-03-18 2022-03-10 스냅 인코포레이티드 지오-펜스 인가 프로비저닝
US9482882B1 (en) 2015-04-15 2016-11-01 Snapchat, Inc. Eyewear having selectively exposable feature
US9482883B1 (en) 2015-04-15 2016-11-01 Snapchat, Inc. Eyewear having linkage assembly between a temple and a frame
WO2016168591A1 (en) 2015-04-16 2016-10-20 Robert Bosch Gmbh System and method for automated sign language recognition
US9881094B2 (en) 2015-05-05 2018-01-30 Snap Inc. Systems and methods for automated local story generation and curation
CN107431632B (zh) 2015-05-06 2022-09-16 斯纳普公司 用于短暂群组聊天的系统和方法
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
TWM521371U (zh) 2015-08-04 2016-05-11 胡天騏 頸掛式重物背帶結構及其輔助裝置
US9652896B1 (en) 2015-10-30 2017-05-16 Snap Inc. Image based tracking in augmented reality systems
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US20170161382A1 (en) 2015-12-08 2017-06-08 Snapchat, Inc. System to correlate video data and contextual data
US10354425B2 (en) 2015-12-18 2019-07-16 Snap Inc. Method and system for providing context relevant media augmentation
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
JP2017174300A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置、情報処理方法およびプログラム
US9965467B2 (en) 2016-03-28 2018-05-08 Avaya Inc. Sign language communication with communication devices
US11900418B2 (en) 2016-04-04 2024-02-13 Snap Inc. Mutable geo-fencing system
US10686899B2 (en) 2016-04-06 2020-06-16 Snap Inc. Messaging achievement pictograph display system
US9681265B1 (en) 2016-06-28 2017-06-13 Snap Inc. System to track engagement of media items
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
JP6706323B2 (ja) * 2016-07-12 2020-06-03 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
US10446059B2 (en) 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10452226B2 (en) * 2017-03-15 2019-10-22 Facebook, Inc. Visual editor for designing augmented-reality effects
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US11847426B2 (en) 2017-11-08 2023-12-19 Snap Inc. Computer vision based sign language interpreter
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
US10962809B1 (en) 2018-01-10 2021-03-30 Snap Inc. Eyewear device with finger activated touch sensor
US11092998B1 (en) 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
US11227626B1 (en) 2018-05-21 2022-01-18 Snap Inc. Audio response messages
US11030813B2 (en) * 2018-08-30 2021-06-08 Snap Inc. Video clip object tracking
WO2020068455A1 (en) 2018-09-28 2020-04-02 Snap Inc. Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11422669B1 (en) * 2019-06-07 2022-08-23 Facebook Technologies, Llc Detecting input using a stylus in artificial reality systems based on a stylus movement after a stylus selection action
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
CN114391160A (zh) 2019-09-09 2022-04-22 斯纳普公司 根据立体相机的手部姿势估计
US11169600B1 (en) 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11087728B1 (en) 2019-12-21 2021-08-10 Snap Inc. Computer vision and mapping for audio applications
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11488358B2 (en) 2020-02-05 2022-11-01 Snap Inc. Augmented reality session creation using skeleton tracking
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US11995774B2 (en) 2020-06-29 2024-05-28 Snap Inc. Augmented reality experiences using speech and text captions
US20210405761A1 (en) 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects
KR20230047480A (ko) 2020-08-13 2023-04-07 스냅 인코포레이티드 포즈 구동형 가상 효과들을 위한 사용자 인터페이스
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
WO2022132381A1 (en) 2020-12-16 2022-06-23 Snap Inc. Eyewear including sign language to speech translation
KR20230124732A (ko) 2020-12-29 2023-08-25 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 제어하기 위한 미세 손제스처들
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
EP4320502A1 (en) 2021-04-08 2024-02-14 Snap, Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN117178247A (zh) 2021-04-19 2023-12-05 斯纳普公司 用于动画化及控制虚拟和图形元素的手势
WO2022245765A1 (en) 2021-05-19 2022-11-24 Snap Inc. Beacons for localization and content delivery to wearable devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects

Also Published As

Publication number Publication date
US11832015B2 (en) 2023-11-28
US20240098211A1 (en) 2024-03-21
WO2022036372A1 (en) 2022-02-17
EP4197180A1 (en) 2023-06-21
KR20230047480A (ko) 2023-04-07
US20220053146A1 (en) 2022-02-17

Similar Documents

Publication Publication Date Title
CN115552403B (zh) 用于媒体内容项的私人集合的邀请媒体覆盖物
US11991469B2 (en) Skeletal tracking for real-time virtual effects
US11832015B2 (en) User interface for pose driven virtual effects
US11517826B2 (en) Game result overlay system
CN116171566A (zh) 上下文触发的增强现实
CN115668887A (zh) 用于媒体内容项的共享集合的邀请媒体覆盖
KR20230075510A (ko) 미디어 콘텐츠 검출 및 관리
CN115668119A (zh) 用于消息收发系统的具有标贴的回复界面
KR20230058679A (ko) 미디어 콘텐츠 재생 및 코멘트 관리
KR20230062857A (ko) 증강 현실 메신저 시스템
CN116134797A (zh) 增强现实自动反应
CN116113991A (zh) 用于关节动画的运动表示
US20210387097A1 (en) Message interface expansion system
CN116235194A (zh) 媒体内容传输和管理
CN115701304A (zh) 上下文发送菜单
CN115516834A (zh) 具有相关实体的轮播的消息收发系统
CN117501675A (zh) 呈现由消息应用从第三方资源接收的内容
CN115698931A (zh) 上下文动作栏
CN116322914A (zh) 用于增强现实连续性的qr生成系统
CN117121461A (zh) 用户存在指示数据管理
CN116669823A (zh) 具有离线同步的多用户ar体验
CN116235500A (zh) 生成用于分享到外部应用的媒体内容项
CN116210226A (zh) 基于轮次的协作播放列表
CN117136533A (zh) 用户存在指示数据管理
CN117795931A (zh) 组合的读取和反应消息

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination