CN117043718A - 激活操作电子镜像设备的免提模式 - Google Patents

激活操作电子镜像设备的免提模式 Download PDF

Info

Publication number
CN117043718A
CN117043718A CN202280021518.6A CN202280021518A CN117043718A CN 117043718 A CN117043718 A CN 117043718A CN 202280021518 A CN202280021518 A CN 202280021518A CN 117043718 A CN117043718 A CN 117043718A
Authority
CN
China
Prior art keywords
user
hands
mirroring device
video feed
electronic mirroring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280021518.6A
Other languages
English (en)
Inventor
迪伦·沙恩·爱林伯格
凯尔·古德里奇
安德鲁·詹姆斯·麦克菲
丹尼尔·莫雷诺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN117043718A publication Critical patent/CN117043718A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Economics (AREA)
  • Computing Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了用于执行包括以下的操作的系统和方法:通过电子镜像设备捕获从电子镜像设备的摄像装置接收到的视频馈送,该视频馈送描绘用户;响应于捕获到视频馈送,评估用于激活操作电子镜像设备的免提模式的一组条件;响应于确定满足该组条件,激活操作电子镜像设备的免提模式;以及基于在视频馈送中检测到由用户执行的一个或更多个手势在电子镜像设备上执行一个或更多个功能。

Description

激活操作电子镜像设备的免提模式
优先权要求
本申请要求于2021年3月16日提交的美国专利申请序列号17/249,845的优先权的权益,该美国专利申请通过引用整体并入本文。
技术领域
本公开内容涉及电子镜像设备。
背景技术
一些电子使能设备包括前置摄像装置。这些摄像装置允许用户在设备的屏幕上看到他们自己。即,这些设备包括在设备的与设备的显示屏相同的侧上的摄像装置。这样的前置摄像装置通常用于捕获自拍或辅助捕获用户执行某些任务或活动的视频。
附图说明
附图中的各个附图仅示出了本公开内容的示例,并且不应被视为限制其范围。
图1是根据一些示例的其中可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是根据一些示例的眼镜设备的透视图。
图6A和图6B是根据一些示例的电子镜像设备的图解表示。
图7是示出根据一些示例的免提控制系统的示例操作的流程图。
图8A、图8B和图9是根据一些示例的免提控制系统的说明性屏幕。
图10是根据一些示例的计算机系统形式的机器的图解表示,在该机器中可以执行一组指令,以使该机器执行本文中讨论的方法中的任何一种或更多种。
图11是示出可以在其中实现示例的软件架构的框图。
具体实施方式
以下的描述讨论了本公开内容的说明性示例。在下面的描述中,出于说明的目的,阐述了许多具体细节以提供对所公开的主题的各种示例的理解。然而,对于本领域技术人员而言将明显的是,可以在没有这些具体细节的情况下实践所公开的主题的示例。一般地,公知的指令实例、协议、结构和技术不必详细示出。
典型的系统允许用户通过使用移动设备的前置摄像装置创建个人视频。通过使用前置摄像装置,用户可以在录制视频的同时在电话的屏幕上看到他们自己。这确保用户正在捕获用户想要的视频。为此,例如,典型的移动电话包括前置摄像装置,并且用户可以与移动电话的触摸屏交互以在各种选项之间进行选择,从而捕获用户的视频。即,用户可以通过与屏幕进行物理接触来选择触摸屏上的选项,以开始用前置摄像装置捕获用户的视频片段。在用户选择选项之后,用户必须以捕获用户的全身的方式定位移动电话,然后用户必须从移动电话后退。由于该设置过程涉及使用前置摄像装置来创建视频片段,因此要求极大量的努力来删除和编辑视频片段的不想要的段(例如,示出用户从移动电话后退,然后靠近电话以停止录制)。此外,由于设置过程要求用户与移动电话物理上交互,以控制前置摄像装置并捕获视频片段,因此用户可能需要执行多个拍摄并多次录制视频片段,以对用户在视频中的定位和布置进行各种校正。
所公开的示例通过自动激活免提操作模式提高了使用电子设备的效率,该免提操作模式使用户能够使用手的手指(或手指(digit))或其他身体部位作为光标来远程控制电子镜像设备诸如移动电话的前置视频摄像装置。在一个示例中,当满足一个或更多个条件时,免提操作模式被激活。例如,所公开的示例可以通过电子镜像设备捕获描绘用户的从电子镜像设备的摄像装置接收到的视频馈送。电子镜像设备评估用于激活操作电子镜像设备的免提模式的一组条件,并响应于确定满足该组条件,激活操作电子镜像设备的免提模式。电子镜像设备基于检测到在视频馈送中由用户执行的一个或更多个手势而在电子镜像设备上执行一个或更多个功能。具体地,电子镜像设备允许用户导航通过不同的整个身体服装,捕获一个或更多个视频片段,与用户的朋友进行通信,应用一个或更多个过滤器,或使用免提操作模式远程激活一个或更多个增强现实体验。
这允许用户远程控制电子镜像设备,这简化了通过电子镜像设备的前置摄像装置捕获视频片段,而无需物理上接触电子镜像设备或与电子镜像设备交互。例如,可以将电子镜像设备固定在摄像装置支架上,使得前置摄像装置指向要捕获的目标或对象。在将电子镜像设备固定在摄像装置支架上之后,用户可以从电子镜像设备后退。电子镜像设备可以在摄像装置的视野内检测到用户的整个身体,并作为响应激活免提操作模式。作为响应,用户可以通过指向电子镜像设备上显示的选项(例如,以对用户自然的方式)以选择选项或通过使用特定的手姿势以导航通过不同的选项并在不同的选项之间进行选择来控制那些选项。这减少了操作给定设备所需的资源的量,并改善了电子设备的整体效率。这增加了电子设备的效率、吸引力和实用性。
在一些情况下,电子镜像设备包括面向静态非电子或电子镜子的电子眼镜设备的组合。用户可以穿戴电子眼镜设备,以通过电子眼镜设备的镜片观察静态镜子,从而看到他们自己。在这种情况下,电子镜像设备包括摄像装置,该摄像装置指向静态镜子,并捕获镜子中的用户的视频。电子眼镜设备在电子眼镜设备的镜片中将一个或更多个菜单选项(用于控制由电子眼镜设备显示的整个身体服装)显示在相对于镜子中的用户的位置处。这使得对于用户来说看起来如同菜单选项显示在用户上方、下方或附近的镜子上。响应于眼镜设备的摄像装置检测到用户的整个身体正在静态镜子中的用户的影像中描绘而自动激活免提操作模式。在这种情况下,用户可以使用手或手指的姿势和移动来在一个或更多个菜单选项之间进行选择,以控制电子眼镜设备上显示的选项,所述电子眼镜设备上显示的选项看起来在由电子眼镜设备的摄像装置捕获的图像或视频中显示在镜子中的用户的影像上。
联网计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,所述多个实例中的每一个托管包括消息收发客户端104和其他外部应用109(例如,第三方应用)的若干应用。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至消息收发客户端104(例如,托管在相应的其他客户端设备102上)的其他实例、消息收发服务器系统108和外部应用服务器110。消息收发客户端104还可以使用应用程序接口(API)与本地托管的第三方应用109通信。消息收发系统100包括眼镜设备119,除了其他应用之外,眼镜设备119托管免提控制系统107。眼镜设备119经由网络112(其可以包括经由专用短程通信路径,诸如BluetoothTM或WiFi直接连接)通信地耦接至客户端设备102。消息收发系统100包括电子镜像设备130,除其他应用外,电子镜像设备130可以托管免提控制系统107的另一实例。电子镜像设备130可以包括与客户端设备102类似的功能。
免提控制系统107可以激活和控制免提操作模式,该免提操作模式允许用户通过将用户的手指指向期望的菜单选项的方向或将用户的手移朝向给定选项移动来导航通过显示在眼镜设备119或电子镜像设备130的屏幕上的各种菜单选项并在所述各种菜单选项之间进行选择。例如,免提控制系统107可以接收或捕获来自眼镜设备119或电子镜像设备130的摄像装置的视频馈送。具体地,免提控制系统107可以接收或捕获来自电子镜像设备130的前置摄像装置(诸如,移动电话的前置摄像装置)的视频馈送。在另一实现方式中,免提控制系统107可以接收或捕获来自眼镜设备119的摄像装置的视频馈送,该眼镜设备119的摄像装置指向静态镜子。静态镜子反射用户的图像,该用户的图像被眼镜设备119的摄像装置捕获作为视频馈送。
免提控制系统107响应于或基于视频馈送而评估用于激活操作电子镜像设备130的免提模式的一组条件。该组条件可以包括对已经选择屏幕上选项以用于执行一个或更多个功能——诸如,将过滤器或增强现实元素应用于图像或视频,或激活摄像装置的录制操作——的检测。该组条件可以包括基于对视频馈送中对象识别的分析或执行确定视频馈送中是否描绘了用户的整个身体。该确定可以响应于接收到对屏幕上选项的选择而被执行。如本文所提到的,用户的“整个身体”包括用户的一个或更多个骨骼身体部位或关节的预定组合(例如,头关节、肩关节和手臂关节的组合;肩关节和髋关节的组合;或头关节、肩关节、髋关节和腿关节的组合)。免提控制系统107可以对捕获的视频馈送执行对象识别,以检测用户的一个或更多个骨骼关节的存在。响应于确定检测到的骨骼关节与预定组合匹配,免提控制系统107确定在视频馈送中描绘了用户的整个身体。
作为另一示例,该组条件可以包括接收从多个增强现实体验中选择增强现实体验的输入。增强现实体验可以包括一个或更多个增强现实元素在由电子镜像设备130的摄像装置捕获的图像或视频上的显示和包括。多个增强现实体验中的每个增强现实体验可以是不同的镜片或过滤器,并且可以控制不同组的增强现实元素的显示和动画。该组条件可以包括确定所选择的增强现实体验是否与免提操作相关联。响应于确定所选择的增强现实体验与免提操作相关联,免提控制系统107可以自动激活操作电子镜像设备130的免提模式。
在一些示例中,该组条件可以包括摄像装置是前置摄像装置和前置摄像装置是静止的条件。例如,免提控制系统107可以确定前置摄像装置已经被激活并正在捕获视频馈送。免提控制系统107确定在给定时间间隔(例如,2秒)内电子镜像设备130的物理移动的量小于阈值。为此,免提控制系统107可以访问电子镜像设备130的陀螺仪部件,并确定指示移动的由陀螺仪部件输出的测量结果没有变化超过指定阈值(例如,在两秒持续时间内电子镜像设备130移动少于2毫米)。响应于确定满足这样的一组条件,然后免提控制系统107可以开始用于评估附加组的条件(诸如,确定视频馈送中是否描绘了用户的整个身体)的过程。
在满足该组条件时激活操作电子镜像设备130的免提模式之后并响应于满足该组条件时激活操作电子镜像设备130的免提模式,免提控制系统107可以修改或增加电子镜像设备130的显示器的显示属性。例如,免提控制系统107可以增加显示器的亮度,增加显示器上显示的一个或更多个图形元素(诸如,一个或更多个菜单选项)的尺寸,或者激活在电子镜像设备130的边缘周围设置的灯(例如,LED)或其组合。免提控制系统107然后可以将一个或更多个菜单选项显示在电子镜像设备130的显示器上或眼镜设备119的镜片内。免提控制系统107诸如使用对象识别过程来在视频馈送中检测用户的手的一个或更多个手指(或其他身体部位)。一旦检测到用户的手的一个或更多个手指,免提控制系统107确定一个或更多个手指指向的方向。例如,免提控制系统107绘制或生成沿着与一个或更多个手指平行的一个或更多个手指延伸或延展的虚线。免提控制系统107确定一个或更多个菜单选项中的给定菜单选项的至少一部分的显示位置是否与虚线相交。响应于确定虚线与给定菜单选项的至少一部分的显示位置相交,免提控制系统107激活、访问或生成与给定菜单选择相关的指示。作为另一示例,免提控制系统107确定用户的手在屏幕内的位置。免提控制系统107可以确定视频馈送中手的屏幕上位置与一个或多个菜单选项中的给定选项的显示位置交叠。作为响应,当在阈值时间段(例如,2秒)内手继续与给定选项的显示位置交叠时,免提控制系统107激活或执行与选项相关联的功能。
在一些实现方式中,免提控制系统107可以与眼镜设备119的机载摄像装置通信,以确定或检测用户的手的一个或更多个手指存在于眼镜设备119的镜片的视野内。例如,摄像装置可以连续地或周期性地扫描被包括在摄像装置的一个或更多个图像或实时视频馈送中的真实世界对象。免提控制系统107可以确定真实世界对象是否对应于人手的手指。响应于确定真实世界对象对应于人手,免提控制系统107可以确定在眼镜设备119的镜片的视野内已经检测到用户的手。例如,眼镜设备119的摄像装置可以指向静态镜子,并且可以将一个或更多个菜单选项显示在位于静态镜子内的眼镜设备119的镜片内。静态镜子可以反射穿戴眼镜设备119的用户的图像。眼镜设备119的摄像装置可以捕获来自静态镜子的影像并处理该影像以检测用户的手的一个或更多个手指。免提控制系统107然后可以确定并跟踪用户的手的一个或更多个手指的位置,并确定一个或更多个手指指向的方向。在这样的情况下,当手位置的一个或更多个手指的方向正指向菜单选项中的不同菜单选项的位置时,免提控制系统107激活菜单选项。
在一些实现方式中,电子镜像设备130可以固定在摄像装置支架上,使得前置摄像装置正指向要捕获的目标或对象。免提控制系统107可以被集成并运行在电子镜像设备130上。在将电子镜像设备130固定在摄像装置支架上之后,用户可以后退并通过进行各种手移动或手指移动来控制显示在电子镜像设备130上的选项。免提控制系统107可以在由前置摄像装置捕获的图像中跟踪手和/或手的手指的移动,并且导航到并选择各种显示的选项。
免提控制系统107可以允许用户在免提操作模式期间远程执行各种功能。例如,免提控制系统107可以允许用户捕获指定持续时间的用户视频片段诸如5秒的视频片段。即,在自动激活免提操作模式(例如,将电子镜像设备130的摄像装置固定在表面上,选择屏幕上的视频片段生成选项,并且在由摄像装置捕获的视频馈送中检测用户的整个身体)之后,免提控制系统107可以呈现用于控制视频片段的捕获的一个或更多个选项。在一个示例中,免提控制系统107自动显示倒计时定时器,其在摄像装置馈送中检测到用户的整个身体达阈值时间段(例如,5秒)之后自动开始捕获视频片段。在另一示例中,免提控制系统107可以确定在摄像装置馈送中用户的手被定位在开始捕获选项上。作为响应,在摄像装置馈送中检测到用户的整个身体达阈值时间段(例如,5秒)之后,免提控制系统107自动开始捕获视频片段。在一个示例中,免提控制系统107可以响应于确定用户的手被定位在用于改变过滤器或持续时间的相应选项上(或者在用户的手指被确定成指向相应过滤器或持续时间设置选项的情况下)而改变应用于视频片段的过滤器或视频片段的持续时间。
消息收发客户端104能够经由网络112与其他消息收发客户端104、眼镜设备119和消息收发服务器系统108进行通信并交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,用于激发功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能在消息收发客户端104或消息收发服务器系统108内的定位可以是设计选择。例如,在技术上可以优选的是:在最初将某些技术和功能部署在消息收发服务器系统108内,但是稍后在客户端设备102具有足够处理能力的情况下将该技术和功能迁移至消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和覆盖、消息内容持续性条件、社交网络信息和现场事件信息作为示例。通过经由消息收发客户端104的用户接口(UI)可用的功能来激发和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器114提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120促进对数据库126的访问,该数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息有效载荷)。特别地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),消息收发客户端104可以调用或查询这组接口以调用应用服务器114的功能。应用程序接口(API)服务器116显露由应用服务器114支持的各种功能,包括:帐户注册;登录功能;经由应用服务器114从特定消息收发客户端104向另一消息收发客户端104发送消息;从消息收发客户端104向消息收发服务器118发送媒体文件(例如,图像或视频);以及为了能够由另一消息收发客户端104进行访问,设置媒体数据(例如,故事)的集合,检索客户端设备102的用户的朋友列表,检索这样的集合,检索消息和内容,向实体图(例如,社交图)添加以及从实体图删除实体(例如,朋友),社交图中的朋友的定位,以及打开(例如,与消息收发客户端104有关的)应用事件。
应用服务器114托管若干服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122以及社交网络服务器124。消息收发服务器118实现若干消息处理技术和功能,这些消息处理技术和功能特别地涉及被包括在从消息收发客户端104的多个实例接收的消息中的内容(例如,文本和多媒体内容)的聚合及其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以聚合成内容集合(例如,称为故事或图库(gallery))。然后,使这些集合对消息收发客户端104可用。考虑到对数据的其他处理器和存储器密集型处理的硬件要求,也可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,该图像处理服务器122专用于通常相对于在从消息收发服务器118发送或者在消息收发服务器118处接收到的消息的有效载荷内的图像或视频,执行各种图像处理操作。
图像处理服务器122用于实现增强系统208的扫描功能。扫描功能包括当图像被客户端设备102捕获时在客户端设备102上激活并提供一个或更多个增强现实体验。具体地,客户端设备102上的消息收发客户端104可以用于激活摄像装置。摄像装置向用户显示一个或更多个实时图像或视频以及一个或更多个增强现实体验的一个或更多个图标或标识符。用户可以选择标识符中的给定的一个来启动相应的增强现实体验。启动增强现实体验包括获得与增强现实体验相关联的一个或更多个增强现实项,并且将增强现实项覆盖在正被呈现的图像或视频之上。
社交网络服务器124支持各种社交联网功能和服务并使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护并且访问数据库126内的实体图308(如图3所示)。社交网络服务器124所支持的功能和服务的示例包括识别消息收发系统100中的与特定用户具有关系或正在“关注”该特定用户的其他用户,以及识别特定用户的兴趣和其他实体。
返回至消息收发客户端104,外部资源(例如,第三方应用109或小应用(applet))的特征和功能经由消息收发客户端104的接口对用户可用。消息收发客户端104接收对启动或访问外部资源(例如,第三方资源)(例如,外部app 109)的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的第三方应用(外部app 109)(例如,“本地app”),或者托管在客户端设备102上或者远离客户端设备102(例如,在第三方服务器110上)的第三方应用的小规模版本(例如,“小应用”)。第三方应用的小规模版本包括第三方应用的特征和功能的子集(例如,第三方独立应用的全规模本地版本),并且使用标记语言文档来实现。在一个示例中,第三方应用的小规模版本(例如,“小应用”)是第三方应用的基于web的标记语言版本,并且被嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)以外,小应用还可以并入脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源(外部app 109)的特征的选项的用户选择,消息收发客户端104确定所选择的外部资源是基于web的外部资源还是本地安装的外部应用。在一些情况下,可以例如通过在客户端设备102的主页画面上选择与本地安装在客户端设备102上的外部应用109对应的图标而独立于消息收发客户端104并且与消息收发客户端104分开地启动外部应用109。这样的外部应用的小规模版本可以经由消息收发客户端104启动或访问,并且在一些示例中,小规模外部应用中没有部分或有限的部分可以从消息收发客户端104之外被访问。可以通过消息收发客户端104从外部应用服务器110接收与小规模外部应用相关联的标记语言文档并处理这样的文档来启动小规模外部应用。
响应于确定外部资源是本地安装的外部应用109,消息收发客户端104通过执行与外部应用109对应的本地存储的代码来指示客户端设备102启动外部应用109。响应于确定外部资源是基于web的资源,消息收发客户端104与外部应用服务器110通信以获得与所选择的资源对应的标记语言文档。然后,消息收发客户端104处理获得的标记语言文档以在消息收发客户端104的用户接口内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)的参与者提供与用户组中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动最近使用过但当前不活动(在朋友组中)的外部资源。外部资源可以向对话中的参与者(每个参与者使用相应的消息收发客户端104)提供与进入聊天会话中的用户组中的一个或更多个成员共享外部资源中的项、状况、状态或定位的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以启动对应的外部资源,查看外部资源内的特定信息,或者将聊天的成员带到外部资源内的特定定位或状态。在给定的外部资源内,可以在消息收发客户端104上发送响应消息给用户。外部资源可以基于外部资源的当前上下文选择性地将不同的媒体项包括在响应中。
消息收发客户端104可以向用户呈现可用外部资源(例如,第三方或外部应用109或小应用)的列表以启动或访问给定的外部资源。该列表可以被呈现在上下文敏感菜单中。例如,表示外部应用109(或小应用)中的不同的外部应用的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的进一步细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器114。消息收发系统100包含若干子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212和外部资源系统220。
短暂定时器系统202负责实施由消息收发客户端104和消息收发服务器118对内容进行临时或时间受限的访问。短暂定时器系统202包含若干定时器,这些定时器基于与消息或消息集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的其他细节。
集合管理系统204负责管理媒体的组和集合(例如,文本、图像视频和音频数据的集合)。可以将内容(例如,包括图像、视频、文本和音频的消息)的集合组织成“事件图库”或“事件故事”。可以使这样的集合在指定时间段例如在与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户接口发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括策展接口206,该策展接口206允许集合管理器能够管理和策展特定内容集合。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容集合(例如,删除不适当的内容或冗余消息)。此外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以向用户支付对将用户生成的内容包括到集合中的补偿。在这样的情况下,集合管理系统204进行操作以自动地向这样的用户进行支付以使用他们的内容。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布由消息收发系统100处理的消息的媒体覆盖有关的功能。增强系统208基于客户端设备102的地理定位可操作地向消息收发客户端104供应媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104供应媒体覆盖。媒体覆盖可以包括音频和视觉内容和视觉效果。音频和视觉内容的示例包括图片、文本、标识、动画、整个身体服装和声音效果。视觉效果的示例包括颜色覆盖。音频及视觉内容或视觉效果可以应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备102拍摄的照片之上的文本、图形元素或者图像。在另一示例中,媒体覆盖包括定位标识覆盖(例如,威尼斯海滩)、实况事件名称或商家名称覆盖(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理定位来识别包括客户端设备102的地理定位处的商家的名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他标记。媒体覆盖可以被存储在数据库126中并通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位并上传与所选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体覆盖的环境。增强系统208生成包括所上传的内容的媒体覆盖并将所上传的内容与所选择的地理定位相关联。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程选择与地理定位相关联的特定媒体覆盖。例如,增强系统208将最高出价商家的媒体覆盖与对应地理定位相关联达预定义时间量。增强系统208与图像处理服务器122通信以获得增强现实体验,并在一个或更多个用户界面中呈现这种体验的标识符(例如,作为实时图像或视频上的图标,或者作为专用于呈现的增强现实体验的标识符的界面中的缩略图或图标)。一旦选择了增强现实体验,一个或更多个图像、视频或增强现实图形元素被检索并呈现为由客户端设备102捕获的图像或视频之上的覆盖物。在一些情况下,摄像装置被切换至正面视角(例如,客户端设备102的前置摄像装置响应于特定增强现实体验的激活而被激活),并且来自客户端设备102的前置摄像装置而不是客户端设备102的后置摄像装置的图像开始被显示在客户端设备102上。一个或更多个图像、视频或增强现实图形元素被检索并呈现为由客户端设备102的前置摄像装置捕获和显示的图像之上的覆盖物。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文中指示用户的“朋友”的当前或过去定位,以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,由用户从特定地理定位发布到消息收发系统100的消息可以在消息收发客户端104的地图界面上在地图的上下文中在该特定定位处显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状况化身来)共享他或她的定位和状况信息,其中,在消息收发客户端104的地图界面的上下文中该定位和状况信息被类似地显示给选择的用户。
游戏系统212在消息收发客户端104的上下文中提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可以由用户在消息收发客户端104的上下文中启动并且与消息收发系统100的其他用户一起玩的可用游戏(例如,基于web的游戏或基于web的应用)的列表。消息收发系统100还使得特定用户能够通过从消息收发客户端104向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。消息收发客户端104还支持在玩游戏的上下文中的语音消息收发和文本消息收发(例如,聊天)两者,为游戏提供排行榜,并且还支持提供游戏内奖励(例如,钱币和物品)。
外部资源系统220为消息收发客户端104提供与外部应用服务器110进行通信以启动或访问外部资源的接口。每个外部资源(app)服务器110托管例如基于标记语言(例如,HTML5)的应用或外部应用(例如,在消息收发客户端104外部的游戏、实用程序、支付或乘车共享应用)的小规模版本。消息收发客户端104可以通过从与基于web的资源相关联的外部资源(app)服务器110访问HTML5文件来启动基于web的资源(例如,应用)。在某些示例中,由外部资源服务器110托管的应用利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript进行编程。SDK包括应用编程接口(API),其具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavaScript库,该JavaScript库提供对于消息收发客户端104的某些用户数据的给定第三方资源访问权限。HTML5用作用于对游戏进行编程的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由外部资源(app)服务器110从消息收发服务器118下载或者由外部资源(app)服务器110以其他方式接收。一旦被下载或接收到,则SDK作为基于web的外部资源的应用代码的一部分被包括在内。然后,基于web的资源的代码可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供了外部资源(例如,第三方或外部应用109或小应用)与消息收发客户端104之间的桥接。这为用户提供了在消息收发客户端104上与其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK促进外部资源服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信通道。在外部资源与消息收发客户端104之间经由这些通信通道异步地发送消息。将每个SDK函数调用作为消息和回调进行发送。每个SDK函数都是通过构建唯一的回调标识符并发送具有该回调标识符的消息来实现的。
通过使用SDK,并非来自消息收发客户端104的所有信息都与外部资源服务器110共享。SDK基于外部资源的需要来限制共享哪些信息。在某些示例中,每个外部资源服务器110将与基于web的外部资源对应的HTML5文件提供给消息收发服务器118。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(例如,盒子艺术或其他图形)。一旦用户通过消息收发客户端104的GUI选择视觉表示或者指示消息收发客户端104访问基于web的外部资源的特征,则消息收发客户端104获得HTML5文件并且使访问基于web的外部资源的特征所需的资源实例化。
消息收发客户端104呈现外部资源的图形用户接口(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,消息收发客户端104确定所启动的外部资源是否先前已被授权访问消息收发客户端104的用户数据。响应于确定所启动的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的包括外部资源的功能和特征的另一图形用户接口。响应于确定所启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从屏幕底部向屏幕中间或其他部分显露)。该菜单标识了外部资源将被授权使用的用户数据的类型。响应于接收到对接受的选项的用户选择,消息收发客户端104将外部资源添加至授权的外部资源的列表,并且允许外部资源从消息收发客户端104访问用户数据。在一些示例中,外部资源由消息收发客户端104根据OAuth 2框架来授权访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,包括全规模的外部应用(例如,第三方或外部应用109)的外部资源被提供有对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问权限。作为另一示例,包括外部应用的小规模版本(例如,第三方应用的基于web的版本)的外部资源被提供有对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身、以及具有各种化身特性的化身)的访问权限。化身特性包括定制化身的外观和感觉的不同方式,例如不同的姿态、面部特征、服装等。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括若干表,但是应当理解的是,数据可以存储在其他类型的数据结构(例如,作为面向对象的数据库)中。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一个消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述了关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据中的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接至实体图308和简档数据316。在实体表306内为其维持记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。无论实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体都可以是识别的实体。每个实体都被提供有唯一标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。这样的关系可能仅仅例如是社交的、职业的(例如,在共同的公司或组织工作)、基于兴趣的或者基于活动的。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)、以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容中以及在由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状况化身”,其呈现用户可以选择在特定时间传达的状况或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员和相关团体的各种设置(例如,通知)之外,团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如覆盖物或过滤器。增强数据与视频(视频数据存储在视频表304中)和图像(图像数据存储在图像表312中)相关联并且应用于视频和图像。
在一个示例中,过滤器是在呈现给接收用户期间显示为覆盖在图像或视频上的覆盖物。过滤器可以是各种类型的,包括当发送用户正在编写消息时从由消息收发客户端104呈现给发送用户的一组过滤器中用户选择的过滤器。其他类型的过滤器包括地理定位过滤器(也称为地理过滤器),其可以基于地理定位被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理定位信息,由消息收发客户端104在用户接口内呈现特定于附近或特殊定位的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定定位处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用增强现实体验)。增强现实内容项或增强现实项可以是可以添加到图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、覆盖物、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似项。这包括实时修改,实时修改在图像被使用客户端设备102的设备传感器(例如,一个或更多个摄像装置)进行捕获然后在修改的情况下在客户端设备102的屏幕上显示时对图像进行修改。这还包括对存储的内容(例如可以修改的图库中的视频片段)的修改。例如,在具有对多个增强现实内容项的访问权限的客户端设备102中,用户可以使用具有多个增强现实内容项的单个视频片段来查看不同的增强现实内容项将如何修改存储的片段。例如,通过为同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以示出当前由客户端设备102的传感器捕获的视频图像将如何修改捕获的数据。这样的数据可以简单地显示在画面上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下记录并存储在存储器中。在一些系统中,预览特征可以示出不同的增强现实内容项将同时在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的数据和各种系统或使用该数据来修改内容的其他这样的变换系统可以涉及对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测,在这样的对象离开、进入视频帧中的视场以及在视场四处移动时对这样的对象的跟踪,以及在这样的对象被跟踪时对这样的对象的修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,并在视频内使用模型的变换和动画化纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在所跟踪的位置处。在更进一步的示例中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,视频的图像或帧)中。因此,增强现实内容项既是指用于在内容中创建变换的图像、模型和纹理,也是指利用对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人脸和人体的各部分、动物或非生物(例如椅子、汽车或其他对象)。
在一些示例中,当与待变换的内容一起选择特定修改时,待变换的元素由计算设备识别,然后如果待变换的元素存在于视频的帧中,则待变换的元素被检测和跟踪。根据修改请求来修改对象的元素,从而变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要是指对象的元素的变化形式的帧变换,计算对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,每个元素的提及的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点和修改请求针对每个元素生成一组第二点。然后,可以通过基于该组第一点和该组第二点以及网格修改对象的元素来变换视频流的帧。在这样的方法中,也可以通过跟踪和修改背景来改变或扭曲经修改的对象的背景。
在一些示例中,可以通过计算对象的每个元素的特征点并基于计算的特征点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,从而变换视频流的帧。根据具体修改请求,可以以不同的方式变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少一些部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及修改或扭曲区域或对象的元素。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,使用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适合于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,该界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可识别(例如,如果人有眼罩),则可以使用次要界标。这样的界标识别过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为向量。一个形状利用相似变换(允许平移、缩放和旋转)与另一个形状对准,该相似变换使形状点之间的平均欧几里德距离最小化。平均形状是对准的训练形状的平均。
在一些示例中,开始从与由全局面部检测器确定的面部的位置和大小对准的平均形状搜索界标。然后,这样的搜索重复以下操作的步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的定位来建议暂定形状,然后使暂定形状符合全局形状模型,直到发生收敛。在一些系统中,个别模板匹配是不可靠的,并且形状模型将弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每个级别上重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状改变、情绪迁移(例如,将面部从皱眉改变为微笑)、状态迁移(例如,使被摄体变老、减小表观年龄、改变性别)、风格迁移、图形元素应用、以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由系统使用,在该系统中,用户可以使用具有作为在客户端设备102上操作的消息收发客户端104的一部分进行操作的神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍)。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以被呈现为与本文中描述的接口相关联。修改图标包括以下改变,所述改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映所选择的修改图标(例如,在用户上生成笑脸)的过程。一旦图像或视频流被捕获并且指定的修改被选择,则修改的图像或视频流可以呈现在客户端设备102上显示的图形用户接口中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用所选择的修改。也就是说,一旦修改图标被选择,则用户可以捕获图像或视频流并且实时或接近实时地被呈现修改的结果。此外,当正在捕获视频流时,修改可以是持久的,并且所选择的修改图标保持被切换。机器教导的神经网络可以用于实现这样的修改。
呈现由变换系统执行的修改的图形用户接口可以为用户供应附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的内容捕获和选择的接口(例如,从内容创建者用户接口发起)。在各种示例中,修改可以在对修改图标的初始选择之后是持久的。用户可以通过轻击或以其他方式选择由变换系统修改的面部来开启或关闭修改,并将其存储以供以后查看或浏览到成像应用的其他区域。在由变换系统修改多个面部的情况下,用户可以通过轻击或选择在图形用户接口内修改和显示的单个面部来全局开启或关闭修改。在一些示例中,可以单独地修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户接口内显示的各个面部或一系列各个面部来单独切换这样的修改。
故事表314存储关于消息的集合的数据以及相关联的图像、视频或音频数据,这些数据被编译成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,在实体表306中维持其记录的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端104的用户接口可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成作为来自多个用户的内容集合的“现场故事”,该内容集合是手动地、自动地或者使用手动技术和自动技术的组合创建的。例如,“现场故事”可以构成来自各种定位和事件的用户提交内容的策展流。可以例如经由消息收发客户端104的用户接口向其客户端设备使定位服务被启用并且在特定时间处于公共定位事件处的用户呈现选项,以将内容贡献给特定的现场故事。可以由消息收发客户端104基于他或她的定位向用户标识现场故事。最终结果是从社群角度讲述的“现场故事”。
另外类型的内容集合被称为“定位故事”,该“定位故事”使其客户端设备102位于特定地理定位内(例如,在学院或大学校园)的用户能够对特定集合做出贡献。在一些实施方式中,对定位故事的贡献可能需要第二程度的认证,以验证最终用户属于特定的组织或其他实体(例如,是大学校园的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与其记录被维持在消息表302内的消息相关联。类似地,图像表312存储与其消息数据存储在实体表306中的消息相关联的图像数据。实体表306可以将来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端104生成,以用于传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容用于填充存储在数据库126内的消息表302,该消息表302可由消息收发服务器118访问。类似地,消息400的内容作为客户端设备102或应用服务器114的“传输中”或“飞行中”数据存储在存储器中。消息400被示为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备102的用户接口生成并且包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备102的摄像装置部件捕获的或从客户端设备102的存储器部件检索到的、并且包括在消息400中的图像数据。针对发送或接收到的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收到的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、贴纸或其他注解或增强)。针对发送或接收到的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)要经由消息收发客户端104呈现给用户或可由用户访问的时间量的参数值。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以包括在有效载荷中,这些参数值中的每一个与内容中包括的内容项(例如,在消息图像有效载荷406中的特定图像,或者在消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值,其中消息400的消息图像有效载荷406中的特定内容项与一个或更多个内容集合相关联。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,这样的多个标签中的每一个指示在消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。可以基于用户输入手动生成标签值,或者可以使用例如图像识别自动生成标签值。
·消息发送者标识符422:指示在其上生成消息400以及从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400被定址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向表中存储内容数据值的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或图像表312内的位置的地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强数据412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,以及存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
眼镜设备
图5示出了根据一个示例的以一副智能眼镜形式的眼镜设备119的正面透视图,一副智能眼镜包括免提控制系统107。眼镜设备119包括主体503,该主体503包括前件或镜架506以及连接至镜架506用于在眼镜设备119被佩戴时将镜架506支承在用户面部的适当位置的一对镜腿509。镜架506可以由任何合适的材料,例如塑料或金属制成,包括任何合适形状的记忆合金。
眼镜设备119包括以一对镜片512形式的一对光学元件,所述一对光学元件由形成镜架506的一部分的一对镜框515形式的相应的光学元件保持件保持。镜框515由桥接件518连接。在其他示例中,光学元件中的一个或两个可以是显示器、显示器组件或镜片和显示器的组合。
镜架506包括限定镜架506的侧端部的一对端件521。在该示例中,各种电子部件被容纳在端件521中的一个或两个中。镜腿509被耦接至相应的端件521。在该示例中,镜腿509通过相应的铰接件耦接至镜架506,以便在可佩戴模式与折叠模式之间铰接地可移动,在折叠模式下镜腿509朝向镜架506枢转,以基本上抵靠镜架506平坦放置。在其他示例中,镜腿509可以通过任何合适的手段耦接至镜架506,或者可以刚性地或固定地固定至镜架506,以便与其成为一体。
镜腿509中的每一个包括耦接至镜架506的前部和用于耦接至用户耳朵的任何合适的后部,例如图5的示例中所示的曲线件或切割件。在一些示例中,镜架506由单件材料形成,以便具有整体或单片构造。在一些示例中,整个主体503(包括镜架506和镜腿509二者)可以是整体或单片构造。
眼镜设备119具有机载电子部件,包括计算设备例如计算机524或低功率处理器,其在不同的示例中可以是任何合适的类型,以便由主体503携带。在一些示例中,计算机524至少部分被容纳在镜腿509中的一个或两个中。在本示例中,计算机524的各种部件被容纳在镜架506的侧端件521中。计算机524包括一个或更多个处理器以及存储器(例如,易失性存储设备,例如随机存取存储器或寄存器)、存储设备(例如,非易失性存储设备)、无线通信电路系统(例如,BLE通信设备和/或WiFi直连设备)和电源。计算机524包括低功率电路系统、高速电路系统,并且在一些示例中,包括显示处理器。各种示例可以包括不同配置的或以不同方式集成在一起的这些元件。
计算机524还包括电池527或其他合适的便携式电源。在一个示例中,电池527设置在镜腿509中的一个中。在图5中所示的眼镜设备119中,电池527被示出为设置在端件521中的一个中,与容纳在相应端件521中的计算机524的其余部分电耦接。
眼镜设备119具有摄像装置功能,在该示例中,包括安装在端件521中的一个中并面向前面的摄像装置530,以便或多或少地与眼镜设备119的佩戴者的观察方向对齐。摄像装置530被配置成捕获数字图像(在本文中也称为数字照片或图片)以及数字视频内容。摄像装置530的操作通过由计算机524提供的摄像装置控制器控制,表示由摄像装置530捕获的图像或视频的图像数据被临时存储在形成计算机524的一部分的存储器上。在一些示例中,眼镜设备119可以具有例如由相应的端件521容纳的一对摄像装置530。
如下面将更详细地描述的,机载计算机524、摄像装置530和镜片512被配置在一起以提供自动激活视频片段捕获模式的免提控制系统107,在该视频片段捕获模式下,当静态镜子在镜片512的视野内时,一个或更多个视频片段生成选项被显示。免提控制系统107允许用户通过使用由摄像装置530捕获到的静态镜子中的手的一个或更多个手指的影像作为光标来导航通过菜单选项(例如,虚拟或AR整个身体服装、过滤器、视频片段捕获和共享功能)。具体地,镜片512可以显示虚拟内容或一个或更多个虚拟对象(例如,整个身体服装)或菜单选项,因此它们出现在静态镜子中用户的影像中。这使对于用户来说看起来静态镜子中用户的影像包括虚拟内容或一个或更多个虚拟对象或菜单选项。免提控制系统107检测用户的手的一个或更多个手指在静态镜子中用户的影像内正指向的方向,并基于一个或更多个手指正指向的方向执行对在所显示的虚拟内容、对象或菜单选项之间进行的选择。这给用户一种用户正在与电子镜像设备进行交互的错觉。即,通过穿戴眼镜设备119并集中在静态镜子上,用户被给出以下印象,用户与具有前置摄像装置并正在将视频馈送显示在面向用户的屏幕上的电子设备进行交互。
基于由眼镜设备119从摄像装置530接收到的输入,眼镜设备119可以在由摄像装置530捕获到的一个或更多个图像中基于静态镜子中用户的影像中出现的手部移动控制用户与虚拟内容的交互。在一个示例中,用户交互可以控制视频片段捕获。例如,眼镜设备119可以捕获静态镜子中用户的影像的视频片段,其具有通过由用户使用手作为光标选择的选项设置的持续时间。在另一示例中,用户交互可以导航通过视频修改选项和视频片段选项。在另一示例中,用户交互可以诸如通过滚动通过在反射用户的静态镜子的位置处的镜片中显示的各种三维或二维对话元素(例如,聊天气泡)并选择各个对话元素来响应以生成传输给对话参与者的消息来导航通过用户所涉及的对话。在另一示例中,用户交互可以导航通过覆盖在用户上并显示在反射用户的静态镜子的位置处的镜片中的一个或更多个虚拟或AR整个身体服装。
眼镜设备119还包括一个或更多个通信设备,例如蓝牙低能量(BLE)通信接口。这种BLE通信接口使得眼镜设备119能够与客户端设备102进行无线通信。代替BLE通信接口或者除了BLE通信接口之外,还可以采用其他形式的无线通信,例如WiFi直连接口。BLE通信接口实现了标准数目的BLE通信协议。
由眼镜设备119的BLE接口实现的第一通信协议使得能够在眼镜设备119与客户端设备102之间建立未加密的链路。在该第一协议中,眼镜设备119与客户端设备102之间的链路层通信(物理接口或介质)包括未加密的数据。在该第一协议中,应用层(对物理交换的数据进行操作的通信层)对通过BLE通信接口的链路层以未加密形式物理交换的数据进行加密和解密。以这种方式,通过物理层交换的数据可以被窃听设备自由读取,但是在不在应用层中执行解密操作的情况下,窃听设备将不能破译被交换的数据。
由眼镜设备119的BLE接口实现的第二通信协议使得能够在眼镜设备119与客户端设备102之间建立加密链路。在该第二协议中,眼镜设备119与客户端设备102之间的链路层通信(物理接口)从应用层接收数据,并在通过物理介质交换数据之前对数据添加第一类型的加密。在该第二协议中,应用层(对物理交换的数据进行操作的通信层)可以使用或可以不使用第二类型的加密来对数据进行加密和解密,该数据使用第一类型的加密通过BLE通信接口的链路层以加密形式物理交换。即,数据可以首先由应用层加密,然后在通过物理介质交换之前由物理层进一步加密。在通过物理介质进行交换之后,数据然后由物理层解密,然后由应用层再次解密(例如,使用不同类型的加密)。以这种方式,通过物理层交换的数据不能被窃听设备读取,因为数据在物理介质中被加密。
在一些示例中,客户端设备102使用第一协议与眼镜设备119通信,以在消息收发客户端104与眼镜设备119之间交换图像或视频或虚拟内容。
电子镜像设备
图6A是根据一些示例的包括免提控制系统107的电子镜像设备130的图解表示。电子镜像设备130包括前置摄像装置610(例如,红色、绿色和蓝色摄像装置)、深度传感器620、镜子、屏幕或显示器640(例如,1000+尼特显示器)、电力和导航按钮660、发光二极管(LED)灯630、通信设备661(例如,WiFi或蓝牙)以及扬声器和麦克风650。当通过免提控制系统107操作时,可以从远离电子镜像设备130高达或超过10米或更多距离处控制电子镜像设备130的功能和特征。即,用户可以站在远离电子镜像设备130高达或超过10米或更多距离处,并且控制和激活各种特征、功能和选项,以捕获视频片段或执行其他操作。
前置摄像装置610捕获图像或视频,并将捕获到的图像或视频显示在显示器640上。以这种方式,显示器640在用户观看时看起来是反射用户的图像的镜子。在前置摄像装置610检测到用户后,可以采用面部或对象识别技术以在各种特定于用户的选项的屏幕上提供显示。作为示例,选项可以包括视频片段生成选项或消息收发或通信选项。
电力和导航按钮660可以用于打开/关闭电子镜像设备130。当关闭时,显示器640不再提供影像,而是被关闭并变黑。电子镜像设备130允许用户使用用户的手作为光标或通过手的一个或更多个手指指向不同的方向来与显示器640上呈现的选项进行交互。即,免提控制系统107可以检测和跟踪由摄像装置610捕获到的用户的手和手的手指的移动,并执行对显示器640上显示的不同选项的选择。可替选地,用户可以通过与电子镜像设备130物理上进行交互并按下导航按钮660来执行选择。
LED灯630是电子镜像设备130的边缘周围放置的灯。LED灯630可以设置成任何期望的颜色。例如,第一用户可以将LED灯630设置成第一颜色,以及第二用户可以将LED灯630设置成另一颜色。当电子镜像设备130的面部识别在摄像装置610的视野内检测到第一用户时,电子镜像设备130激活LED灯630并将灯设置成第一颜色。当电子镜像设备130的面部识别在检测到第一用户之后在摄像装置610的视野内检测到第二用户时,电子镜像设备130将LED灯630从第一颜色转变成第二颜色。LED灯630的亮度可以从第一亮度设置连续转变成第二亮度设置,以模拟LED灯630的动画。在一些情况下,LED灯630可以被设置成静态亮度设置。当在摄像装置610的视野内检测到给定用户时,LED灯630的亮度可以通过在不同亮度设置之间连续转变而开始动画化。
LED灯630可以集成为或实现为电子镜像设备130的屏幕的一部分,而不是由物理LED灯实现。例如,可以将电子镜像设备130的屏幕的边缘周围的一组像素设置为指定的亮度和颜色,以模仿LED灯630的功能。当打开前置摄像装置610并设置要由前置摄像装置610捕获的视频片段时,屏幕的边缘周围的一组像素可以被激活,以照亮屏幕上的按钮并改善所捕获到的视频馈送的质量和亮度。LED灯630(实现为像素的边缘或实现为电子镜像设备130周围的物理LED灯)改善了电子镜像设备130跟踪用户的身体、手、身体部位或手指的位置的能力,以实现电子镜像设备130的远程控制。如上面所讨论的,LED灯630(电子镜像设备130的边缘周围的灯)可以响应于激活操作电子镜像设备130的免提模式——诸如,在满足用于激活免提操作模式的一组条件时——而被激活或打开。
通信设备661允许电子镜像设备130向其他用户发送音频/视频和从其他用户接收音频/视频。在一个示例中,电子镜像设备130可以捕获视频片段,并通过通信设备661将视频片段发送给一个或更多个其他用户。通信设备661还可以包括蜂窝技术,该蜂窝技术允许用户向其他用户拨打电话。扬声器和麦克风650可以接收来自用户的口头命令,以控制电子镜像设备130并与其他用户谈话。扬声器和麦克风650可以用于捕获音频,同时捕获用户的视频以生成视频片段。扬声器和麦克风650可以用于输出用户所接收到的视频片段的音频。
图6B是根据一些示例的包括免提控制系统107的电子镜像设备130的图解表示。如所示的,电子镜像设备130是立在家庭或其他物理公共机构的地板上的静止设备。在本示例中,电子镜像设备130具有高度690,该高度690大于平均用户的高度692(例如,高度大于5英尺或6英尺)。应理解的是,可以在示例实施方式中使用其他定尺寸的电子镜像设备。电子镜像设备130在显示屏682中提供如由电子镜像设备130的摄像装置610捕获到的用户的影像。电子镜像设备130呈现一个或更多个选项680,用户可以使用用户的手作为光标或通过手的一个或更多个手指指向不同的方向(如由免提控制系统107控制的)而导航通过一个或更多个选项680。
免提控制系统
图7是示出根据示例的免提控制系统107在执行过程700时的示例操作的流程图。过程700可以以计算机可读指令实施,所述计算机可读指令用于由一个或更多个处理器执行,使得过程700的操作可以由免提控制系统107的功能部件部分或全部执行;因此,下面通过示例的方式参考免提控制系统107描述过程700。然而,在其他示例中,过程700的操作中的至少一些操作可以部署在各种其他硬件配置上。因此,过程700不旨在限于免提控制系统107,并且可以由任何其他部件全部或部分实现。过程700的操作中的一些或全部操作可以并行、不按顺序或完全省略。
在操作701处,免提控制系统107捕获从电子镜像设备的摄像装置接收到的视频馈送,该视频馈送描绘用户。例如,如图6B中所示,电子镜像设备130基于由电子镜像设备130的前置摄像装置捕获到的图像将用户的视频馈送显示在屏幕682上。在一些情况下,视频由聚焦于反射用户的图像的静态镜子的眼镜设备119的摄像装置捕获。
在操作702处,免提控制系统107评估用于激活操作电子镜像设备130的免提模式的一组条件。例如,免提控制系统107确定正从电子镜像设备130的前置摄像装置接收视频馈送,并且确定前置摄像装置已经在给定时间间隔内保持静态(例如,没有将前置摄像装置移动多于阈值量)。免提控制系统107确定已经通过触摸电子镜像设备130的屏幕来物理上选择与免提操作相关联的屏幕上选项(例如,屏幕上视频片段捕获选项或增强现实体验选项)。然后,免提控制系统107分析摄像装置馈送,以检测用户的整个身体的存在。响应于检测到用户的整个身体的存在,免提控制系统107确定已满足用于激活操作电子镜像设备130的免提模式的一组条件。
在操作703处,免提控制系统107激活操作电子镜像设备130的免提模式。例如,电子镜像设备130可以修改或增加电子镜像设备130的显示器的显示属性。例如,免提控制系统107可以增加显示器的亮度,增加显示在显示器上的一个或更多个图形元素(诸如,一个或更多个菜单选项)的尺寸,或激活电子镜像设备130的边缘周围提供和设置的灯(例如,LED灯630),或其组合。然后,免提控制系统107可以将一个或更多个菜单选项显示在电子镜像设备130的显示器上或眼镜设备119的镜片内。
在操作704处,免提控制系统107基于在视频馈送中检测到由用户执行的一个或更多个手势而在电子镜像设备130上执行一个或更多个功能,如上面和下面所说明的。例如,免提控制系统107可以控制用户的视频片段的捕获、访问通信特征(例如,编写和回复聊天消息)、播放和控制音乐或视频、激活一个或更多个增强现实体验、控制和激活游戏应用,或其任何组合。
图8A、图8B和图9是根据示例的免提控制系统107的图形用户接口的说明性屏幕。图8A、图8B和图9中所示的屏幕可以由一个或更多个客户端设备102的消息收发客户端104、免提控制系统107、在一个或更多个客户端设备102上实现的其他应用、电子镜像设备130、眼镜设备119或其任何组合提供。
例如,图8A的屏幕800示出了电子镜像设备130的屏幕,其中示出了由前置摄像装置捕获的用户810的视频馈送。具体地,用户810可以站在电子镜像设备130的前面。电子镜像设备130的摄像装置捕获用户的图像,并将图像显示为用户的影像。
免提控制系统107可以显示多个增强现实体验选项830。多个增强现实体验选项830中的每一个使不同组的一个或更多个增强现实元素显示或动画化在视频馈送上。在一些情况下,免提控制系统107显示视频片段捕获选项。响应于接收到对给定的增强现实体验选项832或基于免提的视频片段捕获选项(如下面详细讨论的)的用户选择,免提控制系统107评估用于激活电子镜像设备130的免提操作的一组条件。
例如,免提控制系统107可以确定用户810的视频馈送正在被电子镜像设备130的前置摄像装置捕获作为一组条件中的一个条件。免提控制系统107可以确定前置摄像装置的物理移动不超过阈值移动量作为一组条件中的另一条件。为此,免提控制系统107可以访问陀螺仪部件,并从陀螺仪部件获得指示电子镜像设备130的移动的测量结果。在测量结果在给定时间时段(例如,2秒)内变化不超过阈值量(例如,2毫米)的情况下,免提控制系统107确定前置摄像装置没有超过阈值量。
在一些示例中,免提控制系统107可以确定摄像装置馈送中存在用户810的整个身体作为一组条件中的另一条件。当免提控制系统107在摄像装置馈送(或视频馈送)中搜索用户810的整个身体的存在时,免提控制系统107可以显示指示器或动画化指示器820。指示器或动画化指示器820可以通知用户810正在执行对用户的整个身体的搜索。在一些实现方式中,免提控制系统107可以对捕获的视频馈送执行对象识别,以检测用户的一个或更多个骨骼关节的存在。响应于确定检测到的骨骼关节与预定骨骼关节组合(例如,头关节、肩关节和手臂关节的组合;肩关节和髋关节的组合;或头关节、肩关节、髋关节和腿关节的组合)匹配,免提控制系统107确定用户810的整个身体存在于摄像装置馈送中。
在一些实现方式中,免提控制系统107可以确定在阈值时间段内(例如,在过去5秒内)视频馈送中没有检测到用户810的整个身体的存在。作为响应,免提控制系统107可以用指导指示器860替换指示器或动画化指示器820,如图8B中所示。指导指示器860可以指导用户810进一步移动远离电子镜像设备130,以便用于要在摄像装置馈送中检测到更多数目的骨骼关节。例如,在免提控制系统107在5秒的时间段内在摄像装置馈送中仅检测到头关节和肩关节的情况下,免提控制系统107可以通过显示指导指示器860来指导用户810进一步移动远离摄像装置。在用户进一步移动远离摄像装置之后,如图8B中所示,摄像装置馈送中开始出现用户850的额外骨骼关节。例如,免提控制系统107现在可以确定由对象识别器检测到头关节和肩关节加之手臂关节、髋关节和腿关节。免提控制系统107可以确定摄像装置馈送中出现的关节的组合与预定关节组合匹配。作为响应,免提控制系统107确定在摄像装置馈送中检测到用户的整个身体,并自动激活电子镜像设备130的免提操作模式。
在激活免提操作模式之后,免提控制系统107显示一组选项诸如图9的界面900中所示的选项。具体地,如屏幕930中所示,免提控制系统107显示菜单托盘或选项区934。选项区934包括用于诸如通过应用一个或更多个过滤器或增强现实元素来创建、编辑和共享视频片段或图像的一组选项。还可以提供除所示选项之外的其他选项诸如消息收发选项、媒体导航选项、视频/图像修改选项、通信接口选项等。本示例中示出的选项区934包括一个或更多个过滤器选项。选项区934可以包括:撤消视频片段选项,当其被选择时,删除先前捕获的视频片段或先前捕获的一个或更多个视频片段的一个或更多个段;视频片段生成选项,当其被选择时,基于指定持续时间的前置摄像装置所接收到的视频馈送(例如,5秒视频片段)触发视频片段的捕获和录制;以及共享视频片段选项,当其被选择时,使接收者的列表被呈现给用户。免提控制系统107从用户接收对一个或更多个接收者的选择(例如,基于一个或更多个手指指向的方向),然后将最后捕获的视频片段或视频片段的各段发送至指定的接收者。
在一些示例中,免提控制系统107在激活免提操作模式之后显示退出选项(未示出)。响应于确定在免提操作模式期间选择退出选项(例如,通过检测到用户的手指指向选项达阈值时间段或视频馈送中用户的手的位置与退出选项的显示位置交叠达阈值时间段),免提控制系统107终止免提操作模式。在这种情况下,仅可以通过物理上触摸电子镜像设备130的屏幕上的选项来执行对任何屏幕上选项的选择。
在一些情况下,当电子镜像设备130的免提操作模式被激活时,仅可以通过用户的手势(例如,通过检测视频馈送中用户的手的手指指向选项,或者通过检测摄像装置馈送中用户的手与选项的显示位置交叠)来选择显示在电子镜像设备130的屏幕上的第一组选项。在这样的情况下,这样的选项不能通过物理上触摸电子镜像设备130的屏幕而被选择或激活。第二组选项(其可以与第一组选项一起被显示)仅可以通过物理上触摸电子镜像设备130的屏幕而被选择,并且不被激活,以及不能基于由摄像装置馈送中的用户执行的手势进行选择。第三组选项可以通过物理上触摸电子镜像设备130的屏幕或通过用户的手势(例如,通过检测视频馈送中用户的手的手指指向选项,或通过检测摄像装置馈送中用户的手与选项的显示位置交叠)进行选择。第一组选项、第二组选项和第三组选项可以在屏幕上进行视觉上区分(例如,以不同的颜色、大小、形状等显示),以指示可以选择第一组选项、第二组选项和第三组选项的方式。第一组选项可以包括用于控制视频片段的捕获的选项,第二组选项可以包括用于控制操作系统或电子镜像设备130的其他应用(例如,除消息收发客户端104之外的应用)的选项,以及第三组选项可以包括用于控制消息收发客户端104的其他操作(例如,通信功能、化身选择、搜索操作等)的选项。
免提控制系统107在视频馈送中检测到用户的手的一个或更多个手指932。免提控制系统107确定一个或更多个手指932指向特定方向。例如,免提控制系统107生成虚线939,该虚线从一个或更多个手指932延伸,并与一个或更多个手指932平行地延展。免提控制系统107确定虚线939是否与选项区934中的选项中的给定选项的显示位置相交。作为响应,免提控制系统107相对于选项区934中所示的其他图标增加图标936的尺寸,以指示由一个或更多个手指932正指向的方向正在识别哪个图标。
免提控制系统107确定经识别的菜单选项仍然由一个或更多个手指932识别(例如,免提控制系统107确定一个或更多个手指仍然指在虚线939继续与经识别的菜单选项的显示位置相交的方向处和方向上)达阈值时间段(例如,3秒或更多)。作为响应,免提控制系统107激活与经识别的菜单选项对应的功能(例如,播放/暂停音乐或视频的回放,激活视频片段捕获功能,在视频馈送上覆盖一个或更多个过滤器,捕获图像,激活一个或更多个增强现实体验或元素)。
机器架构
图10是机器1000的图解表示,在该机器1000中可以执行用于使机器1000执行本文中所讨论的方法中的任何一种或更多种方法的指令1008(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1008可以使机器1000执行本文中所描述的方法中的任何一种或更多种方法。指令1008将通用的非编程的机器1000转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1000。机器1000可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1000可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份操作,或者作为对等(或分布式)网络环境中的对等机器操作。机器1000可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1000采取的动作的指令1008的任何机器。此外,虽然仅示出了单个机器1000,但是术语“机器”还应当被视为包括单独地或联合地执行指令1008以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1000可以包括客户端设备102或者形成消息收发服务器系统108的一部分的若干服务器设备中的任何一个。在一些示例中,机器1000还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且其中特定方法或算法的某些操作在客户端侧执行。
机器1000可以包括可以被配置成经由总线1040彼此通信的处理器1002、存储器1004和输入/输出(I/O)部件1038。在示例中,处理器1002(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1008的处理器1006和处理器1010。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图10示出了多个处理器1002,但是机器1000可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或其任意组合。
存储器1004包括主存储器1012、静态存储器1014以及存储单元1016,其均可由处理器1002经由总线1040访问。主存储器1004、静态存储器1014和存储单元1016存储实现本文所述的方法或功能中的任何一种或更多种的指令1008。指令1008在其由机器1000执行期间还可以完全地或部分地驻留在主存储器1012内、在静态存储器1014内、在存储单元1016内的机器可读介质1018内、在处理器1002中的至少之一内(例如,在处理器的高速缓存存储器内)或者在其任何合适的组合内。
I/O部件1038可以包括用于接收输入、提供输出、产生输出、传送信息、交换信息、捕获测量结果等的各种部件。在特定机器中包括的特定I/O部件1038将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头(headless)服务器机器可能将不包括这样的触摸输入设备。应当认识到的是,I/O部件1038可以包括图10中未示出的许多其他部件。在各种示例中,I/O部件1038可以包括用户输出部件1024和用户输入部件1026。用户输出部件1024可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1026可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或另一指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的定位和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在另一示例中,I/O部件1038可以包括:生物计量部件1028、运动部件1030、环境部件1032、或位置部件1034、以及各种各样的其他部件。例如,生物计量部件1028包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿态或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1030包括加速度传感器部件(例如,加速计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1032包括例如:一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)、或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更传统的摄像装置模式捕获静止图像和视频,这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1034包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1038还包括通信部件1036,通信部件1036可操作以经由相应的耦接或连接将机器1000耦接至网络1020或设备1022。例如,通信部件1036可以包括与网络1020对接的网络接口部件或其他合适的设备。在另外的示例中,通信部件1036可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低功耗)、/>部件以及经由其他模态提供通信的其他通信部件。设备1022可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1036可以检测标识符,或者包括可操作以检测标识符的部件。例如,通信部件1036可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵(Data Matrix)、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码以及其他光学码的光学传感器)或声学检测部件(例如,用于识别经标记的音频信号的麦克风)。此外,可以经由通信部件1036得到各种信息,例如经由因特网协议(IP)地理定位的定位、经由信号三角测量的定位、经由检测NFC信标信号的定位等,该NFC信标信号可以指示特定定位。
各种存储器(例如,主存储器1012、静态存储器1014以及处理器1002的存储器)以及存储单元1016可以存储由本文中描述的方法或功能中的任何一个或更多个实现或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1008)在由处理器1002执行时使得各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1036中包括的网络接口部件),使用传输介质并且使用多个公知的传输协议中的任意一种传输协议(例如,超文本传输协议(HTTP)),通过网络1020来发送或接收指令1008。类似地,可以使用传输介质经由与设备1022的耦接(例如,对等耦接)来发送或接收指令1008。
软件架构
图11是示出可以安装在本文中所描述的设备中的任何一个或更多个上的软件架构1104的框图1100。软件架构1104由诸如包括处理器1120、存储器1126和I/O部件1138的机器1102的硬件来支持。在该示例中,软件架构1104可以被概念化为层的堆叠,其中每个层提供特定功能。软件架构1104包括诸如操作系统1112、库1110、框架1108和应用1106的层。在操作上,应用1106通过软件堆栈来激活API调用1150,并且响应于API调用1150接收消息1152。
操作系统1112管理硬件资源并且提供公共服务。操作系统1112包括例如内核1114、服务1116和驱动器1122。内核1114充当硬件层与其他软件层之间的抽象层。例如,内核1114提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1116可以为其他软件层提供其他公共服务。驱动器1122负责控制底层硬件或与底层硬件对接。例如,驱动器1122可以包括显示驱动器、摄像装置驱动器、或/>低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1110提供由应用1106使用的公共低级基础设施。库1110可以包括系统库1118(例如,C标准库),系统库1118提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。此外,库1110可以包括API库1124,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述媒体格式例如是运动图像专家组4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)进行呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1110还可以包括各种其他库1128,以向应用1106提供许多其他API。
框架1108提供由应用1106使用的公共高级基础设施。例如,框架1108提供各种图形用户接口(GUI)功能、高级资源管理和高级定位服务。框架1108可以提供可以由应用1106使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1106可以包括家庭应用1136、联系人应用1130、浏览器应用1132、书籍阅读器应用1134、定位应用1142、媒体应用1144、消息收发应用1146、游戏应用1148和诸如外部应用1140的各种各样的其他应用。应用1106是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1106中的一个或更多个,编程语言例如是面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,外部应用1140(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTMPhone的移动操作系统或另外的移动操作系统上运行的移动软件。在该示例中,外部应用1140可以激活由操作系统1112提供的API调用1150以促进本文中描述的功能。
术语表:
在该上下文中,“载波信号”是指能够存储、编码或携载由机器执行的暂态或非暂态指令并且包括数字或模拟通信信号的任何无形介质或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用暂态或非暂态传输介质并使用许多公知传输协议中的任一种在网络上发送或接收指令。
在该上下文中,“客户端设备”是指与通信网络对接以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、PDA、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于接入网络的任何其他通信设备。
在该上下文中,“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、GSM演进的增强数据速率(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通讯系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
在该上下文中,“短暂消息”是指在有时间限制的持续时间内可访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
在该上下文中,“机器可读介质”是指能够临时或永久存储指令和数据的部件、设备或其他有形介质,并且可以包括但不限于随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪存、光学介质、磁介质、高速缓冲存储器、其他类型的存储装置(例如,可擦除可编程只读存储器(EEPROM))和/或其任何合适的组合。术语“机器可读介质”应被理解为包括能够存储指令的单个介质或多个介质(例如,集中式或分布式数据库,或相关联的高速缓存和服务器)。术语“机器可读介质”还应当被认为包括能够存储由机器执行的指令(例如,代码)的任何介质或多个介质的组合,使得当由机器的一个或更多个处理器执行指令时,指令使机器执行本文中描述的方法中的任何一个或更多个。因此,“机器可读介质”指的是单个存储装置或设备、以及包括多个存储装置或设备的“基于云的”存储系统或存储网络。术语“机器可读介质”不包括信号本身。
在该上下文中,“部件”是指具有以下边界的设备、物理实体或逻辑:所述边界由功能或子例程调用、分支点、API或被提供用于对特定处理或控制功能进行划分或模块化的其他技术来定义。部件可以经由其接口与其他部件组合以执行机器过程。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件组件(例如,实施在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行如本文描述的某些操作的硬件部件。
也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,诸如现场可编程门阵列(FPGA)或ASIC。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行配置的功能的特定机器(或机器的特定部件),并且不再是通用处理器。将理解的是,机械地、在专用和永久配置的电路系统中、或在临时配置的电路系统(例如,由软件配置)中实现硬件部件的决定可以由成本和时间考虑来驱动。相应地,短语“硬件部件”(或者“硬件实现的部件”)应当被理解成包含有形实体,即为被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,硬件部件中的每一个无需在任一时刻处被配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,可以将通用处理器在不同时间配置成各自不同的专用处理器(例如,包括不同的硬件部件)。因此,软件将一个或多个特定处理器配置成例如在一个时刻构成特定硬件部件并且在不同时刻构成不同的硬件部件。
硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在其中多个硬件部件在不同时间处被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在所述存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作并且将该操作的输出存储在与其通信地耦接的存储器装置中。然后,其他硬件部件可以在随后的时间访问存储器装置以检索所存储的输出并对其进行处理。
硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。本文描述的示例方法的各种操作可以至少部分地由一个或更多个处理器执行,一个或更多个处理器被临时配置(例如,通过软件)或永久配置成执行相关的操作。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的操作中的至少一些操作可以由一个或更多个处理器或者处理器实现的部件执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由一组计算机(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)以及经由一个或更多个适当的接口(例如,API)访问。某些操作的执行可以分布在处理器之间,不仅可以驻留在单个机器内,而且可以被部署在若干机器上。在一些示例中,处理器或处理器实现的部件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨若干地理定位分布。
在该上下文中,“处理器”是指根据控制信号(例如,“命令”、“操作码”、“机器码”等)操纵数据值并产生用于操作机器的相应输出信号的任何电路或虚拟电路(由在实际处理器上执行的逻辑模拟的物理电路)。例如,处理器可以是中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、ASIC、射频集成电路(RFIC)或其任意组合。处理器还可以是多核处理器,其具有可以同时执行指令的两个或更多个独立处理器(有时称为“核”)。
在该上下文中,“时间戳”是指识别某一事件何时发生的一系列字符或编码信息,例如给出的日期和时间,有时精确小到几分之一秒。
在不脱离本公开内容的范围的情况下,可以对所公开的示例进行改变和修改。这些和其他改变或修改旨在被包括在所附权利要求中表达的本公开内容的范围内。
模块、组件和逻辑
某些示例在本文中被描述为包括逻辑或多个组件、模块或机构。模块可以构成软件模块(例如,实施在机器可读介质上或在传输信号中的代码)或硬件模块。“硬件模块”是能够执行特定操作的有形单元,并且可以以特定的物理方式来配置或布置。在各种示例中,一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或计算机系统的一个或更多个硬件模块(例如,处理器或处理器组)由软件(例如,应用或应用部分)配置为进行操作以执行本文中所述的某些操作的硬件模块。
在一些示例中,硬件模块机械地、电子地或以其任何合适的组合实现。例如,硬件模块可以包括被永久配置成执行某些操作的专用电路系统或逻辑。例如,硬件模块可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件模块还可以包括由软件临时配置以执行某些操作的可编程逻辑或电路系统。例如,硬件模块可以包括包含在通用处理器或其他可编程处理器中的软件。应当理解,机械地、在专用和永久配置的电路系统或者临时配置的电路系统(例如,由软件配置的电路系统)中实现硬件模块的决定可以由成本和时间考虑来驱动。
因此,短语“硬件模块”应当被理解成包含有形实体,即为被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。如本文中所使用的,“硬件实现的模块”指的是硬件模块。考虑到硬件模块被临时配置(例如,被编程)的示例,硬件模块中的每一个无需在任一时刻处被配置或实例化。例如,在硬件模块包括通过软件配置成为专用处理器的通用处理器的情况下,可以将通用处理器在不同时间配置为各自不同的专用处理器(例如,包括不同的硬件模块)。因此,软件可以将一个或多个特定处理器配置成例如在一个时刻构成特定硬件模块并且在不同时刻构成不同的硬件模块。
硬件模块可以向其他硬件模块提供信息,并且可以从其他硬件模块接收信息。因此,所描述的硬件模块可以被认为是通信耦接的。在多个硬件模块同时存在的情况下,可以通过硬件模块中的两个或更多个之间或之中的信号传输(例如,通过适当的电路和总线)来实现通信。在多个硬件模块在不同时间被配置或实例化的示例中,可以例如通过在多个硬件模块可以访问的存储器结构中存储和检索信息来实现这些硬件模块之间或之中的通信。例如,一个硬件模块执行操作并将该操作的输出存储在其通信耦接的存储器设备中。然后,另一个硬件模块可以在稍后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件模块还可以发起与输入或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。
本文中描述的示例方法的各种操作可以至少部分地由一个或更多个处理器执行,所述一个或更多个处理器被临时配置(例如,通过软件)或永久配置以执行相关操作。无论是临时配置还是永久配置,这样的处理器都构成了处理器实现的模块,所述模块进行操作以执行本文中描述的一个或更多个操作或功能。如本文中所使用的,“处理器实现的模块”指的是使用一个或更多个处理器实现的硬件模块。
类似地,本文中描述的方法可以至少部分是处理器实现的,其中一个或多个特定处理器是硬件的示例。例如,方法的操作中的至少一些可以由一个或更多个处理器或处理器实现的模块来执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中相关操作的执行或作为“软件即服务”(SaaS)进行操作。例如,操作中的至少一些可以由一组计算机(作为包括处理器的机器的示例)来执行,其中这些操作可以经由网络(例如,因特网)和经由一个或更多个适当的接口(例如,API)来访问。
操作中的某些操作的执行可以分布在处理器中,不仅驻留在单个机器中,而且跨多个机器部署。在一些示例中,处理器或处理器实现的模块位于单个地理位置中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的模块跨多个地理位置分布。

Claims (20)

1.一种方法,包括:
通过电子镜像设备捕获从所述电子镜像设备的摄像装置接收到的视频馈送,所述视频馈送描绘用户;
响应于捕获到所述视频馈送,评估用于激活操作所述电子镜像设备的免提模式的一组条件;
响应于确定满足所述一组条件,激活操作所述电子镜像设备的所述免提模式;以及
基于在所述视频馈送中检测到由所述用户执行的一个或更多个手势在所述电子镜像设备上执行一个或更多个功能。
2.根据权利要求1所述的方法,还包括通过执行包括以下的操作来评估所述一组条件:
接收选择用于执行所述一个或更多个功能的屏幕上选项的输入;以及
分析所述视频馈送以确定所述视频馈送中描绘了所述用户的整个身体,其中,响应于在所述视频馈送中检测到存在所述用户的整个身体而满足所述一组条件。
3.根据权利要求1至2中任一项所述的方法,还包括:
在分析所述视频馈送以确定在所述视频馈送中描绘了所述用户的整个身体时显示动画化指示器。
4.根据权利要求3所述的方法,还包括在确定已经满足了所述一组条件之后移除所述动画化指示器。
5.根据权利要求3至4中任一项所述的方法,还包括:
确定在所述视频馈送中没有描绘所述用户的整个身体;以及
响应于确定在所述视频馈送中没有描绘所述用户的整个身体而使所述动画化指示器指导所述用户进一步移动远离所述电子镜像设备。
6.根据权利要求2至5中任一项所述的方法,还包括:
确定所述摄像装置包括前置摄像装置;以及
确定所述前置摄像装置是静止的。
7.根据权利要求2至6中任一项所述的方法,其中,所述屏幕上选项包括录制设置。
8.根据权利要求1至7中任一项所述的方法,还包括通过执行包括以下的操作来评估所述一组条件:
接收从多个增强现实体验中选择增强现实体验的输入;以及
确定选择的增强现实体验与免提操作相关联,其中,响应于确定所述选择的增强现实体验与所述免提操作相关联,所述一组条件得到满足。
9.根据权利要求8所述的方法,还包括显示退出选项,其中,响应于确定所述视频馈送中由所述用户执行的所述一个或更多个手势对应于对所述退出选项的选择而终止操作所述电子镜像设备的所述免提模式。
10.根据权利要求1至9中任一项所述的方法,其中,所述视频馈送中由所述用户执行的所述一个或更多个手势包括将手的一个或更多个手指指向所述电子镜像设备的显示器上显示的选项。
11.根据权利要求1至10中任一项所述的方法,其中,所述视频馈送中由所述用户执行的所述一个或更多个手势包括将所述用户的身体部位定位在所述电子镜像设备的显示器上显示的选项的显示位置上。
12.根据权利要求1至11中任一项所述的方法,还包括:
响应于激活操作所述电子镜像设备的所述免提模式而增加所述电子镜像设备的显示器的显示属性。
13.根据权利要求12所述的方法,其中,所述显示属性包括增加所述显示器的亮度。
14.根据权利要求12至13中任一项所述的方法,其中,所述显示属性包括增加所述显示器上的一个或更多个图形元素的尺寸。
15.根据权利要求12至14中任一项所述的方法,其中,所述显示属性包括激活所述电子镜像设备的边缘周围的灯。
16.根据权利要求1至15中任一项所述的方法,其中,所述电子镜像设备包括静止设备,其中,显示器的尺寸具有大于所述用户的高度的高度,并且其中,所述摄像装置是前置摄像装置,所述前置摄像装置与所述电子镜像设备的所述显示器在相同的侧上。
17.根据权利要求1至16中任一项所述的方法,其中,所述电子镜像设备包括固定在摄像装置支架上的移动设备,并且其中,所述摄像装置是前置摄像装置,所述前置摄像装置与所述电子镜像设备的显示器在相同的侧上。
18.根据权利要求1至17中任一项所述的方法,其中,所述电子镜像设备包括眼镜设备,用户通过所述眼镜设备观看静态镜子。
19.一种系统,包括:
电子镜像设备的处理器,所述处理器被配置成执行包括以下的操作:
通过电子镜像设备捕获从所述电子镜像设备的摄像装置接收到的视频馈送,所述视频馈送描绘用户;
响应于捕获到所述视频馈送,评估用于激活操作所述电子镜像设备的免提模式的一组条件;
响应于确定满足所述一组条件,激活操作所述电子镜像设备的所述免提模式;以及
基于在所述视频馈送中检测到由所述用户执行的一个或更多个手势,在所述电子镜像设备上执行一个或更多个功能。
20.一种非暂态机器可读存储介质,所述非暂态机器可读存储介质包含指令,所述指令在由机器的一个或更多个处理器执行时使所述机器执行包括以下的操作:
通过电子镜像设备捕获从所述电子镜像设备的摄像装置接收到的视频馈送,所述视频馈送描绘用户;
响应于捕获到所述视频馈送,评估用于激活操作所述电子镜像设备的免提模式的一组条件;
响应于确定满足所述一组条件,激活操作所述电子镜像设备的所述免提模式;以及
基于在所述视频馈送中检测到由所述用户执行的一个或更多个手势在所述电子镜像设备上执行一个或更多个功能。
CN202280021518.6A 2021-03-16 2022-03-11 激活操作电子镜像设备的免提模式 Pending CN117043718A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/249,845 2021-03-16
US17/249,845 US11734959B2 (en) 2021-03-16 2021-03-16 Activating hands-free mode on mirroring device
PCT/US2022/071113 WO2022198182A1 (en) 2021-03-16 2022-03-11 Activating a hands-free mode of operating an electronic mirroring device

Publications (1)

Publication Number Publication Date
CN117043718A true CN117043718A (zh) 2023-11-10

Family

ID=80979110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280021518.6A Pending CN117043718A (zh) 2021-03-16 2022-03-11 激活操作电子镜像设备的免提模式

Country Status (5)

Country Link
US (1) US11734959B2 (zh)
EP (1) EP4309024A1 (zh)
KR (1) KR20230156408A (zh)
CN (1) CN117043718A (zh)
WO (1) WO2022198182A1 (zh)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US10775996B2 (en) 2014-11-26 2020-09-15 Snap Inc. Hybridization of voice notes and calling
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US11323398B1 (en) 2017-07-31 2022-05-03 Snap Inc. Systems, devices, and methods for progressive attachments
US11204949B1 (en) 2017-07-31 2021-12-21 Snap Inc. Systems, devices, and methods for content selection
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
EP3707693A1 (en) 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11151794B1 (en) 2019-06-28 2021-10-19 Snap Inc. Messaging system with augmented reality messages
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
KR20220062338A (ko) 2019-09-09 2022-05-16 스냅 인코포레이티드 스테레오 카메라들로부터의 손 포즈 추정
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
WO2022006249A1 (en) 2020-06-30 2022-01-06 Snap Inc. Skeletal tracking for real-time virtual effects
KR20230047480A (ko) 2020-08-13 2023-04-07 스냅 인코포레이티드 포즈 구동형 가상 효과들을 위한 사용자 인터페이스
US11671559B2 (en) 2020-09-30 2023-06-06 Snap Inc. Real time video editing
US11797162B2 (en) 2020-12-22 2023-10-24 Snap Inc. 3D painting on an eyewear device
KR20230124703A (ko) 2020-12-29 2023-08-25 스냅 인코포레이티드 증강 현실 컴포넌트들을 위한 신체 ui
WO2022147151A1 (en) 2020-12-31 2022-07-07 Snap Inc. Real-time video communication interface with haptic feedback
WO2022147449A1 (en) 2020-12-31 2022-07-07 Snap Inc. Electronic communication interface with haptic feedback response
EP4272063A1 (en) 2020-12-31 2023-11-08 Snap Inc. Media content items with haptic feedback augmentations
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
USD998637S1 (en) * 2021-03-16 2023-09-12 Snap Inc. Display screen or portion thereof with a graphical user interface
US11928306B2 (en) 2021-05-19 2024-03-12 Snap Inc. Touchpad navigation for augmented reality display device
US11880542B2 (en) 2021-05-19 2024-01-23 Snap Inc. Touchpad input for augmented reality display device
US11748958B2 (en) 2021-12-07 2023-09-05 Snap Inc. Augmented reality unboxing experience
US11960784B2 (en) 2021-12-07 2024-04-16 Snap Inc. Shared augmented reality unboxing experience
US11579747B1 (en) 2022-03-14 2023-02-14 Snap Inc. 3D user interface depth forgiveness
US11960653B2 (en) 2022-05-10 2024-04-16 Snap Inc. Controlling augmented reality effects through multi-modal human interaction
US11797099B1 (en) 2022-09-19 2023-10-24 Snap Inc. Visual and audio wake commands
US11747912B1 (en) 2022-09-22 2023-09-05 Snap Inc. Steerable camera for AR hand tracking

Family Cites Families (290)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7859551B2 (en) 1993-10-15 2010-12-28 Bulman Richard L Object customization and presentation system
US20020126161A1 (en) 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
WO1996034332A1 (fr) 1995-04-28 1996-10-31 Matsushita Electric Industrial Co., Ltd. Dispositif d'interface
US5880731A (en) 1995-12-14 1999-03-09 Microsoft Corporation Use of avatars with automatic gesturing and bounded interaction in on-line chat session
KR19990011180A (ko) 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US6067085A (en) * 1997-08-08 2000-05-23 International Business Machines Corp. Method and apparatus for displaying a cursor on a display
US6023270A (en) 1997-11-17 2000-02-08 International Business Machines Corporation Delivery of objects in a virtual world using a descriptive container
US6842779B1 (en) 1998-03-11 2005-01-11 Yasuo Nishizawa Agent accessory tool cooperating with integrated application on WEB server by HTTP protocol
US20020067362A1 (en) 1998-11-06 2002-06-06 Agostino Nocera Luciano Pasquale Method and system generating an avatar animation transform using a neutral face image
US6223165B1 (en) 1999-03-22 2001-04-24 Keen.Com, Incorporated Method and apparatus to connect consumer to expert
US6772195B1 (en) 1999-10-29 2004-08-03 Electronic Arts, Inc. Chat clusters for a virtual world application
JP2001230801A (ja) 2000-02-14 2001-08-24 Sony Corp 通信システムとその方法、通信サービスサーバおよび通信端末装置
US6922685B2 (en) 2000-05-22 2005-07-26 Mci, Inc. Method and system for managing partitioned data resources
US20050206610A1 (en) 2000-09-29 2005-09-22 Gary Gerard Cordelli Computer-"reflected" (avatar) mirror
US8117281B2 (en) 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
US6910186B2 (en) 2000-12-08 2005-06-21 Kyunam Kim Graphic chatting with organizational avatars
US7925703B2 (en) 2000-12-26 2011-04-12 Numedeon, Inc. Graphical interactive interface for immersive online communities
EP1495447A1 (en) 2002-03-26 2005-01-12 KIM, So-Woon System and method for 3-dimension simulation of glasses
KR100493525B1 (ko) 2002-05-03 2005-06-07 안현기 아바타 메일 제공시스템 및 방법
US8495503B2 (en) 2002-06-27 2013-07-23 International Business Machines Corporation Indicating the context of a communication
US7636755B2 (en) 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
US20040179037A1 (en) 2003-03-03 2004-09-16 Blattner Patrick D. Using avatars to communicate context out-of-band
US20070113181A1 (en) 2003-03-03 2007-05-17 Blattner Patrick D Using avatars to communicate real-time information
US20070168863A1 (en) 2003-03-03 2007-07-19 Aol Llc Interacting avatars in an instant messaging communication session
KR20040091331A (ko) 2003-04-21 2004-10-28 홍지선 자연어처리기술을 이용하여 입력된 문자메시지와 그 문장내용에 상응하는 아바타 표현 방법 및 시스템
KR100762629B1 (ko) 2003-08-26 2007-10-01 삼성전자주식회사 휴대단말기의 백업서비스 처리방법
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7342587B2 (en) 2004-10-12 2008-03-11 Imvu, Inc. Computer-implemented system and method for home page customization and e-commerce support
US7468729B1 (en) 2004-12-21 2008-12-23 Aol Llc, A Delaware Limited Liability Company Using an avatar to generate user profile information
US10109315B2 (en) 2005-03-01 2018-10-23 Eyesmatch Ltd Devices, systems and methods for auto-delay video presentation
US8982110B2 (en) 2005-03-01 2015-03-17 Eyesmatch Ltd Method for image transformation, augmented reality, and teleperence
KR100714192B1 (ko) 2005-04-08 2007-05-02 엔에이치엔(주) 노출 부위가 가변되는 아바타 제공 시스템 및 그 방법
US20060294465A1 (en) 2005-06-22 2006-12-28 Comverse, Inc. Method and system for creating and distributing mobile avatars
US8963926B2 (en) 2006-07-11 2015-02-24 Pandoodle Corporation User customized animated video and method for making the same
US7775885B2 (en) 2005-10-14 2010-08-17 Leviathan Entertainment, Llc Event-driven alteration of avatars
BRPI0620945B1 (pt) 2005-12-31 2018-11-27 Tencent Tech Shenzhen Co Ltd método de exibição de um avatar 3-d e sistema de exibição de um avatar 3-d
US20070176921A1 (en) 2006-01-27 2007-08-02 Koji Iwasaki System of developing urban landscape by using electronic data
US20100011422A1 (en) 2006-02-16 2010-01-14 Wee-World Limited Portable account information
EP2016562A4 (en) 2006-05-07 2010-01-06 Sony Computer Entertainment Inc METHOD FOR IMPLEMENTING AFFECTIVE PROPERTIES IN A COMPUTER GENERATED AVATAR DURING A COMPUTER GAME
WO2007134402A1 (en) 2006-05-24 2007-11-29 Mor(F) Dynamics Pty Ltd Instant messaging system
JP2008146243A (ja) 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US20080158222A1 (en) 2006-12-29 2008-07-03 Motorola, Inc. Apparatus and Methods for Selecting and Customizing Avatars for Interactive Kiosks
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US8504926B2 (en) 2007-01-17 2013-08-06 Lupus Labs Ug Model based avatars for virtual presence
GB2447094B (en) 2007-03-01 2010-03-10 Sony Comp Entertainment Europe Entertainment device and method
GB0703974D0 (en) 2007-03-01 2007-04-11 Sony Comp Entertainment Europe Entertainment device
CN101669090A (zh) 2007-04-26 2010-03-10 福特全球技术公司 情绪提示系统和方法
CN101071457B (zh) 2007-04-28 2010-05-26 腾讯科技(深圳)有限公司 一种网络游戏中改变角色形象的方法、装置以及服务器
WO2008141125A1 (en) 2007-05-10 2008-11-20 The Trustees Of Columbia University In The City Of New York Methods and systems for creating speech-enabled avatars
US8130219B2 (en) 2007-06-11 2012-03-06 Autodesk, Inc. Metadata for avatar generation in virtual environments
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
GB2450757A (en) 2007-07-06 2009-01-07 Sony Comp Entertainment Europe Avatar customisation, transmission and reception
US20090016617A1 (en) 2007-07-13 2009-01-15 Samsung Electronics Co., Ltd. Sender dependent messaging viewer
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8146005B2 (en) 2007-08-07 2012-03-27 International Business Machines Corporation Creating a customized avatar that reflects a user's distinguishable attributes
US20090055484A1 (en) 2007-08-20 2009-02-26 Thanh Vuong System and method for representation of electronic mail users using avatars
US20090070688A1 (en) 2007-09-07 2009-03-12 Motorola, Inc. Method and apparatus for managing interactions
US8924250B2 (en) 2007-09-13 2014-12-30 International Business Machines Corporation Advertising in virtual environments based on crowd statistics
WO2009046342A1 (en) 2007-10-04 2009-04-09 Playspan, Inc. Apparatus and method for virtual world item searching
US20090106672A1 (en) 2007-10-18 2009-04-23 Sony Ericsson Mobile Communications Ab Virtual world avatar activity governed by person's real life activity
US8892999B2 (en) 2007-11-30 2014-11-18 Nike, Inc. Interactive avatar for social network services
US8151191B2 (en) 2007-12-07 2012-04-03 International Business Machines Corporation Managing objectionable material in 3D immersive virtual worlds
US20090158170A1 (en) 2007-12-14 2009-06-18 Rajesh Narayanan Automatic profile-based avatar generation
US20090177976A1 (en) 2008-01-09 2009-07-09 Bokor Brian R Managing and presenting avatar mood effects in a virtual world
US8495505B2 (en) 2008-01-10 2013-07-23 International Business Machines Corporation Perspective based tagging and visualization of avatars in a virtual world
WO2009101153A2 (en) 2008-02-13 2009-08-20 Ubisoft Entertainment S.A. Live-action image capture
WO2009111472A2 (en) 2008-03-03 2009-09-11 Nike, Inc. Interactive athletic equipment system
US9744466B2 (en) 2008-03-13 2017-08-29 Mattel, Inc. Widgetized avatar and a method and system of creating and using same
US8154418B2 (en) 2008-03-31 2012-04-10 Magna Mirrors Of America, Inc. Interior rearview mirror system
US8832552B2 (en) 2008-04-03 2014-09-09 Nokia Corporation Automated selection of avatar characteristics for groups
US20090265604A1 (en) 2008-04-21 2009-10-22 Microsoft Corporation Graphical representation of social network vitality
US20090300525A1 (en) 2008-05-27 2009-12-03 Jolliff Maria Elena Romera Method and system for automatically updating avatar to indicate user's status
US20090303984A1 (en) 2008-06-09 2009-12-10 Clark Jason T System and method for private conversation in a public space of a virtual world
US20100169185A1 (en) 2008-06-18 2010-07-01 Keith Cottingham Self-Designed Maquettes Using Rapid Prototyping
US8095878B2 (en) 2008-06-23 2012-01-10 International Business Machines Corporation Method for spell check based upon target and presence of avatars within a virtual environment
US8839327B2 (en) 2008-06-25 2014-09-16 At&T Intellectual Property Ii, Lp Method and apparatus for presenting media programs
WO2010000300A1 (en) 2008-06-30 2010-01-07 Accenture Global Services Gmbh Gaming system
US20120246585A9 (en) 2008-07-14 2012-09-27 Microsoft Corporation System for editing an avatar
WO2010014633A1 (en) 2008-07-28 2010-02-04 Breakthrough Performancetech, Llc Systems and methods for computerized interactive skill training
US8384719B2 (en) 2008-08-01 2013-02-26 Microsoft Corporation Avatar items and animations
US8832201B2 (en) 2008-08-18 2014-09-09 International Business Machines Corporation Method, system and program product for providing selective enhanced privacy and control features to one or more portions of an electronic message
US8648865B2 (en) 2008-09-26 2014-02-11 International Business Machines Corporation Variable rendering of virtual universe avatars
US8108774B2 (en) 2008-09-26 2012-01-31 International Business Machines Corporation Avatar appearance transformation in a virtual universe
US8869197B2 (en) 2008-10-01 2014-10-21 At&T Intellectual Property I, Lp Presentation of an avatar in a media communication system
US8683354B2 (en) 2008-10-16 2014-03-25 At&T Intellectual Property I, L.P. System and method for distributing an avatar
US20100115426A1 (en) 2008-11-05 2010-05-06 Yahoo! Inc. Avatar environments
US8745152B2 (en) 2008-11-06 2014-06-03 Disney Enterprises, Inc. System and method for server-side avatar pre-rendering
AU2009330607B2 (en) 2008-12-04 2015-04-09 Cubic Corporation System and methods for dynamically injecting expression information into an animated facial mesh
US8458601B2 (en) 2008-12-04 2013-06-04 International Business Machines Corporation System and method for item inquiry and information presentation via standard communication paths
JP5293154B2 (ja) 2008-12-19 2013-09-18 ブラザー工業株式会社 ヘッドマウントディスプレイ
US20100162149A1 (en) 2008-12-24 2010-06-24 At&T Intellectual Property I, L.P. Systems and Methods to Provide Location Information
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US9105014B2 (en) 2009-02-03 2015-08-11 International Business Machines Corporation Interactive avatar in messaging environment
KR101558553B1 (ko) 2009-02-18 2015-10-08 삼성전자 주식회사 아바타 얼굴 표정 제어장치
US20100227682A1 (en) 2009-03-04 2010-09-09 Microsoft Corporation Awarding of avatar items in video game environment
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8176442B2 (en) 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US20110093780A1 (en) 2009-10-16 2011-04-21 Microsoft Corporation Advertising avatar
US20140171036A1 (en) 2009-11-18 2014-06-19 Gwendolyn Simmons Method of communication
US8487888B2 (en) 2009-12-04 2013-07-16 Microsoft Corporation Multi-modal interaction on multi-touch display
KR20110070056A (ko) 2009-12-18 2011-06-24 한국전자통신연구원 사용자 맞춤형 고품질 3d 아바타 생성 방법 및 그 장치
TWI434227B (zh) 2009-12-29 2014-04-11 Ind Tech Res Inst 動畫產生系統及方法
US8484158B2 (en) 2010-02-01 2013-07-09 International Business Machines Corporation Managing information about avatars across virtual worlds
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US20110239136A1 (en) 2010-03-10 2011-09-29 Oddmobb, Inc. Instantiating widgets into a virtual social venue
US9086776B2 (en) 2010-03-29 2015-07-21 Microsoft Technology Licensing, Llc Modifying avatar attributes
TWI439960B (zh) 2010-04-07 2014-06-01 Apple Inc 虛擬使用者編輯環境
US8692830B2 (en) 2010-06-01 2014-04-08 Apple Inc. Automatic avatar creation
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US10332176B2 (en) * 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
US8564621B2 (en) 2010-08-11 2013-10-22 International Business Machines Corporation Replicating changes between corresponding objects
JP2012065263A (ja) 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
KR101514327B1 (ko) 2010-11-04 2015-04-22 한국전자통신연구원 얼굴 아바타 생성 장치 및 방법
US20120124458A1 (en) 2010-11-17 2012-05-17 Nazareno Brier Cruzada Social networking website & web-based system for collecting & presenting real-time user generated information on parties & events.
US20120130717A1 (en) 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
KR20120059994A (ko) 2010-12-01 2012-06-11 삼성전자주식회사 표정 제어점을 이용한 아바타 제어 장치 및 방법
KR101445263B1 (ko) 2010-12-22 2014-09-30 주식회사 케이티 맞춤형 콘텐츠 제공 시스템 및 방법
KR101795574B1 (ko) 2011-01-06 2017-11-13 삼성전자주식회사 모션에 의해 제어되는 전자기기 및 그 제어 방법
US8723789B1 (en) 2011-02-11 2014-05-13 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US9839844B2 (en) 2011-03-01 2017-12-12 Disney Enterprises, Inc. Sprite strip renderer
WO2012126135A1 (en) 2011-03-21 2012-09-27 Intel Corporation Method of augmented makeover with 3d face modeling and landmark alignment
US20130103760A1 (en) 2011-04-11 2013-04-25 Robert K. Golding Location-sensitive virtual identity system, apparatus, method and computer-readable medium
US9330483B2 (en) 2011-04-11 2016-05-03 Intel Corporation Avatar facial expression techniques
US8989786B2 (en) 2011-04-21 2015-03-24 Walking Thumbs, Llc System and method for graphical expression during text messaging communications
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US9241184B2 (en) 2011-06-01 2016-01-19 At&T Intellectual Property I, L.P. Clothing visualization
KR101608253B1 (ko) 2011-08-09 2016-04-01 인텔 코포레이션 이미지 기반 멀티 뷰 3d 얼굴 생성
KR20130022434A (ko) 2011-08-22 2013-03-07 (주)아이디피쉬 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
US20130249948A1 (en) 2011-08-26 2013-09-26 Reincloud Corporation Providing interactive travel content at a display device
US8559980B2 (en) 2011-09-02 2013-10-15 John J. Pujol Method and system for integrated messaging and location services
US8890926B2 (en) 2011-11-02 2014-11-18 Microsoft Corporation Automatic identification and representation of most relevant people in meetings
US9782680B2 (en) 2011-12-09 2017-10-10 Futurewei Technologies, Inc. Persistent customized social media environment
US9110502B2 (en) 2011-12-16 2015-08-18 Ryan Fink Motion sensing display apparatuses
US9398262B2 (en) 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
US20140032331A1 (en) 2012-01-13 2014-01-30 Le Metier De Beaute Method for interacting with customers at a point of sale for goods or services
US8810513B2 (en) 2012-02-02 2014-08-19 Kodak Alaris Inc. Method for controlling interactive display system
US9215395B2 (en) 2012-03-15 2015-12-15 Ronaldo Luiz Lisboa Herdy Apparatus, system, and method for providing social content
US10702773B2 (en) 2012-03-30 2020-07-07 Videx, Inc. Systems and methods for providing an interactive avatar
US9402057B2 (en) 2012-04-02 2016-07-26 Argela Yazilim ve Bilisim Teknolojileri San. ve Tic. A.S. Interactive avatars for telecommunication systems
US9357174B2 (en) 2012-04-09 2016-05-31 Intel Corporation System and method for avatar management and selection
WO2013166588A1 (en) 2012-05-08 2013-11-14 Bitstrips Inc. System and method for adaptable avatars
JP5497931B2 (ja) 2012-05-30 2014-05-21 株式会社コナミデジタルエンタテインメント アプリケーション装置、アプリケーション装置の制御方法、及びプログラム
US20150370320A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Smart Clothing with Human-to-Computer Textile Interface
AU2013206649A1 (en) 2012-07-05 2014-01-23 Aristocrat Technologies Australia Pty Limited A gaming system and a method of gaming
US20140125678A1 (en) 2012-07-11 2014-05-08 GeriJoy Inc. Virtual Companion
US9514570B2 (en) 2012-07-26 2016-12-06 Qualcomm Incorporated Augmentation of tangible objects as user interface controller
US9898742B2 (en) 2012-08-03 2018-02-20 Ebay Inc. Virtual dressing room
US10116598B2 (en) 2012-08-15 2018-10-30 Imvu, Inc. System and method for increasing clarity and expressiveness in network communications
WO2014031899A1 (en) 2012-08-22 2014-02-27 Goldrun Corporation Augmented reality virtual content platform apparatuses, methods and systems
US20140055633A1 (en) 2012-08-27 2014-02-27 Richard E. MARLIN Device and method for photo and video capture
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
US9461876B2 (en) 2012-08-29 2016-10-04 Loci System and method for fuzzy concept mapping, voting ontology crowd sourcing, and technology prediction
WO2014036708A1 (en) 2012-09-06 2014-03-13 Intel Corporation System and method for avatar creation and synchronization
US9314692B2 (en) 2012-09-21 2016-04-19 Luxand, Inc. Method of creating avatar from user submitted image
KR102035134B1 (ko) 2012-09-24 2019-10-22 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US9746990B2 (en) 2012-09-28 2017-08-29 Intel Corporation Selectively augmenting communications transmitted by a communication device
US9501942B2 (en) 2012-10-09 2016-11-22 Kc Holdings I Personalized avatar responsive to user physical state and context
WO2014064506A2 (en) 2012-10-22 2014-05-01 Sony Corporation User interface with location mapping
US20140129343A1 (en) 2012-11-08 2014-05-08 Microsoft Corporation Dynamic targeted advertising avatar
US9256860B2 (en) 2012-12-07 2016-02-09 International Business Machines Corporation Tracking participation in a shared media session
CN103049761B (zh) 2013-01-21 2016-08-03 中国地质大学(武汉) 基于手语手套的手语识别方法及系统
US9990373B2 (en) 2013-02-06 2018-06-05 John A. Fortkort Creation and geospatial placement of avatars based on real-world interactions
JP6195893B2 (ja) 2013-02-19 2017-09-13 ミラマ サービス インク 形状認識装置、形状認識プログラム、および形状認識方法
EP2976749A4 (en) 2013-03-20 2016-10-26 Intel Corp AVATAR-BASED TRANSMISSION PROTOCOLS, SYMBOL GENERATION AND PUPPET ANIMATION
WO2014153689A1 (en) 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
CN104102335B (zh) 2013-04-15 2018-10-02 中兴通讯股份有限公司 一种手势控制方法、装置和系统
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
WO2014194439A1 (en) 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
US9378576B2 (en) 2013-06-07 2016-06-28 Faceshift Ag Online modeling for real-time facial animation
US20140380249A1 (en) 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
US10533850B2 (en) 2013-07-12 2020-01-14 Magic Leap, Inc. Method and system for inserting recognized object data into a virtual world
US9177410B2 (en) 2013-08-09 2015-11-03 Ayla Mandel System and method for creating avatars or animated sequences using human body features extracted from a still image
US20150193111A1 (en) 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
US9558756B2 (en) 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
US9706040B2 (en) 2013-10-31 2017-07-11 Udayakumar Kadirvel System and method for facilitating communication via interaction with an avatar
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
US20150123890A1 (en) 2013-11-04 2015-05-07 Microsoft Corporation Two hand natural user input
WO2015070416A1 (en) 2013-11-14 2015-05-21 Intel Corporation Mechanism for facilitating dynamic simulation of avatars corresponding to changing user performances as detected at computing devices
US9361510B2 (en) 2013-12-13 2016-06-07 Intel Corporation Efficient facial landmark tracking using online shape regression method
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US9977572B2 (en) 2014-04-01 2018-05-22 Hallmark Cards, Incorporated Augmented reality appearance enhancement
US9544257B2 (en) 2014-04-04 2017-01-10 Blackberry Limited System and method for conducting private messaging
US9503845B2 (en) 2014-04-17 2016-11-22 Paypal, Inc. Image customization to enhance transaction experience
US20170080346A1 (en) 2014-05-01 2017-03-23 Mohamad Abbas Methods and systems relating to personalized evolving avatars
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US20160134840A1 (en) 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
US10366447B2 (en) 2014-08-30 2019-07-30 Ebay Inc. Providing a virtual shopping environment for an item
US10723267B2 (en) 2014-09-19 2020-07-28 Be Topnotch, Llc Display rear passenger view on a display screen in vehicle
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
CN107004287B (zh) 2014-11-05 2020-10-23 英特尔公司 化身视频装置和方法
CN107077750A (zh) 2014-12-11 2017-08-18 英特尔公司 化身选择机制
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
JP6462386B2 (ja) 2015-02-05 2019-01-30 任天堂株式会社 プログラム、通信端末及び表示方法
US10109219B2 (en) 2015-04-16 2018-10-23 Robert Bosch Gmbh System and method for automated sign language recognition
US20180292907A1 (en) 2015-05-28 2018-10-11 Itay Katz Gesture control system and method for smart home
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US20170087473A1 (en) 2015-09-29 2017-03-30 Sportsworld, Inc. Virtual environments for managing and interacting with virtual sports leagues
US20170118145A1 (en) 2015-10-21 2017-04-27 Futurefly Ltd. Method of using emoji to control and enrich 3d chat environments
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
US20170199855A1 (en) 2016-01-11 2017-07-13 BuilderFish, LLC System and method for providing a time-based presentation of a user-navigable project model
JP6952713B2 (ja) 2016-01-19 2021-10-20 マジック リープ, インコーポレイテッドMagic Leap,Inc. 反射を利用する拡張現実システムおよび方法
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
US9911073B1 (en) 2016-03-18 2018-03-06 Snap Inc. Facial patterns for optical barcodes
JP2017174300A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置、情報処理方法およびプログラム
US9965467B2 (en) 2016-03-28 2018-05-08 Avaya Inc. Sign language communication with communication devices
US9933855B2 (en) 2016-03-31 2018-04-03 Intel Corporation Augmented reality in a field of view including a reflection
KR102279063B1 (ko) * 2016-03-31 2021-07-20 삼성전자주식회사 이미지 합성 방법 및 그 전자장치
US20170312634A1 (en) 2016-04-28 2017-11-02 Uraniom System and method for personalized avatar generation, especially for computer games
US11112963B2 (en) 2016-05-18 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for messaging
US10628664B2 (en) 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
CN109313291A (zh) * 2016-06-30 2019-02-05 惠普发展公司,有限责任合伙企业 智能镜件
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US10657701B2 (en) 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US10573048B2 (en) 2016-07-25 2020-02-25 Oath Inc. Emotional reaction sharing
US20180047200A1 (en) 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars
KR102596477B1 (ko) 2016-09-23 2023-11-02 애플 인크. 아바타 생성 및 편집
US10536691B2 (en) 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
US10432559B2 (en) 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US10446059B2 (en) 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
US10242503B2 (en) 2017-01-09 2019-03-26 Snap Inc. Surface aware lens
US10242477B1 (en) 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10052026B1 (en) 2017-03-06 2018-08-21 Bao Tran Smart mirror
US11893647B2 (en) 2017-04-27 2024-02-06 Snap Inc. Location-based virtual avatars
US10949872B2 (en) 2017-04-28 2021-03-16 Snap Inc. Methods and systems for server generation of interactive advertising with content collections
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US9980100B1 (en) 2017-08-31 2018-05-22 Snap Inc. Device location based on machine learning classifications
WO2019079790A1 (en) 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
US10657695B2 (en) 2017-10-30 2020-05-19 Snap Inc. Animated chat presence
EP3707693A1 (en) 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
EP3735684A2 (en) 2018-01-06 2020-11-11 CareOS Smart mirror system and methods of use thereof
US10962809B1 (en) 2018-01-10 2021-03-30 Snap Inc. Eyewear device with finger activated touch sensor
US11092998B1 (en) 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
US10546429B2 (en) 2018-02-14 2020-01-28 Adobe Inc. Augmented reality mirror system
DK180078B1 (en) 2018-05-07 2020-03-31 Apple Inc. USER INTERFACE FOR AVATAR CREATION
US11227626B1 (en) 2018-05-21 2022-01-18 Snap Inc. Audio response messages
US10606364B2 (en) 2018-06-14 2020-03-31 Dell Products, L.P. Two-handed gesture sequences in virtual, augmented, and mixed reality (xR) applications
US10712901B2 (en) 2018-06-27 2020-07-14 Facebook Technologies, Llc Gesture-based content sharing in artificial reality environments
US10996846B2 (en) 2018-09-28 2021-05-04 Snap Inc. Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US11714543B2 (en) 2018-10-01 2023-08-01 T1V, Inc. Simultaneous gesture and touch control on a display
US11205086B2 (en) 2018-11-13 2021-12-21 Nvidia Corporation Determining associations between objects and persons using machine learning models
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
WO2020152701A1 (en) 2019-01-21 2020-07-30 Eshakti.Com Pvt Ltd Apparel visualization system and method thereof
US10885322B2 (en) 2019-01-31 2021-01-05 Huawei Technologies Co., Ltd. Hand-over-face input sensing for interaction with a device having a built-in camera
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11819108B2 (en) * 2019-05-06 2023-11-21 CareOS Smart mirror system and methods of use thereof
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11003307B1 (en) 2019-06-07 2021-05-11 Facebook Technologies, Llc Artificial reality systems with drawer simulation gesture for gating user interface elements
US20200387214A1 (en) 2019-06-07 2020-12-10 Facebook Technologies, Llc Artificial reality system having a self-haptic virtual keyboard
US11055920B1 (en) * 2019-06-27 2021-07-06 Facebook Technologies, Llc Performing operations using a mirror in an artificial reality environment
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
KR20210023397A (ko) * 2019-08-23 2021-03-04 엘지전자 주식회사 멀티미디어 디바이스 및 그 제어 방법
KR20220062338A (ko) 2019-09-09 2022-05-16 스냅 인코포레이티드 스테레오 카메라들로부터의 손 포즈 추정
US11169600B1 (en) 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11087728B1 (en) 2019-12-21 2021-08-10 Snap Inc. Computer vision and mapping for audio applications
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11488358B2 (en) 2020-02-05 2022-11-01 Snap Inc. Augmented reality session creation using skeleton tracking
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
PL4126483T3 (pl) 2020-03-26 2024-02-19 Gerber Technology Llc Urządzenie napinacza arkusza warstwy pokryciowej
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US11995774B2 (en) 2020-06-29 2024-05-28 Snap Inc. Augmented reality experiences using speech and text captions
US20210405761A1 (en) 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
CN114237777A (zh) 2020-09-09 2022-03-25 乔山健身器材(上海)有限公司 线上运动的动态领先榜与动态评等系统及显示介面
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
EP4264401A1 (en) 2020-12-16 2023-10-25 Snap, Inc. Eyewear including sign language to speech translation
EP4272064A1 (en) 2020-12-29 2023-11-08 Snap, Inc. Micro hand gestures for controlling virtual and graphical elements
US20220261066A1 (en) * 2021-02-15 2022-08-18 Apple Inc. Systems, Methods, and Graphical User Interfaces for Automatic Measurement in Augmented Reality Environments
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11809633B2 (en) 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US20220326781A1 (en) 2021-04-08 2022-10-13 Snap Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
WO2022225761A1 (en) 2021-04-19 2022-10-27 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements
KR20240009999A (ko) 2021-05-19 2024-01-23 스냅 인코포레이티드 웨어러블 디바이스들에 대한 로컬라이제이션 및 콘텐츠 전달을 위한 비컨들
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures

Also Published As

Publication number Publication date
US20220300731A1 (en) 2022-09-22
KR20230156408A (ko) 2023-11-14
EP4309024A1 (en) 2024-01-24
US11734959B2 (en) 2023-08-22
WO2022198182A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
US11734959B2 (en) Activating hands-free mode on mirroring device
US11908243B2 (en) Menu hierarchy navigation on electronic mirroring devices
US11798201B2 (en) Mirroring device with whole-body outfits
US11978283B2 (en) Mirroring device with a hands-free mode
US11809633B2 (en) Mirroring device with pointing based navigation
US20220197393A1 (en) Gesture control on an eyewear device
US11797162B2 (en) 3D painting on an eyewear device
US20220198603A1 (en) Recentering ar/vr content on an eyewear device
US20220197027A1 (en) Conversation interface on an eyewear device
CN116745743A (zh) 具有触觉反馈响应的通信界面
KR20230118687A (ko) 안경류 디바이스 상의 ar/vr 콘텐츠를 리센터링함
KR20230119005A (ko) 안경류 디바이스 상의 제스처 제어
CN116685941A (zh) 具有触觉反馈增强的媒体内容项
WO2022140113A1 (en) Conversation interface on an eyewear device
WO2022140117A1 (en) 3d painting on an eyewear device
CN116670635A (zh) 具有触觉反馈的实时视频通信界面
CN116710885A (zh) 具有触觉反馈响应的通信界面
CN117157609A (zh) 具有触觉反馈响应的虚拟现实界面
CN116648687A (zh) 具有触觉反馈响应的电子通信界面
CN117120959A (zh) 具有触觉反馈响应和音频反馈响应的界面
US20240077936A1 (en) Selecting ar buttons on a hand
US20240050856A1 (en) External controller for an eyewear device
CN116802590A (zh) 将ar/vr内容重居中在眼镜设备上
CN116724286A (zh) 眼镜设备上的姿势控制
CN116670632A (zh) 眼镜设备上的媒体内容播放器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination