CN116685941A - 具有触觉反馈增强的媒体内容项 - Google Patents

具有触觉反馈增强的媒体内容项 Download PDF

Info

Publication number
CN116685941A
CN116685941A CN202180088094.0A CN202180088094A CN116685941A CN 116685941 A CN116685941 A CN 116685941A CN 202180088094 A CN202180088094 A CN 202180088094A CN 116685941 A CN116685941 A CN 116685941A
Authority
CN
China
Prior art keywords
client device
haptic
media content
content item
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180088094.0A
Other languages
English (en)
Inventor
亚历山大·P·鲍威尔
马克·托马斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN116685941A publication Critical patent/CN116685941A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

使用触觉增强生成触觉反馈响应的方法开始于处理器从第一客户设备接收媒体内容项并从第一客户设备接收对与要应用于媒体内容项的触觉反馈响应相关联的触觉覆盖的选择。处理器通过在媒体内容项上叠加触觉覆盖来生成修改的媒体内容项。处理器从第一客户端设备接收与第二用户相关联的第二用户的选择,并使修改的媒体内容项由第二客户端设备的第二用户界面显示。处理器检测来自第二客户端设备的对触觉覆盖的选择,并且响应于检测到对触觉覆盖的选择,使第二用户界面产生触觉反馈响应。本文还描述了其他实施方式。

Description

具有触觉反馈增强的媒体内容项
相关申请的交叉引用
本申请要求于2020年12月31日提交的序列号为63/133,054的美国临时申请的优先权权益,该美国临时申请以其全部内容通过引用并入本文。
背景技术
消费类电子设备通常适于捕获图像、音频和视频内容。用户使用消费类电子设备能够经由文本信息、即时消息收发、音频通话、视频通话等进行相互交流。用户还使用消费类电子设备和消息收发应用来分享媒体内容项(例如,图片和视频),这反映了对更直观地通信的全球需求。
随着社交网络系统数量的增加,每个社交网络系统都面临着提供吸引用户注意力并提供新颖和吸引人的通信功能的用户界面的挑战。
附图说明
在附图(其不一定按比例绘制)中,相同的附图标记可以在不同的视图中描述类似的部件。为了容易标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时所在的图号。一些非限制性示例在附图的图中示出,在附图中:
图1是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5示出了根据一些示例的其中可以实现具有触觉反馈增强的媒体内容项的系统500。
图6示出了根据一个示例性实施方式的系统500中的客户端设备102的细节。
图7示出了根据一个示例性实施方式的作为头戴式设备700的客户端设备102的细节。
图8A示出了根据一个示例性实施方式的第一客户端设备102的编辑界面802的示例。
图8B示出了根据一个示例性实施方式的第一客户端设备102的增强界面808的示例。
图8C示出了根据一个示例性实施方式的第一客户端设备102的编辑界面802的示例。
图8D示出了根据一个示例性实施方式的接收客户端设备102的查看界面816的示例。
图9示出了根据一个示例性实施方式的接收客户端设备102的编辑界面802的示例。
图10是根据一些示例的用于在通信界面上产生触觉反馈响应的过程1000的流程图。
图11是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文中讨论的方法中的任何一种或更多种方法。
图12是示出可以在其中实现示例的软件架构的框图。
图13示出了根据一个示例性实施方式的其中可以实现头戴式设备700的系统1300。
具体实施方式
当在消息收发系统上进行通信时,用户能够彼此呼叫并建立语音呼叫或视频呼叫。经由消息收发系统,用户还能够分享媒体内容项,如音频、视频和图片。然而,对用户来说,在消息收发系统上或使用客户端设备的通信显然不类似于面对面的通信。
本公开内容的实施方式通过将触知或触觉功能加入到消息收发系统的通信界面中来改进消息收发系统的功能。通过将触摸的感觉添加到用户在消息收发系统上的通信中,本公开内容的实施方式更接近于提供面对面的通信体验,并进一步允许用户与他在消息收发系统上的联系人更深入地接触。
网络化计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,每个实例托管包括消息收发客户端104和其他应用106的若干应用。在一些示例中,客户端设备102包括用户界面(例如,显示设备、触摸屏等),如本文所讨论的,该界面基于接收到的触摸输入产生触觉反馈响应。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至消息收发客户端104(例如,托管在相应的其他客户端设备102上)、消息收发服务器系统108和第三方服务器110的其他实例。消息收发客户端104还可以使用应用程序接口(API)与本地托管的应用106通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能的位置是在消息收发客户端104内还是在消息收发服务器系统108内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和叠加、消息内容持久性条件、社交网络信息以及实况事件信息。通过经由消息收发客户端104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器112提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),所述一组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。应用程序接口(API)服务器116公开应用服务器114所支持的各种功能,包括:账户注册;登录功能;经由应用服务器114从特定消息收发客户端104向另一消息收发客户端104发送消息,从消息收发客户端104向消息收发服务器118发送媒体文件(例如,图像或视频),以及供另一消息收发客户端104的可能访问;设置媒体数据的集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;对实体图(例如,社交图)添加和删除实体(例如,朋友);定位社交图内的朋友;以及打开应用(例如,与消息收发客户端104有关的)事件。
应用服务器114托管多个服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122以及社交网络服务器124。消息收发服务器118实现多个消息处理技术和功能,特别地涉及对从消息收发客户端104的多个实例接收的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库)。然后,使这些集合对消息收发客户端104可用。鉴于对数据的其他处理器和存储器密集处理的硬件要求,也可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,图像处理服务器122专用于通常针对从消息收发服务器118发送或在消息收发服务器118处接收的消息的有效载荷内的图像或视频执行各种图像处理操作。
社交网络服务器124支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护并访问数据库126内的实体图308(如图3所示)。社交网络服务器124所支持的功能和服务的示例包括标识消息收发系统100中与特定用户有关系或该特定用户正“关注”的其他用户,并且还包括标识特定用户的兴趣和其他实体。
返回到消息收发客户端104,外部资源(例如,应用106或小应用)的特征和功能经由消息收发客户端104的接口对用户可用。在该上下文中,“外部”是指应用106或小应用在消息收发客户端104外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端104的创建者或提供者提供。消息收发客户端104接收对启动或访问这样的外部资源的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的应用106(例如,“本地app”)、或者托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的应用的小规模版本(例如,“小应用”)。应用的小规模版本包括应用的特征和功能的子集(例如,应用的全规模、原生版本),并且使用标记语言文档来实现。在一个示例中,应用的小规模版本(例如,“小应用”)是应用的基于web的标记语言版本,并且嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小应用可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源的特征的选项的用户选择,消息收发客户端104确定选择的外部资源是基于web的外部资源还是本地安装的应用106。在一些情况下,本地安装在客户端设备102上的应用106可以独立于消息收发客户端104并且与消息收发客户端104分开启动,例如通过在客户端设备102的主页屏幕上选择与应用106对应的图标。可以经由消息收发客户端104启动或访问这样的应用的小规模版本,并且在一些示例中,小规模应用的任何部分都不能(或者有限部分才能)在消息收发客户端104之外被访问。可以通过消息收发客户端104例如从第三方服务器110接收与小规模应用相关联的标记语言文档并处理这样的文档来启动小规模应用。
响应于确定外部资源是本地安装的应用106,消息收发客户端104指示客户端设备102通过执行与外部资源对应的本地存储的代码来启动外部资源。响应于确定外部资源是基于web的资源,消息收发客户端104(例如)与第三方服务器110通信以获得与选择的外部资源对应的标记语言文档。消息收发客户端104然后处理获得的标记语言文档以在消息收发客户端104的用户界面内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动(在该组朋友中)最近使用过但当前不活动的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端104的参与者提供与一组用户中的一个或更多个成员将外部资源中的项、状态、状况或位置共享到聊天会话中的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以启动对应的外部资源,查看外部资源内的特定信息,或将聊天的成员带到外部资源内的特定位置或状态。在给定的外部资源内,可以在消息收发客户端104上向用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端104可以向用户呈现可用外部资源(例如,应用106或小应用)的列表以启动或访问给定的外部资源。该列表可以呈现在上下文敏感菜单中。例如,表示不同的应用106(或小应用)的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器114。消息收发系统100包含多个子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、以及外部资源系统214。
短暂定时器系统202负责实施消息收发客户端104和消息收发服务器118对内容的临时或时间受限访问。短暂定时器系统202并入了多个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的集和集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件图库”或“事件故事”。可以使这样的集合在指定时间段例如在与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括使得集合管理器能够管理和策展特定内容集合的策展接口206。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容的集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地为使用这样的用户的内容而向其进行支付。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布用于由消息收发系统100处理的消息的媒体叠加有关的功能。增强系统208基于客户端设备102的地理定位可操作地向消息收发客户端104提供媒体叠加或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104提供媒体叠加。媒体叠加可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色叠加。音频和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体叠加可以包括可以叠加在由客户端设备102拍摄的照片之上的文本或图像。在另一示例中,媒体叠加包括定位标识叠加(例如,威尼斯海滩)、实况事件名称或商家名称叠加(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理定位来标识包括客户端设备102的地理定位处的商家名称的媒体叠加。媒体叠加可以包括与商家相关联的其他标记。媒体叠加可以被存储在数据库126中并通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位,并且上传与选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体叠加的环境。增强系统208生成包括上传的内容的媒体叠加并且将上传的内容与选择的地理定位相关联。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程来选择与地理定位相关联的特定媒体叠加。例如,增强系统208将最高出价商家的媒体叠加与对应地理定位相关联达预定义时间量。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文中指示用户的“朋友”的当前定位或过去定位以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在消息收发客户端104的地图界面上将用户从特定地理定位发布到消息收发系统100的消息在地图的该特定定位的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状态化身)共享他或她的定位和状态信息,其中,该定位和状态信息在消息收发客户端104的地图界面的上下文内被类似地显示给选择的用户。
游戏系统212在消息收发客户端104的上下文内提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可由用户在消息收发客户端104的上下文内启动并与消息收发系统100的其他用户玩的可用游戏的列表。消息收发系统100还使特定的用户能够通过从消息收发客户端104向其他用户发出邀请而邀请这样的其他用户参与特定游戏的玩法。消息收发客户端104还支持在游戏的上下文内的语音和文本消息收发(例如,聊天)二者,提供游戏排行榜,并且还支持提供游戏中的奖励(例如,硬币和物品)。
外部资源系统214为消息收发客户端104提供接口以与远程服务器(例如,第三方服务器110)通信以启动或访问外部资源(即,应用或小应用)。每个第三方服务器110例如托管基于标记语言(例如,HTML5)的应用或应用的小规模版本(例如,游戏应用、实用程序应用、支付应用或乘坐共享应用)。消息收发客户端104可以通过从与基于web的资源相关联的第三方服务器110访问HTML5文件来启动基于web的资源(例如,应用)。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由第三方服务器110托管的应用进行编程。SDK包括应用程序接口(API),该API具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavasScript库,该库提供对消息收发客户端104的某些用户数据的给定外部资源访问。HTML5被用作用于编程游戏的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由第三方服务器110从消息收发服务器118下载,或者由第三方服务器110以其他方式接收。一旦被下载或接收,SDK被包括作为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供外部资源(例如,应用106或小应用)与消息收发客户端104之间的桥接。这为用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK有助于第三方服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信信道。消息经由这些通信信道在外部资源与消息收发客户端104之间异步发送。每个SDK函数调用作为消息和回调发送。通过构造唯一的回调标识符并且发送具有该回调标识符的消息来实现每个SDK函数。
通过使用SDK,并非来自消息收发客户端104的所有信息都与第三方服务器110共享。SDK基于外部资源的需要来限制共享哪些信息。在某些示例中,每个第三方服务器110向消息收发服务器118提供与基于web的外部资源对应的HTML5文件。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(诸如盒设计或其他图形)。一旦用户选择了视觉表示或通过消息收发客户端104的GUI指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104获得HTML5文件并且对访问基于web的外部资源的特征所需的资源进行实例化。
消息收发客户端104呈现用于外部资源的图形用户界面(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,消息收发客户端104确定启动的外部资源是否先前已被授权访问消息收发客户端104的用户数据。响应于确定启动的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的另一图形用户界面,其包括外部资源的功能和特征。响应于确定启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现到画面中部或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,消息收发客户端104将外部资源添加至授权的外部资源的列表,并且使得外部资源能够访问来自消息收发客户端104的用户数据。在一些示例中,外部资源由消息收发客户端104根据OAuth 2框架授权访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模应用(例如,应用106)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问。作为另一示例,向包括应用的小规模版本(例如,应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身、以及具有各种化身特性的化身)的访问。化身特性包括定制化身的外观和感觉(例如,不同姿势、面部特征、服装等)的不同方式。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括多个表,但是将认识到,可以以其他类型的数据结构来存储数据(例如,存储为面向对象的数据库)。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接至实体图308和简档数据316。针对其的记录被维护在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或者基于活动的社交关系、职业关系(例如,在共同的公司或组织工作)。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容内以及由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间传送的状态或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员以及针对相关团体的各种设置(例如,通知)之外,针对团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如叠加或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且被应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为叠加在图像或视频上的叠加。过滤器可以是各种类型,包括当发送用户正在编写消息时来自由消息收发客户端104呈现给发送用户的一组过滤器的用户选择的过滤器。其他类型的过滤器包括地理定位过滤器(也称为地理过滤器),其可以基于地理定位被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理定位信息,由消息收发客户端104在用户界面内呈现特定于附近或特殊定位的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定定位处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、叠加、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似术语。这包括实时修改,其在图像被使用客户端设备102的设备传感器(例如,一个或多个摄像装置)进行捕获时并且然后在修改的情况下在客户端设备102的屏幕上显示时对图像进行修改。这还包括对存储的内容(例如,图库中可以被修改的视频剪辑)的修改。例如,在访问多个增强现实内容项的客户端设备102中,用户可以将单个视频剪辑与多个增强现实内容项一起使用来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过针对同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,可以将实时视频捕获与示出的修改一起使用,以示出客户端设备102的传感器当前正捕获的视频图像将如何修改捕获的数据。这样的数据可以仅显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并存储在存储器中。在一些系统中,预览特征可以同时显示不同的增强现实内容项将在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的数据和各种系统或使用这些数据来修改内容的其他这样的变换系统可以涉及:视频帧中各对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这样的对象的跟踪,以及在跟踪这样的对象时对这样的对象的修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在跟踪的位置处。在另外的示例中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既涉及用于在内容中创建变换的图像、模型和纹理,又涉及利用对象检测、跟踪和放置来实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。另外,可以使用计算机动画模型来处理任何对象,例如人的面部和人体的各部位、动物或非生物(例如,椅子、汽车或其他对象)。
在一些示例中,当连同要变换的内容一起选择特定修改时,由计算设备标识要变换的元素,并且然后如果要变换的元素存在于视频的帧中,则检测并跟踪要变换的元素。根据修改请求来修改对象的元素,因此变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要涉及改变对象的元素的形式的帧变换,计算对象的每个元素的特性点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特性点的网格。该网格被用于在视频流中跟踪对象的各元素的后续阶段。在跟踪过程中,所提及的针对每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点以及修改请求针对每个元素生成一组第二点。然后,可以通过基于一组第一点、一组第二点和网格修改对象的元素来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来使修改的对象的背景改变或发生扭曲。
在一些示例中,可以通过计算对象的每个元素的特性点并基于计算的特性点生成网格来执行使用对象的元素改变对象的某些区域的变换。在网格上生成点,并且然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,因此对视频流的帧进行变换。取决于具体的修改请求,可以以不同的方式来变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其发生扭曲。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特性点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,利用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适用于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可标识(例如,如果人具有眼罩),则可以使用次级界标。这样的界标标识过程可以被用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。利用使形状点之间的平均欧几里德距离最小化的相似变换(允许平移、缩放和旋转)将一个形状与另一形状对准。均值形状(meanshape)是经对准的训练形状的均值。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的均值形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配对形状点的定位进行调整来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单独模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每一级处重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功率消耗。复杂的图像操纵可以包括大小和形状改变、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减小表观年龄、改变性别)、风格转换、图形元素应用以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在该系统中,用户可以使用具有作为在客户端设备102上操作的消息收发客户端104的一部分而操作的神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍)。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换数据图像,或者计算机动画模型可以与本文中描述的界面相关联地存在。修改图标包括下述改变:该改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映选择的修改图标(例如,在用户上生成笑脸)的处理。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用选择的修改。即,用户可以捕获图像或视频流并且一旦修改图标被选择,修改结果就被实时或接近实时地呈现给用户。此外,当正在捕获视频流时,修改可以是持久的,并且选择的修改图标保持被切换。机器教导的神经网络可以被用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以向用户提供附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的选择和内容捕获的界面(例如,从内容创建者用户界面发起)。在各种示例中,在对修改图标进行初始选择之后,修改可以是持久的。用户可以通过轻击或以其他方式选择正由变换系统修改的面部来开启或关闭修改,并将其存储以供稍后查看或浏览到成像应用的其他区域。在通过变换系统修改多个面部的情况下,用户可以通过轻击或选择图形用户界面内修改和显示的单个面部来全局地开启或关闭修改。在一些示例中,可以单独地修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户界面内显示的各个面部或一系列各个面部来单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,针对其的记录被维护在实体表306中的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。可以例如经由消息收发客户端104的用户界面向其客户端设备启用了定位服务并且在特定时间处于共同定位事件处的用户呈现将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的定位向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另一种类型的内容集合被称为“定位故事”,该“定位故事”使得其客户端设备102位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对定位故事的贡献可能需要二级认证来验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与针对其的记录被维护在消息表302内的消息相关联。类似地,图像表312存储与其消息数据被存储在实体表306中的消息相关联的图像数据。实体表306可以将来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,该消息400由消息收发客户端104生成,以传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容被用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备102的摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获或从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、标贴或其他注解或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)要经由消息收发客户端104呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以被包括在有效载荷中,这些参数值中的每一个与内容中包括的内容项(例如,消息图像有效载荷406内的特定图像或者消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像有效载荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每一个指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向表中存储有内容数据值的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
具有触觉反馈响应的通信界面
图5示出了根据一些示例的其中可以实现具有触觉响应的通信界面的系统500。
如图5所示,系统500可以包括多个客户端设备102。客户端设备102中的每一个包括用户界面(例如,显示设备或触摸屏)以接收来自用户的触摸输入。虽然没有示出,但系统500也可以包括服务器(例如,图1中的消息收发服务器系统108)。
图6示出了根据一个示例性实施方式的系统500中的客户端设备102中的一个的细节。可以理解,系统500中的客户端设备102可以包括在图6中示出的类似元素。客户端设备102可以是如图11中示出的机器1100。
如图6所示,客户端设备102包括壳体604、具有摄像装置开口的摄像装置602、麦克风606和显示设备608。虽然在图6中没有示出,但客户端设备102还可以包括摄像装置透镜、摄像装置图像传感器、处理器、存储器和通信接口。
在一个实施方式中,摄像装置开口是壳体604中的开口,其耦接至客户端设备102中包括的摄像装置602的摄像装置透镜。在一个实施方式中,摄像装置开口可以是允许摄像装置透镜捕获图像或视频内容(例如,媒体内容项)的窗口。摄像装置602可以包括摄像装置透镜和图像传感器。摄像装置透镜可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜捕获图像或数字视频。图像也可以是静态图像帧或包括多个静态图像帧的视频。
在一个示例中,麦克风606(或多个麦克风)可以是将声音转换成电信号的空气接口声音拾取装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的传感器。麦克风可以是数字或模拟微机电系统(MEMS)麦克风。由麦克风606产生的声学信号可以是脉冲密度调制(PDM)信号。
被包括在客户端设备102中的显示设备608可以是触摸屏。如本文所讨论的,显示设备608可以显示用户界面和通信界面。
用户可以通过触摸显示设备608上的位置与显示设备608互动。用户可以通过执行与显示设备608的交互来与显示设备608互动。与显示设备608的交互的示例包括在显示设备608上的某个位置上单点、按压或触摸,双点或按压显示设备608的该位置,按下并保持与显示设备608的接触一段时间。在一个示例中,用户还可以通过以下操作来绘制绘图输入(例如,线条、图案或涂鸦或绘图的一部分):在显示设备608上的起始位置触摸显示设备608,在绘制绘图输入时保持与显示设备608的接触,并在显示设备608上的结束位置释放显示设备608以完成绘图输入。
如图5所示,系统500可以包括第一客户端设备102和第二客户端设备102。当第一客户端设备102和第二客户端设备102之间的通信会话被建立时,系统500使通信会话的通信界面显示在第一客户端设备102和第二客户端设备102的显示设备608上。该通信会话可以是第一客户端设备102与第二客户端设备102之间的视频通信会话。在一个示例中,该视频通信会话是实时的。在一个示例中,该通信会话是电子消息收发通信会话(例如,电子聊天或即时消息收发)。
在一个示例中,系统500检测第一客户端设备102的显示设备608上的第一触摸输入以及第二客户端设备102的显示设备608上的第二触摸输入。系统500监测第一触摸输入的位置和第二触摸输入的位置。系统500确定第一客户端设备102的显示设备608上的第一触摸输入的位置与第一客户端设备102的显示设备608上的与第二客户端设备102的显示设备608上的第二触摸输入的位置对应的位置之间的距离。
系统500可以使第一客户端设备102和第二客户端设备102的显示设备608基于距离产生触觉反馈响应。在一个示例中,触觉反馈响应在强度或速度上随着距离的减小而增加,以及在强度或速度上随着距离的增加而减小。
相应地,触觉反馈响应是基于用户在其各自的客户端设备102上的触摸输入在时间和位置上同步。所产生的触觉反馈响应的变化强度(intensity)(或强度(strength))或速度进一步将用户引导到其他用户正在触摸的屏幕上的位置。
图7示出了根据一个示例性实施方式的作为头戴式设备700的客户设备102的细节。图7示出了根据一个示例性实施方式的头戴式设备700的透视图。在图7中,头戴式设备700是一副眼镜。在一些实施方式中,头戴式设备700可以是太阳镜或护目镜。一些实施方式可以包括一个或更多个可穿戴设备,例如带有集成摄像装置的吊坠,该吊坠与头戴式设备700或客户端设备102集成、通信或耦接。任何所需的可穿戴设备都可以与本公开内容的实施方式结合使用,例如手表、耳机、腕带、耳塞、衣服(例如,具有集成电子装置的帽子或夹克)、夹式电子设备,或任何其他可穿戴设备。可以理解的是,虽然没有示出,但包括在头戴式设备700中的系统的一个或更多个部分可以包括在可以与头戴式设备700一起使用的客户设备102(例如,图11中的机器1100)中。
在图7中,头戴式设备700是一副眼镜,该眼镜包括框架706,该框架包括眼线(或轮辋),该眼线经由铰链和/或端件分别耦接至两个柄部(或脚部)。框架706的眼线携带或容纳一对透镜(例如,透镜708a和透镜708b)。框架706包括耦接至第一柄部的第一(例如,右)侧和耦接至第二柄部的第二(例如,左)侧。第一侧与框架706的第二侧相对。
头戴式设备700还包括摄像装置模块(未示出),其包括摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)和至少一个图像传感器。摄像装置透镜704a和摄像装置透镜704b可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜704a和摄像装置透镜704b捕获数字视频。图像也可以是静态图像帧或包括多个静态图像帧的视频。摄像装置模块可以耦接至框架706。如图7所示,框架706耦接至摄像装置透镜704a和摄像装置透镜704b,使摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)面向正面。摄像装置透镜704a和摄像装置透镜704b可以垂直于透镜708a和透镜708b。摄像装置模块可以包括双正面朝向的摄像装置,这些摄像装置被框架706的宽度或头戴式设备700的用户的头部宽度分开。
在图7中,两个柄部(或脚部)分别耦接至麦克风壳体702a和麦克风壳体702b。第一柄部和第二柄部被耦接至头戴式设备700的框架706的相对侧。第一柄部耦接至第一麦克风壳体702a,并且第二柄部耦接至第二麦克风壳体702b。麦克风壳体702a和麦克风壳体702b可以在框架706和脚尖的位置之间耦接至柄部。当用户佩戴头戴式设备700时,麦克风壳体702a和麦克风壳体702b可以位于用户的脚部的任何一侧。
如图7所示,麦克风壳体702a和麦克风壳体702b包裹包括麦克风606的多个麦克风(未示出)。麦克风606可以是一个或更多个麦克风。麦克风是将声音转换成电信号的空气接口声音拾取装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的传感器。麦克风可以是数字或模拟微机电系统(MEMS)麦克风。由麦克风产生的声学信号可以是脉冲密度调制(PDM)信号。
在一个实施方式中,头戴式设备700中的一对透镜(例如,透镜708a和透镜708b)还可以包括可以显示通信接口的显示设备。在一些示例中,头戴式设备700可以是虚拟现实(VR)护目镜。
一些实施方式可以包括一个或更多个可穿戴设备,例如具有提供触觉反馈的能力的手套,其与客户设备102集成、通信或耦接至客户设备102。任何所需的可穿戴设备可与本公开内容的实施方式结合使用,例如手表、眼镜、护目镜、虚拟现实(VR)护目镜、头盔、腕带、耳塞、衣服(例如具有集成电子设备的帽子或夹克)、夹式电子设备或任何其他可穿戴设备。
图8A示出了根据一个示例性实施方式的第一客户端设备102(例如,发送客户端设备)的编辑界面802的示例。
在一个示例中,系统500中的处理器(例如,客户端设备102或消息收发服务器系统108中的处理器)从与第一用户相关的第一客户端设备102接收媒体内容项804。图8A中的媒体内容项804是有眼睛和嘴巴的拇指的图片或视频。
如图8A所示,该媒体内容项被显示在第一客户端设备102的编辑界面802中。编辑界面802包括多个可选择菜单项,包括可选择菜单项806。响应于接收对可选择菜单项806的选择,处理器使第一客户端设备102在第一客户端设备102上显示增强界面808。
图8B示出了根据一个示例性实施方式的第一客户端设备102(例如,发送客户端设备)的增强界面808的示例。
增强界面808包括多个可选项,这些项与可应用于媒体内容项804的各种增强相关联。增强界面808包括触觉覆盖请求元素812。处理器可以从第一客户端设备102接收对触觉叠加请求的选择。
响应于接收到对触觉覆盖请求的选择,处理器使第一客户端设备102生成被显示在编辑界面802上的媒体内容项804上的触觉覆盖810。
图8C示出了根据一个示例性实施方式的第一客户端设备102(例如,发送客户端设备)的编辑界面802的示例。
触觉覆盖810可以是应用于媒体内容项804上的标贴。第一客户端设备102的第一用户可以通过经由触摸屏或显示设备608操纵编辑界面802上的触觉覆盖810的位置,将触觉覆盖810置于媒体内容项804上的任何位置处。
在一个示例中,媒体内容项804捕获第一客户端设备102的第一用户界面上的触摸输入。在图8A中,包括拇指的视频的媒体内容项804可以包括拇指与第一客户端设备102的第一用户界面接触的视频的一部分。
在这个示例中,处理器可以通过在媒体内容项804上对应于第一用户界面上的触摸输入的位置处叠加触觉覆盖810来生成修改的媒体内容项。在图8C中,处理器在媒体内容项804上的拇指触及第一用户界面的位置处叠加触觉覆盖810。
在另一个示例中,在媒体内容项804中捕获的第一用户界面上的触摸输入是与第一用户界面交互一段时间。例如,在媒体内容项804中,图8A中的拇指被捕获触摸第一用户界面一段时间。在这个示例中,触摸输入是绘图输入(例如,线条、图案或涂鸦或绘图的一部分),包括在用户界面上的开始位置触摸第一客户端设备的第一用户界面,在绘制绘图输入时保持与第一用户界面的接触,以及在第一用户界面上的结束位置释放第一用户界面以完成绘图输入。在本实施方式中,处理器在媒体内容项804上的开始位置叠加触觉覆盖810,触觉覆盖810随后在媒体内容项804上追踪绘图输入,并在到达媒体内容项804上的结束位置后消失。
处理器生成包括叠加在媒体内容项804上的触觉覆盖810的修改的媒体内容项814。第一用户可以在编辑界面802上选择传输可选项818,以使处理器将修改的媒体内容项814传输到第二客户端设备102。
图8D示出了根据一个示例性实施方式的第二客户端设备102的查看界面816的示例。当第二客户端设备102的第二用户接收到修改的媒体内容项814时,处理器可以使第二客户端设备102在查看界面816中显示修改的媒体内容项814。
处理器还可以检测来自第二客户端设备102的对触觉覆盖810的选择。在一个示例中,处理器通过接收第二用户对正显示在第二用户界面上的触觉覆盖810上的触摸输入来检测对触觉覆盖810的选择。响应于检测到第二用户对触觉覆盖810的选择,处理器使第二用户界面产生触觉反馈响应。
图9示出了根据一个示例性实施方式的显示在第二客户端设备102上的媒体内容项的示例。正显示在第二客户端设备102上的媒体内容项包括第一用户的视频。
处理器可以检测由第一客户端设备102的第一用户执行的预定姿势。预定姿势的示例可以包括飞吻、抬眉、以击掌动作拍打客户端设备102、弹动编辑界面802,等等。在图9中,第一用户正在执行飞吻的预定姿势。
响应于检测到第一用户的预定姿势,处理器可以使第二客户端设备102(或显示设备608)基于预定姿势产生触觉反馈响应。预定姿势中的每一个可以与不同的触觉反馈响应相关联。
在一个示例中,响应于检测到第一用户的预定姿势,处理器可以使第一编辑界面802或第二编辑界面802产生对通信界面的增强。增强可以包括覆盖、视觉效果、动画、声音效果、或其任何组合。增强是在预定时间段内临时产生的。如图9所示,增强是在正显示第一用户的嘴唇的第二编辑界面802的位置叠加闪光。
尽管所描述的流程图可以将操作显示为顺序过程,但许多操作可以并行或并发地执行。此外,操作的顺序可以被重新安排。过程在其操作完成后被终止。过程可以对应于方法、程序、算法等。方法的操作可以全部或部分执行,可以与其他方法中的一些或全部操作一起执行,并且可以由任何数量的不同系统执行,例如本文所述的系统,或其任何部分,例如包括在任何系统中的处理器。
使用媒体内容项中的增强产生触觉反馈响应
图10是根据一些示例的用于使用媒体内容项中的增强生成触觉反馈响应的过程1000的流程图。
在操作1002处,系统500中的处理器(例如,任何客户端设备102的处理器或消息收发服务器系统108的处理器)从与第一用户关联的第一客户端设备接收媒体内容项。在一个示例中,该媒体内容项捕获第一客户端设备的第一用户界面上的触摸输入。
在操作1004处,处理器从第一客户端设备接收对要应用到媒体内容项的触觉覆盖的选择。该触觉覆盖与触觉反馈响应相关联。
在操作1006处,处理器通过在媒体内容项上叠加触觉覆盖而生成修改的媒体内容项。在一个示例中,处理器通过在媒体内容项上与在媒体内容项中捕获的第一用户界面上的触摸输入对应的位置处叠加触觉覆盖来生成修改的媒体内容项。
触觉覆盖可以在预定时间段内显示在修改的媒体内容项中。触觉反馈响应包括振动模式。在一个示例中,触觉反馈响应可以是模拟心跳的振动模式。心跳可以是一种轻微的心跳,用户与触觉覆盖交互的时间越长(例如,保持接触触觉覆盖),心跳就越强。在另一个示例中,触觉反馈响应可以是模拟击掌的振动模式。击掌可以是轻度击掌,用户与触觉覆盖交互的时间越长(例如,保持接触触觉覆盖),击掌的力度就越大。
在操作1008处,处理器从第一客户端设备接收与第二客户端设备关联的第二用户的选择。
在操作1010处,处理器使修改的媒体内容项由第二客户端设备的第二用户界面显示。
在操作1012处,处理器检测来自第二客户端设备的对触觉覆盖的选择。在一个示例中,检测对触觉覆盖的选择包括接收第二用户对正显示在第二用户界面上的触觉覆盖的触摸输入。
响应于检测到对触觉覆盖的选择,处理器在操作1014处使第二用户界面产生触觉反馈响应。
在一个示例中,响应于检测到对触觉覆盖的选择,处理器进一步使第二用户界面产生增强。该增强包括覆盖、视觉效果、动画、声音效果或其任何组合。增强是在预定时间范围内临时生成的。
在另一个示例中,处理器可以检测在修改的媒体内容项中捕获的第一用户的预定姿势。该预定姿势可以与预定姿势触觉反馈响应或预定姿势增强相关联。
在该示例中,响应于检测到预定姿势,处理器使第二用户界面产生不同于触觉反馈响应的姿势触觉反馈响应。响应于检测到预定姿势,处理器还可以使第二用户界面产生预定姿势增强。
机器结构
图11是机器1100的图解表示,在该机器1100内可以执行用于使机器1100执行本文中所讨论的方法中的任何一种或更多种方法的指令1110(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1110可以使机器1100执行本文中描述的方法中的任何一种或更多种方法。指令1110将通用的未经编程的机器1100转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1100。机器1100可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1100可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1100可以包括但不限于服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1100采取的动作的指令1110的任何机器。此外,虽然仅示出了单个机器1100,但是术语“机器”还应当被视为包括单独地或联合地执行指令1110以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1100可以包括客户端设备102或者形成消息收发服务器系统108的一部分的多个服务器设备中的任何一个。在一些示例中,机器1100还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器1100可以包括可以被配置成经由总线1140彼此通信的处理器1104、存储器1106和输入/输出(I/O)部件1102。在示例中,处理器1104(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1110的处理器1108和处理器1112。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图11示出了多个处理器1104,但是机器1100可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器1106包括主存储器1114、静态存储器1116和存储单元1118,均可由处理器1104经由总线1140访问。主存储器1106、静态存储器1116和存储单元1118存储实施本文中描述的方法或功能中的任何一个或更多个方法或功能的指令1110。指令1110还可以在其由机器1100执行期间完全地或部分地驻留在主存储器1114内、静态存储器1116内、存储单元1118内的机器可读介质1120内、处理器1104中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者其任何合适的组合内。
I/O部件1102可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。特定机器中包括的特定I/O部件1102将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当认识到,I/O部件1102可以包括图11中未示出的许多其他部件。在各种示例中,I/O部件1102可以包括用户输出部件1126和用户输入部件1128。用户输出部件1126可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1128可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1102可以包括生物计量部件1130、运动部件1132、环境部件1134或位置部件1136以及广泛的一系列其他部件。例如,生物计量部件1130包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1132包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1134包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或用于测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更常规的摄像装置模式捕获静止图像和视频,这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1136包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1102还包括通信部件1138,该通信部件1138可操作以经由相应的耦接或连接将机器1100耦接至网络1122或设备1124。例如,通信部件1138可以包括与网络1122接口的网络接口部件或另一合适的设备。在其他示例中,通信部件1138可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能耗)、/>部件、和用于经由其他形式提供通信的其他通信部件。设备1124可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1138可以检测标识符,或者包括可操作以检测标识符的部件。例如,通信部件1138可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或者声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1138得到各种信息,例如经由因特网协议(IP)地理定位得到定位、经由信号三角测量得到定位、经由检测可以指示特定定位的NFC信标信号得到定位等。
各种存储器(例如,主存储器1114、静态存储器1116以及处理器1104的存储器)以及存储单元1118可以存储由本文中描述的方法或功能中的任何一个或更多个方法或功能实施或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1110)在由处理器1104执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1138中包括的网络接口部件)使用传输介质并且使用若干公知的传输协议中的任何一个传输协议(例如,超文本传输协议(HTTP))通过网络1122来发送或接收指令1110。类似地,可以使用传输介质经由与设备1124的耦接(例如,对等耦接)来发送或接收指令1110。
软件架构
图12是示出可以安装在本文中描述的设备中的任何一个或更多个设备上的软件架构1204的框图1200。软件架构1204由硬件诸如包括处理器1220、存储器1226和I/O部件1238的机器1202支持。在该示例中,软件架构1204可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1204包括诸如操作系统1212、库1210、框架1208和应用1206的层。在操作上,应用1206通过软件堆栈来激活API调用1250,并且响应于API调用1250接收消息1252。
操作系统1212管理硬件资源并且提供公共服务。操作系统1212包括例如核1214、服务1216和驱动器1222。核1214充当硬件层与其他软件层之间的抽象层。例如,核1214提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1216可以为其他软件层提供其他公共服务。驱动器1222负责控制底层硬件或与底层硬件接口。例如,驱动器1222可以包括显示驱动器、摄像装置驱动器、低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。/>
库1210提供由应用1206使用的公共低级基础设施。库1210可以包括系统库1218(例如,C标准库),该系统库1218提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1210可以包括API库1224,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1210还可以包括各种其他库1228,以向应用1206提供许多其他API。
框架1208提供由应用1206使用的公共高级基础设施。例如,框架1208提供各种图形用户界面(GUI)功能、高级资源管理和高级定位服务。框架1208可以提供可以由应用1206使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1206可以包括家庭应用1236、联系人应用1230、浏览器应用1232、书籍阅读器应用1234、定位应用1242、媒体应用1244、消息收发应用1246、游戏应用1248和诸如第三方应用1240的各种各样的其他应用。应用1206是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1206中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,第三方应用1240(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTMPhone的移动操作系统或另外的移动操作系统上运行的移动软件。在该示例中,第三方应用1240可以激活由操作系统1212提供的API调用1250以有助于本文中描述的功能。
具有头戴式设备的系统
图13示出了根据一个示例性实施方式的其中可以实现头戴式设备700的系统1300。图13是示例性头戴式设备700的高级功能框图,该示例性头戴式设备700通过各种网络1336通信地耦接移动客户端设备102和服务器系统1330。
头戴式设备700包括摄像装置,例如可见光摄像装置1310、红外发射器1312和红外摄像装置1314中的至少一个。该摄像装置可以包括具有图7中的摄像装置透镜704a和摄像装置透镜704b的摄像装置模块。
客户端设备102可以能够使用低功率无线连接1332和高速无线连接1334与头戴式设备700连接。客户端设备102被连接至服务器系统1330和网络1336。网络1336可以包括有线连接和无线连接的任何组合。
头戴式设备700还包括光学组件的图像显示器1302中的两个图像显示器。光学组件的两个图像显示器1302包括与头戴式设备700的左侧边相关的一个图像显示器以及与右侧边相关的一个图像显示器。头戴式设备700还包括图像显示驱动器1306、图像处理器1308、低功耗的低功率电路系统1324和高速电路系统1316。光学组件的图像显示器1302是用于向头戴式设备700的用户呈现图像和视频,包括可以包括图形用户界面的图像。
图像显示驱动器1306命令和控制光学组件的图像显示器1302中的图像显示器。图像显示驱动器1306可以将图像数据直接交付给光学组件的图像显示器1302中的图像显示器以进行展示,或者可以将图像数据转换为适合交付给图像显示设备的信号或数据格式。例如,图像数据可以是根据诸如H.264(MPEG-4第10部分)、HEVC、Theora、Dirac、RealVideoRV40、VP8、VP9等的压缩格式格式化的视频数据,并且静态图像数据可以根据诸如便携式网络组(PNG)、联合摄影专家组(JPEG)、标签图像文件格式(TIFF)或可交换图像文件格式(Exif)等的压缩格式格式化。
如上所述,头戴式设备700包括框架706和从框架706的侧边延伸的柄部(或脚部)。头戴式设备700还包括用户输入设备1304(例如,触摸传感器或按钮),其包括头戴式设备700上的输入表面。用户输入设备1304(例如,触摸传感器或按钮)要从用户那里接收输入选择,以操纵呈现图像的图形用户界面。
图13中所示的用于头戴式设备700的部件位于一个或更多个电路板(例如轮辋或脚部中的PCB或柔性PCB)上。替选地或附加地,所描述的部件可以位于头戴式设备700的大块、框架、铰链或桥中。左可见光摄像装置和右可见光摄像装置1310可以包括数字摄像装置元件,例如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、摄像装置透镜704a和摄像装置透镜704b,或可用于捕获包括具有未知对象的场景图像的数据的任何其他各自的可见光或光捕获元件。
头戴式设备700包括存储器1320,其存储指令以执行本文所述的功能的子集或全部。存储器1320还可以包括存储设备。
如图13所示,高速电路系统1316包括高速处理器1318、存储器1320和高速无线电路系统1322。在该示例中,图像显示驱动器1306被耦接至高速电路系统1316并由高速处理器1318操作,以驱动光学组件的图像显示器1302的左图像显示器和右图像显示器。高速处理器1318可以是任何能够管理高速通信和头戴式设备700所需的任何一般计算系统的操作的处理器。高速处理器1318包括使用高速无线电路系统1322管理高速无线连接1334到无线局域网(WLAN)上的高速数据传输所需的处理资源。在某些示例中,高速处理器1318执行操作系统,例如LINUX操作系统或头戴式设备700的其他此类操作系统,并且该操作系统被存储在存储器1320中以便执行。除了任何其他职责外,执行头戴式设备700的软件架构的高速处理器1318被用来管理与高速无线电路系统1322的数据传输。在某些示例中,高速无线电路系统1322被配置成实现电气和电子工程师协会(IEEE)802.11通信标准,在此也被称为Wi-Fi。在其他示例中,其他高速通信标准可由高速无线电路系统1322实现。
头戴式设备700的低功率无线电路系统1328和高速无线电路系统1322可以包括短距离收发器(蓝牙TM)和无线广域网、局域网或广域网收发器(例如,蜂窝或WIFI)。包括经由低功率无线连接1332和高速无线连接1334进行通信的收发器的客户端设备102可以使用头戴式设备700的架构的细节来实现,网络1336的其他元件也是如此。
存储器1320包括能够存储各种数据和应用的任何存储设备,尤其包括由左可见光摄像装置和右可见光摄像装置1310、红外摄像装置1314和图像处理器1308产生的摄像装置数据,以及由图像显示驱动器1306在光学组件的图像显示器1302中的图像显示器上产生用于显示的图像。虽然存储器1320被显示为与高速电路系统1316集成,但在其他实例中,存储器1320可以是头戴式设备700的独立的独立元件。在某些这样的示例中,电路由线路可以提供通过包括高速处理器1318的芯片从图像处理器1308或低功率处理器1326到存储器1320的连接。在其他示例中,高速处理器1318可以管理存储器1320的寻址,从而低功率处理器1326将在需要涉及存储器1320的读或写操作的任何时候启动高速处理器1318。
如图13所示,头戴式设备700的低功率处理器1326或高速处理器1318可以耦接至摄像装置(可见光摄像装置1310;红外发射器1312,或红外摄像装置1314)、图像显示驱动器1306、用户输入设备1304(例如,触摸传感器或按钮)和存储器1320。
头戴式设备700与主机连接。例如,头戴式设备700经由高速无线连接1334与客户设备102配对,或者经由网络1336连接至服务器系统1330。服务器系统1330可以是作为服务或网络计算系统的一部分的一个或更多个计算设备,例如,其包括处理器、存储器和网络通信接口,以通过网络1336与客户端设备102和头戴式设备700通信。
客户端设备102包括处理器和耦接至处理器的网络通信接口。网络通信接口允许通过网络1336、低功率无线连接1332或高速无线连接1334进行通信。客户端设备102还可以在客户端设备102的存储器中存储至少部分指令以实现本文所述的功能。
头戴式设备700的输出部件包括视觉部件,例如显示器,如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导。光学组件的图像显示由图像显示驱动器1306驱动。头戴式设备700的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号发生器等。头戴式设备700、客户端设备102和服务器系统1330的输入部件(例如用户输入设备1304)可以包括字母数字输入部件(例如,键盘、配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如、鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向性工具)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力度的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
头戴式设备700可以选择性地包括附加的外围设备元件。这样的外围设备元件可以包括与头戴式设备700集成的生物识别传感器、附加传感器或显示元件。例如,外围设备元件可以包括任何I/O元件,包括输出部件、运动部件、位置元件或本文所述的任何其他此类元件。
例如,生物识别部件包括检测表情(例如,手部表情、面部表情、声乐表情、身体姿势或眼球追踪)、测量生物信号(例如,血压、心率、体温、汗液或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等部件。运动部件包括加速度传感器部件(如加速度计)、重力传感器部件、旋转传感器部件(如陀螺仪),等等。位置部件包括生成位置坐标的位置传感器部件(例如,全球定位系统(GPS)接收器部件)、生成定位系统坐标的Wi-Fi___33或蓝牙TM收发器、高度传感器部件(例如,检测可从中得出高度的气压的高度计或气压计)、方向传感器部件(例如,磁力计)等。这样的定位系统坐标也可以通过低功率无线连接1332和高速无线连接1334从客户端设备102通过低功率无线电路系统1328或高速无线电路系统1322接收。
如果使用类似于“A、B或C中的至少一个”、“A、B和C中的至少一个”、“一个或更多个A、B或C”、或“A、B和C中的一个或更多个”的短语,其意指该短语应解释为:在一个实施方式中可以单独存在A,在一个实施方式中可以单独存在B,在一个实施方式中可以单独存在C,或者在一个实施方式中可以存在A、B和C的任何组合;例如,A和B,A和C,B和C,或A和B和C。
在不偏离本公开内容的范围的情况下,可以对所公开的实施方式进行改变和修改。这些和其他变化或修改旨在包括在本公开内容的范围内,如所附权利要求所表达的。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有以下边界的设备、物理实体或逻辑:所述边界由功能或子例程调用、分支点、API或对特定处理或控制功能提供分区或模块化的其他技术来定义。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件部件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行所配置的功能的特定机器(或机器的特定部件)并且不再是通用处理器。应当认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被配置为各自不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置特定的一个或多个处理器,以例如在一个时刻处构成特定硬件部件并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在这些硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在多个硬件部件在不同时间被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。在本文中描述的示例方法的各种操作可以至少部分地由临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,在本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器或者处理器实现的部件执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不仅驻留在单个机器内,而且跨多个机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨多个地理定位分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换地使用。
“短暂消息”是指可以在时间有限的持续时间内访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换地使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令并且包括数字或模拟通信信号的任何无形介质或者有助于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特性中的一个或更多个特性被以将信息编码在信号中的方式设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物并且可以在本公开内容中互换使用。

Claims (20)

1.一种系统,包括:
处理器;以及
存储器,其上具有指令,所述指令当由所述处理器执行时使所述系统执行操作,所述操作包括:
从第一客户端设备接收媒体内容项,其中,所述第一客户端设备与第一用户相关联;
从所述第一客户端设备接收对要被应用于所述媒体内容项的触觉覆盖的选择,其中,所述触觉覆盖与触觉反馈响应相关联;
通过在所述媒体内容项上叠加所述触觉覆盖来生成修改的媒体内容项;
从所述第一客户端设备接收第二用户的选择,其中,第二客户端设备与所述第二用户相关联;
使所述修改的媒体内容项由所述第二客户端设备的第二用户界面显示;
检测来自所述第二客户端设备的对所述触觉覆盖的选择,其中,检测对所述触觉覆盖的选择包括接收所述第二用户对正显示在所述第二用户界面上的所述触觉覆盖的触摸输入;以及
响应于检测到对所述触觉覆盖的选择,使所述第二用户界面产生所述触觉反馈响应。
2.根据权利要求1所述的系统,其中,所述媒体内容项捕获所述第一客户端设备的第一用户界面上的触摸输入。
3.根据权利要求2所述的系统,其中,生成所述修改的媒体内容项还包括在所述媒体内容项上对应于所述第一用户界面上的所述触摸输入的位置处叠加所述触觉覆盖。
4.根据权利要求1所述的系统,其中,所述触觉覆盖在预定时间段内显示在所述修改的媒体内容项中。
5.根据权利要求1所述的系统,其中,所述触觉反馈响应包括振动模式。
6.根据权利要求1所述的系统,其中,所述系统执行操作还包括:
响应于检测到对所述触觉叠加的选择,使所述第二用户界面产生增强。
7.根据权利要求6所述的系统,其中,所述增强包括覆盖、视觉效果、动画、声音效果或其任何组合。
8.根据权利要求6所述的系统,其中,所述增强是在预定时间范围内临时生成的。
9.根据权利要求1所述的系统,其中,所述系统执行操作还包括:
检测在所述修改的媒体内容项中捕获的所述第一用户的预定姿势,其中,所述预定姿势与预定姿势触觉反馈响应或预定姿势增强相关联;以及
响应于检测到所述预定姿势,
使所述第二用户界面产生所述姿势触觉反馈响应,其中,所述姿势触觉响应与所述触觉反馈响应不同,或者
使所述第二用户界面产生预定姿势增强。
10.一种方法,包括:
由处理器接收来自第一客户端设备的媒体内容项,其中,所述第一客户端设备与第一用户相关联;
从所述第一客户端设备接收对要应用于所述媒体内容项的触觉覆盖的选择,其中,所述触觉覆盖与触觉反馈响应相关联;
通过在所述媒体内容项上叠加所述触觉覆盖来生成修改的媒体内容项;
从所述第一客户端设备接收第二用户的选择,其中,第二客户端设备与所述第二用户相关联;
使所述修改的媒体内容项由所述第二客户端设备的第二用户界面显示;
检测来自所述第二客户端设备的对所述触觉覆盖的选择,其中,检测对所述触觉覆盖的选择包括接收所述第二用户对正显示在所述第二用户界面上的所述触觉覆盖的触摸输入;以及
响应于检测到对所述触觉覆盖的选择,使所述第二用户界面产生所述触觉反馈响应。
11.根据权利要求10所述的方法,其中,所述媒体内容项捕获所述第一客户端设备的第一用户界面上的触摸输入。
12.根据权利要求11所述的方法,其中,生成所述修改的媒体内容项还包括在所述媒体内容项上对应于所述第一用户界面上的所述触摸输入的位置处叠加所述触觉覆盖。
13.根据权利要求10所述的方法,其中,所述触觉覆盖在预定时间段内显示在所述修改的媒体内容项中。
14.根据权利要求10所述的方法,其中,所述触觉反馈响应包括振动模式。
15.根据权利要求10所述的方法,还包括:
响应于检测到对所述触觉覆盖的选择,使所述第二用户界面产生增强。
16.根据权利要求15所述的方法,其中,所述增强包括覆盖、视觉效果、动画、声音效果或其任何组合。
17.根据权利要求15所述的方法,其中,所述增强是在预定时间范围内临时生成的。
18.根据权利要求10所述的方法,还包括:
检测在所述修改的媒体内容项中捕获的所述第一用户的预定姿势,其中,所述预定姿势与预定姿势触觉反馈响应或预定姿势增强相关联;以及
响应于检测到所述预定姿势,
使所述第二用户界面产生预定姿势触觉反馈响应,其中,所述预定姿势触觉响应与所述触觉反馈响应不同,或者
使所述第二用户界面产生预定姿势增强。
19.一种其上存储有指令的非暂态计算机可读存储介质,所述指令当由处理器执行时使所述处理器执行操作,所述操作包括:
从第一客户端设备接收媒体内容项,其中,所述第一客户端设备与第一用户相关联;
从所述第一客户端设备接收对要应用于所述媒体内容项的触觉覆盖的选择,其中,所述触觉覆盖与触觉反馈响应相关联;
通过在所述媒体内容项上叠加所述触觉覆盖来生成修改的媒体内容项;
从所述第一客户端设备接收第二用户的选择,其中,第二客户端设备与所述第二用户相关联;
使所述修改的媒体内容项由所述第二客户端设备的第二用户界面显示;
检测来自所述第二客户端设备的对所述触觉覆盖的选择,其中,检测对所述触觉覆盖的选择包括接收所述第二用户对正显示在所述第二用户界面上的所述触觉覆盖的触摸输入;以及
响应于检测到对所述触觉覆盖的选择,使所述第二用户界面产生触觉反馈响应。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中,所述触觉反馈响应包括振动模式。
CN202180088094.0A 2020-12-31 2021-12-29 具有触觉反馈增强的媒体内容项 Pending CN116685941A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063133054P 2020-12-31 2020-12-31
US63/133,054 2020-12-31
PCT/US2021/073157 WO2022147451A1 (en) 2020-12-31 2021-12-29 Media content items with haptic feedback augmentations

Publications (1)

Publication Number Publication Date
CN116685941A true CN116685941A (zh) 2023-09-01

Family

ID=80122484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180088094.0A Pending CN116685941A (zh) 2020-12-31 2021-12-29 具有触觉反馈增强的媒体内容项

Country Status (5)

Country Link
US (1) US11989348B2 (zh)
EP (1) EP4272063A1 (zh)
KR (1) KR20230124082A (zh)
CN (1) CN116685941A (zh)
WO (1) WO2022147451A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
US11997422B2 (en) 2020-12-31 2024-05-28 Snap Inc. Real-time video communication interface with haptic feedback response

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116648687A (zh) 2020-12-31 2023-08-25 斯纳普公司 具有触觉反馈响应的电子通信界面

Family Cites Families (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7286141B2 (en) 2001-08-31 2007-10-23 Fuji Xerox Co., Ltd. Systems and methods for generating and controlling temporary digital ink
US7779166B2 (en) 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20060066569A1 (en) 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
US8253686B2 (en) 2007-11-26 2012-08-28 Electronics And Telecommunications Research Institute Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same
KR100952698B1 (ko) 2008-03-10 2010-04-13 한국표준과학연구원 촉감 피드백장치를 이용한 촉감전달방법 및 그 시스템
US8576181B2 (en) 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US20090303175A1 (en) 2008-06-05 2009-12-10 Nokia Corporation Haptic user interface
WO2010009152A1 (en) 2008-07-15 2010-01-21 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
KR20190077113A (ko) 2009-07-22 2019-07-02 임머숀 코퍼레이션 플랫폼에 걸쳐 햅틱 피드백을 갖는 상호작용 터치 스크린 게임 메타포
KR101189053B1 (ko) 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
KR20110030223A (ko) 2009-09-17 2011-03-23 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20140171036A1 (en) 2009-11-18 2014-06-19 Gwendolyn Simmons Method of communication
US9298260B2 (en) 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
EP2561424B1 (en) 2010-04-23 2019-02-20 Immersion Corporation Systems and methods for providing haptic effects
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
DE102010052759A1 (de) 2010-08-11 2012-03-22 Vassilios Dikeoulias Geräteanordnung zur Simulation der gegenseitigen Berührung zweier Menschen aus der Ferne
US8781398B2 (en) 2010-09-23 2014-07-15 Kyocera Corporation Method and apparatus to transfer files between two touch screen interfaces
DE102010046359A1 (de) 2010-09-25 2012-03-29 Vassilios Dikeoulias Geräteanordnung zur Simulation der gegenseitigen streichenden Berührung zweier Menschen aus der Ferne
US9760241B1 (en) * 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US20130145240A1 (en) 2011-12-05 2013-06-06 Thomas G. Anderson Customizable System for Storytelling
US20130227411A1 (en) 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US20150370320A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Smart Clothing with Human-to-Computer Textile Interface
US8937556B2 (en) 2012-06-22 2015-01-20 Blackberry Limited Indicating the progress of a boot sequence on a communication device
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
US9223403B2 (en) 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
US9285880B2 (en) 2012-12-26 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Touch panel device and method of controlling a touch panel device
KR102035305B1 (ko) 2013-01-15 2019-11-18 삼성전자주식회사 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
CN103049761B (zh) 2013-01-21 2016-08-03 中国地质大学(武汉) 基于手语手套的手语识别方法及系统
US20140313142A1 (en) 2013-03-07 2014-10-23 Tactus Technology, Inc. Method for remotely sharing touch
KR102387314B1 (ko) 2013-03-11 2022-04-14 매직 립, 인코포레이티드 증강 및 가상 현실을 위한 시스템 및 방법
US20160048209A1 (en) 2013-05-21 2016-02-18 Samsung Electronics Co., Ltd. Method and apparatus for controlling vibration
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
EP3018568A4 (en) 2013-07-05 2017-04-19 Clarion Co., Ltd. Information processing device
US20150084875A1 (en) * 2013-09-26 2015-03-26 Min Liu Enhanced haptic feedback for handheld mobile computing devices
US9558756B2 (en) 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
JP2015114948A (ja) 2013-12-13 2015-06-22 株式会社東海理化電機製作所 操作装置
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10283162B2 (en) 2014-02-05 2019-05-07 Avatar Merger Sub II, LLC Method for triggering events in a video
JP2015170213A (ja) 2014-03-07 2015-09-28 キヤノン株式会社 携帯装置、制御方法及びプログラム
KR20150118813A (ko) 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
WO2016018040A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. A terminal and a method of controlling the same
WO2016036427A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
DE202015006141U1 (de) 2014-09-02 2015-12-14 Apple Inc. Elektronische Touch-Kommunikation
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
FR3026868B1 (fr) 2014-10-02 2019-08-16 Dav Dispositif et procede de commande pour vehicule automobile
US9971406B2 (en) * 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
WO2016168591A1 (en) 2015-04-16 2016-10-20 Robert Bosch Gmbh System and method for automated sign language recognition
WO2016172247A1 (en) 2015-04-20 2016-10-27 Pirzadeh Afarin Applications, systems, and methods for facilitating emotional gesture-based communications
JP2018513455A (ja) 2015-04-21 2018-05-24 イマージョン コーポレーションImmersion Corporation エッチング入力の動的表現
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
JP2017174300A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置、情報処理方法およびプログラム
US9965467B2 (en) 2016-03-28 2018-05-08 Avaya Inc. Sign language communication with communication devices
US10376797B2 (en) 2016-05-12 2019-08-13 Andrew Howarth Platform for gestural gaming device
US10628664B2 (en) 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
DK201670596A1 (en) * 2016-06-12 2018-02-19 Apple Inc Digital touch on live video
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US11178457B2 (en) 2016-08-19 2021-11-16 Per Gisle JOHNSEN Interactive music creation and playback method and system
US10372214B1 (en) 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
EP3520054A4 (en) 2016-10-03 2020-05-27 Poynt Co. SYSTEM AND METHOD FOR DISABLED USER ASSISTANCE
US10446059B2 (en) 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
WO2018113740A1 (en) 2016-12-21 2018-06-28 Zyetric Technologies Limited Combining virtual reality and augmented reality
EP3571569B1 (en) 2017-01-19 2021-12-01 Telefonaktiebolaget LM Ericsson (PUBL) Improved transmission of haptic input
US10936067B1 (en) 2017-02-13 2021-03-02 Snap, Inc. Generating a response that depicts haptic characteristics
EP3367216A1 (en) 2017-02-24 2018-08-29 Immersion Corporation Systems and methods for virtual affective touch
WO2018152778A1 (en) 2017-02-24 2018-08-30 Immersion Corporation Virtual affective touch
AU2018271107C1 (en) 2017-05-16 2021-03-11 Apple Inc. Tactile feedback for user interfaces
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
US11847426B2 (en) 2017-11-08 2023-12-19 Snap Inc. Computer vision based sign language interpreter
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
KR102044241B1 (ko) 2017-12-28 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말
US10962809B1 (en) 2018-01-10 2021-03-30 Snap Inc. Eyewear device with finger activated touch sensor
US11092998B1 (en) 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
US10621815B2 (en) 2018-02-02 2020-04-14 Aristocrat Technologies Australia Pty Limited Electronic gaming machine and methods for displaying supplemental information
US10775892B2 (en) 2018-04-20 2020-09-15 Immersion Corporation Systems and methods for multi-user shared virtual and augmented reality-based haptics
US11227626B1 (en) 2018-05-21 2022-01-18 Snap Inc. Audio response messages
US11023055B2 (en) 2018-06-01 2021-06-01 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US10911103B2 (en) 2018-08-19 2021-02-02 International Forte Group LLC Portable electronic device for facilitating a proximity based interaction with a short range communication enabled object
CN109254658A (zh) 2018-08-29 2019-01-22 上海天马微电子有限公司 触觉反馈方法、触觉反馈装置及触摸显示装置
WO2020068455A1 (en) 2018-09-28 2020-04-02 Snap Inc. Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US10930265B2 (en) * 2018-11-28 2021-02-23 International Business Machines Corporation Cognitive enhancement of communication with tactile stimulation
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
CN109876433B (zh) 2019-03-28 2020-09-18 瑞声科技(新加坡)有限公司 一种游戏角色的位置提示方法、终端设备以及存储介质
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
CN114391160A (zh) 2019-09-09 2022-04-22 斯纳普公司 根据立体相机的手部姿势估计
CN110798552A (zh) 2019-09-19 2020-02-14 华为技术有限公司 一种音量调节方法及电子设备
US11169600B1 (en) 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11087728B1 (en) 2019-12-21 2021-08-10 Snap Inc. Computer vision and mapping for audio applications
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11488358B2 (en) 2020-02-05 2022-11-01 Snap Inc. Augmented reality session creation using skeleton tracking
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US11995774B2 (en) 2020-06-29 2024-05-28 Snap Inc. Augmented reality experiences using speech and text captions
US20210405761A1 (en) 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11989347B2 (en) 2020-11-18 2024-05-21 Samsung Electronics Co., Ltd. Haptic glove apparatus and virtual reality apparatus including the same
WO2022132381A1 (en) 2020-12-16 2022-06-23 Snap Inc. Eyewear including sign language to speech translation
KR20230124732A (ko) 2020-12-29 2023-08-25 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 제어하기 위한 미세 손제스처들
KR20230124081A (ko) 2020-12-31 2023-08-24 스냅 인코포레이티드 햅틱 피드백 응답을 갖는 통신 인터페이스
CN116648687A (zh) 2020-12-31 2023-08-25 斯纳普公司 具有触觉反馈响应的电子通信界面
CN116685941A (zh) 2020-12-31 2023-09-01 斯纳普公司 具有触觉反馈增强的媒体内容项
CN116745743A (zh) 2020-12-31 2023-09-12 斯纳普公司 具有触觉反馈响应的通信界面
CN116670635A (zh) 2020-12-31 2023-08-29 斯纳普公司 具有触觉反馈的实时视频通信界面
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
CN117157609A (zh) 2021-03-31 2023-12-01 斯纳普公司 具有触觉反馈响应的虚拟现实界面
WO2022212175A1 (en) 2021-03-31 2022-10-06 Snap Inc. Interface with haptic and audio feedback response
WO2022212174A1 (en) 2021-03-31 2022-10-06 Snap Inc. Interface with haptic and audio feedback response
US20220317774A1 (en) 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
US20220317773A1 (en) 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
CN117120959A (zh) 2021-03-31 2023-11-24 斯纳普公司 具有触觉反馈响应和音频反馈响应的界面
US20220317775A1 (en) 2021-03-31 2022-10-06 Snap Inc. Virtual reality communication interface with haptic feedback response
WO2022212177A1 (en) 2021-03-31 2022-10-06 Snap Inc. Virtual reality interface with haptic feedback response
EP4320502A1 (en) 2021-04-08 2024-02-14 Snap, Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN117178247A (zh) 2021-04-19 2023-12-05 斯纳普公司 用于动画化及控制虚拟和图形元素的手势
WO2022245765A1 (en) 2021-05-19 2022-11-24 Snap Inc. Beacons for localization and content delivery to wearable devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
US11997422B2 (en) 2020-12-31 2024-05-28 Snap Inc. Real-time video communication interface with haptic feedback response

Also Published As

Publication number Publication date
WO2022147451A1 (en) 2022-07-07
EP4272063A1 (en) 2023-11-08
US11989348B2 (en) 2024-05-21
KR20230124082A (ko) 2023-08-24
US20220206582A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN116745743A (zh) 具有触觉反馈响应的通信界面
US11531400B2 (en) Electronic communication interface with haptic feedback response
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
US20220317773A1 (en) Real-time communication interface with haptic and audio feedback response
US20220210370A1 (en) Real-time video communication interface with haptic feedback response
CN116685941A (zh) 具有触觉反馈增强的媒体内容项
CN117157609A (zh) 具有触觉反馈响应的虚拟现实界面
CN116710885A (zh) 具有触觉反馈响应的通信界面
CN117120959A (zh) 具有触觉反馈响应和音频反馈响应的界面
WO2022212177A1 (en) Virtual reality interface with haptic feedback response
WO2022212175A1 (en) Interface with haptic and audio feedback response
WO2022212174A1 (en) Interface with haptic and audio feedback response
US20220318303A1 (en) Transmitting metadata via inaudible frequencies
US11825276B2 (en) Selector input device to transmit audio signals
US11874960B2 (en) Pausing device operation based on facial movement
US20220210336A1 (en) Selector input device to transmit media content items
US20220373791A1 (en) Automatic media capture using biometric sensor data
US20240184372A1 (en) Virtual reality communication interface with haptic feedback response
US20220375103A1 (en) Automatic media capture based on motion sensor data
US20240184371A1 (en) Electronic communication interface with haptic feedback response
US20240187551A1 (en) Real-time video communication interface with haptic feedback response
CN117337563A (zh) 用于立体拼接的硬件编码器
CN117321545A (zh) 基于运动传感器数据的自动媒体捕获
CN117157608A (zh) 用户定义的情景空间

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination