CN116670635A - 具有触觉反馈的实时视频通信界面 - Google Patents

具有触觉反馈的实时视频通信界面 Download PDF

Info

Publication number
CN116670635A
CN116670635A CN202180088077.7A CN202180088077A CN116670635A CN 116670635 A CN116670635 A CN 116670635A CN 202180088077 A CN202180088077 A CN 202180088077A CN 116670635 A CN116670635 A CN 116670635A
Authority
CN
China
Prior art keywords
user interface
location
touch input
client device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180088077.7A
Other languages
English (en)
Inventor
马克·托马斯
亚历山大·P·鲍威尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN116670635A publication Critical patent/CN116670635A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

用于生成触觉反馈响应的方法开始于处理器使用于通信会话的通信界面显示在第一用户界面上和第二用户界面上。处理器检测第一用户界面上的第一触摸输入和第二用户界面上的第二触摸输入。处理器监测第一用户界面上的第一触摸输入的位置和第二用户界面上的第二触摸输入的位置。处理器确定第一用户界面上的第一触摸输入的位置与第一用户界面上与第二用户界面上的第二触摸输入的位置对应的位置之间的距离。处理器使第一用户界面和第二用户界面基于该距离产生触觉反馈响应。触觉反馈响应在强度或速度上随着距离的减小而增加,以及在强度或速度上随着距离的增加而减小。本文还描述了其他实施方式。

Description

具有触觉反馈的实时视频通信界面
相关申请的交叉引用
本申请要求于2020年12月31日提交的序列号为第63/133,048号的美国临时申请的优先权权益,其全部内容通过引用并入本文。
背景技术
消费类电子设备通常适于捕获图像、音频和视频内容。用户使用消费类电子设备能够经由文本信息、即时消息收发、音频通话、视频通话等进行相互交流。用户还使用消费类电子设备和消息收发应用来分享媒体内容项(例如,图片和视频),这反映了对更直观地通信的全球需求。
随着社交网络系统数量的增加,每个社交网络系统都面临着提供吸引用户注意力并提供新颖和吸引人的通信功能的用户界面的挑战。
附图说明
在附图(其不一定按比例绘制)中,相同的附图标记可以在不同的视图中描述类似的部件。为了容易标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时所在的图号。一些非限制性示例在附图的图中示出,在附图中:
图1是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5示出了根据一些示例的其中可以实现具有触觉反馈响应的实时视频通信界面的系统500。
图6示出了根据一个示例性实施方式的系统500中的客户端设备102的细节。
图7示出了根据一个示例性实施方式的作为头戴式设备700的客户端设备102的细节。
图8A示出了根据一个示例性实施方式的显示在客户端设备102的用户界面802上的通信界面的示例。
图8B示出了根据一个示例性实施方式的显示在客户端设备102的用户界面802上的通信界面的示例。
图8C示出了根据一个示例性实施方式的显示在客户端设备102的用户界面802上的通信界面的示例。
图9是根据一些示例的在实时视频通信界面上产生触觉反馈响应的过程900的流程图。
图10是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文中讨论的方法中的任何一种或更多种方法。
图11是示出可以在其中实现示例的软件架构的框图。
图12示出了其中可以根据一个示例性实施方式来实现头戴式设备700的系统1200。
具体实施方式
当在消息收发系统上进行通信时,用户能够彼此呼叫并建立语音呼叫或视频呼叫。经由消息收发系统,用户还能够分享媒体内容项,如音频、视频和图片。然而,对用户来说,在消息收发系统上或使用客户端设备的通信显然不类似于面对面的通信。
本公开内容的实施方式通过将触知或触觉功能加入到消息收发系统的通信界面中来改进消息收发系统的功能。通过将触摸的感觉添加到用户在消息收发系统上的通信中,本公开内容的实施方式更接近于提供面对面的通信体验,并进一步允许用户与他在消息收发系统上的联系人更深入地接触
网络化计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,每个实例托管包括消息收发客户端104和其他应用106的若干应用。在一些示例中,客户端设备102包括用户界面(例如,显示设备、触摸屏等),如本文所讨论的,该界面基于在视频通信会话期间接收到的触摸输入产生触觉反馈响应。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至消息收发客户端104(例如,托管在相应的其他客户端设备102上)、消息收发服务器系统108和第三方服务器110的其他实例。消息收发客户端104还可以使用应用程序接口(API)与本地托管的应用106通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能的位置是在消息收发客户端104内还是在消息收发服务器系统108内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和叠加、消息内容持久性条件、社交网络信息以及实况事件信息。通过经由消息收发客户端104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器112提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),所述一组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。应用程序接口(API)服务器116公开应用服务器114所支持的各种功能,包括:账户注册;登录功能;经由应用服务器114从特定消息收发客户端104向另一消息收发客户端104发送消息,从消息收发客户端104向消息收发服务器118发送媒体文件(例如,图像或视频),以及供另一消息收发客户端104的可能访问;设置媒体数据的集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;对实体图(例如,社交图)添加和删除实体(例如,朋友);定位社交图内的朋友;以及打开应用(例如,与消息收发客户端104有关的)事件。
应用服务器114托管多个服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122以及社交网络服务器124。消息收发服务器118实现多个消息处理技术和功能,特别地涉及对从消息收发客户端104的多个实例接收的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库)。然后,使这些集合对消息收发客户端104可用。鉴于对数据的其他处理器和存储器密集处理的硬件要求,也可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,图像处理服务器122专用于通常针对从消息收发服务器118发送或在消息收发服务器118处接收的消息的有效载荷内的图像或视频执行各种图像处理操作。
社交网络服务器124支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护并访问数据库126内的实体图308(如图3所示)。社交网络服务器124所支持的功能和服务的示例包括标识消息收发系统100中与特定用户有关系或该特定用户正“关注”的其他用户,并且还包括标识特定用户的兴趣和其他实体。
返回到消息收发客户端104,外部资源(例如,应用106或小应用)的特征和功能经由消息收发客户端104的接口对用户可用。在该上下文中,“外部”是指应用106或小应用在消息收发客户端104外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端104的创建者或提供者提供。消息收发客户端104接收对启动或访问这样的外部资源的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的应用106(例如,“本地app”)、或者托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的应用的小规模版本(例如,“小应用”)。应用的小规模版本包括应用的特征和功能的子集(例如,应用的全规模、原生版本),并且使用标记语言文档来实现。在一个示例中,应用的小规模版本(例如,“小应用”)是应用的基于web的标记语言版本,并且嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小应用可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源的特征的选项的用户选择,消息收发客户端104确定选择的外部资源是基于web的外部资源还是本地安装的应用106。在一些情况下,本地安装在客户端设备102上的应用106可以独立于消息收发客户端104并且与消息收发客户端104分开启动,例如通过在客户端设备102的主页屏幕上选择与应用106对应的图标。可以经由消息收发客户端104启动或访问这样的应用的小规模版本,并且在一些示例中,小规模应用的任何部分都不能(或者有限部分才能)在消息收发客户端104之外被访问。可以通过消息收发客户端104例如从第三方服务器110接收与小规模应用相关联的标记语言文档并处理这样的文档来启动小规模应用。
响应于确定外部资源是本地安装的应用106,消息收发客户端104指示客户端设备102通过执行与外部资源对应的本地存储的代码来启动外部资源。响应于确定外部资源是基于web的资源,消息收发客户端104(例如)与第三方服务器110通信以获得与选择的外部资源对应的标记语言文档。消息收发客户端104然后处理获得的标记语言文档以在消息收发客户端104的用户界面内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动(在该组朋友中)最近使用过但当前不活动的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端104的参与者提供与一组用户中的一个或更多个成员将外部资源中的项、状态、状况或位置共享到聊天会话中的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以启动对应的外部资源,查看外部资源内的特定信息,或将聊天的成员带到外部资源内的特定位置或状态。在给定的外部资源内,可以在消息收发客户端104上向用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端104可以向用户呈现可用外部资源(例如,应用106或小应用)的列表以启动或访问给定的外部资源。该列表可以呈现在上下文敏感菜单中。例如,表示不同的应用106(或小应用)的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器114。消息收发系统100包含多个子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、以及外部资源系统214。
短暂定时器系统202负责实施消息收发客户端104和消息收发服务器118对内容的临时或时间受限访问。短暂定时器系统202并入了多个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的集和集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件图库”或“事件故事”。可以使这样的集合在指定时间段例如在与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括使得集合管理器能够管理和策展特定内容集合的策展接口206。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容的集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地为使用这样的用户的内容而向其进行支付。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布用于由消息收发系统100处理的消息的媒体叠加有关的功能。增强系统208基于客户端设备102的地理定位可操作地向消息收发客户端104提供媒体叠加或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104提供媒体叠加。媒体叠加可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色叠加。音频和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体叠加可以包括可以叠加在由客户端设备102拍摄的照片之上的文本或图像。在另一示例中,媒体叠加包括定位标识叠加(例如,威尼斯海滩)、实况事件名称或商家名称叠加(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理定位来标识包括客户端设备102的地理定位处的商家名称的媒体叠加。媒体叠加可以包括与商家相关联的其他标记。媒体叠加可以被存储在数据库126中并通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位,并且上传与选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体叠加的环境。增强系统208生成包括上传的内容的媒体叠加并且将上传的内容与选择的地理定位相关联。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程来选择与地理定位相关联的特定媒体叠加。例如,增强系统208将最高出价商家的媒体叠加与对应地理定位相关联达预定义时间量。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文中指示用户的“朋友”的当前定位或过去定位以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在消息收发客户端104的地图界面上将用户从特定地理定位发布到消息收发系统100的消息在地图的该特定定位的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状态化身)共享他或她的定位和状态信息,其中,该定位和状态信息在消息收发客户端104的地图界面的上下文内被类似地显示给选择的用户。
游戏系统212在消息收发客户端104的上下文内提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可由用户在消息收发客户端104的上下文内启动并与消息收发系统100的其他用户玩的可用游戏的列表。消息收发系统100还使特定的用户能够通过从消息收发客户端104向其他用户发出邀请而邀请这样的其他用户参与特定游戏的玩法。消息收发客户端104还支持在游戏的上下文内的语音和文本消息收发(例如,聊天)二者,提供游戏排行榜,并且还支持提供游戏中的奖励(例如,硬币和物品)。
外部资源系统214为消息收发客户端104提供接口以与远程服务器(例如,第三方服务器110)通信以启动或访问外部资源(即,应用或小应用)。每个第三方服务器110例如托管基于标记语言(例如,HTML5)的应用或应用的小规模版本(例如,游戏应用、实用程序应用、支付应用或乘坐共享应用)。消息收发客户端104可以通过从与基于web的资源相关联的第三方服务器110访问HTML5文件来启动基于web的资源(例如,应用)。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由第三方服务器110托管的应用进行编程。SDK包括应用程序接口(API),该API具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavasScript库,该库提供对消息收发客户端104的某些用户数据的给定外部资源访问。HTML5被用作用于编程游戏的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由第三方服务器110从消息收发服务器118下载,或者由第三方服务器110以其他方式接收。一旦被下载或接收,SDK被包括作为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供外部资源(例如,应用106或小应用)与消息收发客户端104之间的桥接。这为用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK有助于第三方服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信信道。消息经由这些通信信道在外部资源与消息收发客户端104之间异步发送。每个SDK函数调用作为消息和回调发送。通过构造唯一的回调标识符并且发送具有该回调标识符的消息来实现每个SDK函数。
通过使用SDK,并非来自消息收发客户端104的所有信息都与第三方服务器110共享。SDK基于外部资源的需要来限制共享哪些信息。在某些示例中,每个第三方服务器110向消息收发服务器118提供与基于web的外部资源对应的HTML5文件。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(诸如盒设计或其他图形)。一旦用户选择了视觉表示或通过消息收发客户端104的GUI指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104获得HTML5文件并且对访问基于web的外部资源的特征所需的资源进行实例化。
消息收发客户端104呈现用于外部资源的图形用户界面(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,消息收发客户端104确定启动的外部资源是否先前已被授权访问消息收发客户端104的用户数据。响应于确定启动的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的另一图形用户界面,其包括外部资源的功能和特征。响应于确定启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现到画面中部或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,消息收发客户端104将外部资源添加至授权的外部资源的列表,并且使得外部资源能够访问来自消息收发客户端104的用户数据。在一些示例中,外部资源由消息收发客户端104根据OAuth 2框架授权访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模应用(例如,应用106)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问。作为另一示例,向包括应用的小规模版本(例如,应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身、以及具有各种化身特性的化身)的访问。化身特性包括定制化身的外观和感觉(例如,不同姿势、面部特征、服装等)的不同方式。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括多个表,但是将认识到,可以以其他类型的数据结构来存储数据(例如,存储为面向对象的数据库)。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接至实体图308和简档数据316。针对其的记录被维护在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或者基于活动的社交关系、职业关系(例如,在共同的公司或组织工作)。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容内以及由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间传送的状态或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员以及针对相关团体的各种设置(例如,通知)之外,针对团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如叠加或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且被应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为叠加在图像或视频上的叠加。过滤器可以是各种类型,包括当发送用户正在编写消息时来自由消息收发客户端104呈现给发送用户的一组过滤器的用户选择的过滤器。其他类型的过滤器包括地理定位过滤器(也称为地理过滤器),其可以基于地理定位被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理定位信息,由消息收发客户端104在用户界面内呈现特定于附近或特殊定位的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定定位处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、叠加、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似术语。这包括实时修改,其在图像被使用客户端设备102的设备传感器(例如,一个或多个摄像装置)进行捕获时并且然后在修改的情况下在客户端设备102的屏幕上显示时对图像进行修改。这还包括对存储的内容(例如,图库中可以被修改的视频剪辑)的修改。例如,在访问多个增强现实内容项的客户端设备102中,用户可以将单个视频剪辑与多个增强现实内容项一起使用来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过针对同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,可以将实时视频捕获与示出的修改一起使用,以示出客户端设备102的传感器当前正捕获的视频图像将如何修改捕获的数据。这样的数据可以仅显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并存储在存储器中。在一些系统中,预览特征可以同时显示不同的增强现实内容项将在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的数据和各种系统或使用这些数据来修改内容的其他这样的变换系统可以涉及:视频帧中各对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这样的对象的跟踪,以及在跟踪这样的对象时对这样的对象的修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在跟踪的位置处。在另外的示例中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既涉及用于在内容中创建变换的图像、模型和纹理,又涉及利用对象检测、跟踪和放置来实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。另外,可以使用计算机动画模型来处理任何对象,例如人的面部和人体的各部位、动物或非生物(例如,椅子、汽车或其他对象)。
在一些示例中,当连同要变换的内容一起选择特定修改时,由计算设备标识要变换的元素,并且然后如果要变换的元素存在于视频的帧中,则检测并跟踪要变换的元素。根据修改请求来修改对象的元素,因此变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要涉及改变对象的元素的形式的帧变换,计算对象的每个元素的特性点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特性点的网格。该网格被用于在视频流中跟踪对象的各元素的后续阶段。在跟踪过程中,所提及的针对每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点以及修改请求针对每个元素生成一组第二点。然后,可以通过基于一组第一点、一组第二点和网格修改对象的元素来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来使修改的对象的背景改变或发生扭曲。
在一些示例中,可以通过计算对象的每个元素的特性点并基于计算的特性点生成网格来执行使用对象的元素改变对象的某些区域的变换。在网格上生成点,并且然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,因此对视频流的帧进行变换。取决于具体的修改请求,可以以不同的方式来变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其发生扭曲。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特性点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,利用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适用于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可标识(例如,如果人具有眼罩),则可以使用次级界标。这样的界标标识过程可以被用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。利用使形状点之间的平均欧几里德距离最小化的相似变换(允许平移、缩放和旋转)将一个形状与另一形状对准。均值形状(meanshape)是经对准的训练形状的均值。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的均值形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配对形状点的定位进行调整来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单独模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每一级处重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功率消耗。复杂的图像操纵可以包括大小和形状改变、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减小表观年龄、改变性别)、风格转换、图形元素应用以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在该系统中,用户可以使用具有作为在客户端设备102上操作的消息收发客户端104的一部分而操作的神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍)。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换数据图像,或者计算机动画模型可以与本文中描述的界面相关联地存在。修改图标包括下述改变:该改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映选择的修改图标(例如,在用户上生成笑脸)的处理。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用选择的修改。即,用户可以捕获图像或视频流并且一旦修改图标被选择,修改结果就被实时或接近实时地呈现给用户。此外,当正在捕获视频流时,修改可以是持久的,并且选择的修改图标保持被切换。机器教导的神经网络可以被用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以向用户提供附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的选择和内容捕获的界面(例如,从内容创建者用户界面发起)。在各种示例中,在对修改图标进行初始选择之后,修改可以是持久的。用户可以通过轻击或以其他方式选择正由变换系统修改的面部来开启或关闭修改,并将其存储以供稍后查看或浏览到成像应用的其他区域。在通过变换系统修改多个面部的情况下,用户可以通过轻击或选择图形用户界面内修改和显示的单个面部来全局地开启或关闭修改。在一些示例中,可以单独地修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户界面内显示的各个面部或一系列各个面部来单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,针对其的记录被维护在实体表306中的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。可以例如经由消息收发客户端104的用户界面向其客户端设备启用了定位服务并且在特定时间处于共同定位事件处的用户呈现将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的定位向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另一种类型的内容集合被称为“定位故事”,该“定位故事”使得其客户端设备102位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对定位故事的贡献可能需要二级认证来验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与针对其的记录被维护在消息表302内的消息相关联。类似地,图像表312存储与其消息数据被存储在实体表306中的消息相关联的图像数据。实体表306可以将来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,该消息400由消息收发客户端104生成,以传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容被用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备102的摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获或从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、标贴或其他注解或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)要经由消息收发客户端104呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以被包括在有效载荷中,这些参数值中的每一个与内容中包括的内容项(例如,消息图像有效载荷406内的特定图像或者消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像有效载荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每一个指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向表中存储有内容数据值的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
具有触觉反馈响应的实时通信界面
图5示出了根据一些示例的其中可以实现具有触觉响应的实时视频通信界面的系统500。
如图5所示,系统500可以包括多个客户端设备102。客户端设备102中的每一个包括用户界面(例如,显示设备或触摸屏)以接收来自用户的触摸输入。虽然没有示出,但系统500也可以包括服务器(例如,图1中的消息收发服务器系统108)。
图6示出了根据一个示例性实施方式的系统500中的客户端设备102中的一个的细节。可以理解,系统500中的客户端设备102可以包括在图6中示出的类似元素。客户端设备102可以是如图10中示出的机器1000。
如图6所示,客户端设备102包括壳体604、具有摄像装置开口的摄像装置602、麦克风606和显示设备608。虽然在图6中没有示出,但客户端设备102还可以包括摄像装置透镜、摄像装置图像传感器、处理器、存储器和通信接口。
在一个实施方式中,摄像装置开口是壳体604中的开口,其耦接至客户端设备102中包括的摄像装置602的摄像装置透镜。在一个实施方式中,摄像装置开口可以是允许摄像装置透镜捕获图像或视频内容(例如,媒体内容项)的窗口。摄像装置602可以包括摄像装置透镜和图像传感器。摄像装置透镜可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜捕获图像或数字视频。图像也可以是静态图像帧或包括多个静态图像帧的视频。
在一个示例中,麦克风606(或多个麦克风)可以是将声音转换成电信号的空气接口声音拾取装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的传感器。麦克风可以是数字或模拟微机电系统(MEMS)麦克风。由麦克风606产生的声学信号可以是脉冲密度调制(PDM)信号。
被包括在客户端设备102中的显示设备608可以是触摸屏。显示设备608可以显示用户界面和通信界面,如本文所讨论的。
用户可以通过触摸显示设备608上的位置与显示设备608互动。用户可以通过执行与显示设备608的交互来与显示设备608互动。与显示设备608的交互的示例包括在显示设备608上的某个位置上单点、按压或触摸,双点或按压显示设备608的该位置,按下并保持与显示设备608的接触一段时间。在一个示例中,用户还可以通过以下操作来绘制绘图输入(例如,线条、图案或涂鸦或绘图的一部分):在显示设备608上的起始位置触摸显示设备608,在绘制绘图输入时保持与显示设备608的接触,并在显示设备608上的结束位置释放显示设备608以完成绘图输入。
如图5所示,系统500可以包括第一客户端设备102和第二客户端设备102。
当第一客户端设备102和第二客户端设备102之间的通信会话被建立时,系统500使通信会话的通信界面显示在第一客户端设备102和第二客户端设备102的显示设备608上。该通信会话可以是第一客户端设备102与第二客户端设备102之间的视频通信会话。在一个示例中,该视频通信会话是实时的。
在一个示例中,系统500检测第一客户端设备102的显示设备608上的第一触摸输入以及第二客户端设备102的显示设备608上的第二触摸输入。系统500监测第一触摸输入的位置和第二触摸输入的位置。系统500确定第一客户端设备102的显示设备608上的第一触摸输入的位置与第一客户端设备102的显示设备608上的与第二客户端设备102的显示设备608上的第二触摸输入的位置对应的位置之间的距离。
系统500可以使第一客户端设备102和第二客户端设备102的显示设备608基于距离产生触觉反馈响应。在一个示例中,触觉反馈响应在强度或速度上随着距离的减小而增加,以及在强度或速度上随着所述距离的增加而减小。
相应地,触觉反馈响应是基于用户在其各自的客户端设备102上的触摸输入在时间和位置上同步。所产生的触觉反馈响应的变化强度(intensity)(或强度(strength))或速度进一步将用户引导到其他用户正在触摸的屏幕上的位置。
图7示出了根据一个示例性实施方式的作为头戴式设备700的客户设备102的细节。
图7示出了根据一个示例性实施方式的头戴式设备700的透视图。在图7中,头戴式设备700是一副眼镜。在一些实施方式中,头戴式设备700可以是太阳镜或护目镜。一些实施方式可以包括一个或更多个可穿戴设备,例如带有集成摄像装置的吊坠,该吊坠与头戴式设备700或客户端设备102集成、通信或耦接。任何所需的可穿戴设备都可以与本公开内容的实施方式结合使用,例如手表、耳机、腕带、耳塞、衣服(例如,具有集成电子装置的帽子或夹克)、夹式电子设备,或任何其他可穿戴设备。可以理解的是,虽然没有示出,但包括在头戴式设备700中的系统的一个或更多个部分可以包括在可以与头戴式设备700一起使用的客户设备102(例如,图10中的机器1000)中。
在图7中,头戴式设备700是一副眼镜,该眼镜包括框架706,该框架包括眼线(或轮辋),该眼线经由铰链和/或端件分别耦接至两个柄部(或脚部)。框架706的眼线携带或容纳一对透镜(例如,透镜708a和透镜708b)。框架706包括耦接至第一柄部的第一(例如,右)侧和耦接至第二柄部的第二(例如,左)侧。第一侧与框架706的第二侧相对。
头戴式设备700还包括摄像装置模块(未示出),其包括摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)和至少一个图像传感器。摄像装置透镜704a和摄像装置透镜704b可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜704a和摄像装置透镜704b捕获数字视频。图像也可以是静态图像帧或包括多个静态图像帧的视频。摄像装置模块可以耦接至框架706。如图7所示,框架706耦接至摄像装置透镜704a和摄像装置透镜704b,使摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)面向正面。摄像装置透镜704a和摄像装置透镜704b可以垂直于透镜708a和透镜708b。摄像装置模块可以包括双正面朝向的摄像装置,这些摄像装置被框架706的宽度或头戴式设备700的用户的头部宽度分开。
在图7中,两个柄部(或脚部)分别耦接至麦克风壳体702a和麦克风壳体702b。第一柄部和第二柄部被耦接至头戴式设备700的框架706的相对侧。第一柄部耦接至第一麦克风壳体702a,并且第二柄部耦接至第二麦克风壳体702b。麦克风壳体702a和麦克风壳体702b可以在框架706和脚尖的位置之间耦接至柄部。当用户佩戴头戴式设备700时,麦克风壳体702a和麦克风壳体702b可以位于用户的脚部的任何一侧。
如图7所示,麦克风壳体702a和麦克风壳体702b包裹包括麦克风606的多个麦克风(未示出)。麦克风606可以是一个或更多个麦克风。麦克风是将声音转换成电信号的空气接口的声音拾取装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的传感器。麦克风可以是数字或模拟的微机电系统(MEMS)麦克风。由麦克风产生的声学信号可以是脉冲密度调制(PDM)信号。
在一个实施方式中,头戴式设备700中的一对透镜(例如,透镜708a和透镜708b)还可以包括可以显示通信接口的显示设备。在一些示例中,头戴式设备700可以是虚拟现实(VR)护目镜。
一些实施方式可以包括一个或更多个可穿戴设备,例如具有提供触觉反馈的能力的手套,其与客户设备102集成、通信或耦接至客户设备102。任何所需的可穿戴设备可与本公开内容的实施方式结合使用,例如手表、眼镜、护目镜、虚拟现实(VR)护目镜、头盔、腕带、耳塞、衣服(例如具有集成电子设备的帽子或夹克)、夹式电子设备或任何其他可穿戴设备。
图8A、图8B和图8C示出了根据一个示例性实施方式的被显示在第一客户端设备102的第一用户界面802上的通信界面的示例。可以理解,被显示在第二客户端设备102的第二用户界面802上的通信界面可以包括类似的元素。
在图8A、图8B和图8C所示的实施方式中,通信会话是第一客户端设备102的第一用户与第二客户端设备102的第二用户之间的实时视频通信会话。在第一用户界面802上,显示第二用户的实时图像。类似地,第二用户界面802可以在通信会话期间显示第一用户的实时图像。
第一客户端设备102的第一用户和第二客户端设备102的第二用户存在于通信会话中。换言之,两个用户都在其客户端设备102上显示通信界面,从而他们在通信会话中存在或活跃。
在一个示例中,系统500中的处理器检测第一用户界面上的第一触摸输入和第二用户界面上的第二触摸输入。该处理器可以监测第一用户界面802上的第一触摸输入的位置和第二用户界面802上的第二触摸输入的位置。
如图8A、图8B和图8C所示,显示在第一用户界面802上的通信界面可以包括第一指示符元素804和第二指示符元素806。处理器可以使第一用户界面802在第一触摸输入的位置处显示第一指示符元素804,并在第一用户界面802上与第二用户界面802上的第二触摸输入的位置对应的位置处显示第二指示符元素806。类似地,处理器可以使第二用户界面802在第二触摸输入的位置处显示第一指示符元素804,并在第二用户界面802上与第一用户界面802上的第一触摸输入的位置对应的位置处显示第二指示符元素。
如图8A、图8B和图8C所示,第一用户界面802上的第一指示符元素804和第二指示符元素806之间的距离在图8A中较大,在图8B中减小,而在图8C中再次减小。
处理器可以确定第一用户界面802上的第一触摸输入的位置(例如,第一指示符元素804的位置)与第一用户界面802上与第二用户界面802上的第二触摸输入的位置对应的位置(例如,第二指示符元素806的位置)之间的距离。
处理器可以使第一用户界面802和第二用户界面802基于距离产生触觉反馈响应。在一个示例中,触觉反馈响应在强度或速度上随着距离的减小而增加,以及在强度或速度上随着距离的增加而减小。
在一个示例中,处理器可以确定该距离是否低于预定阈值。如果距离低于预定阈值,则确定用户在其各自的客户端设备102上的触摸输入在时间和位置上同步。响应于确定距离低于预定阈值,处理器可以使第一用户界面802和第二用户界面802产生奖励触觉反馈响应。在一个示例中,奖励触觉响应与触觉反馈响应不同,以指示用户在其触摸输入时是同步的。换言之,当用户同时触摸其客户端设备102上的相同对应位置时,用户被提供奖励触觉响应。
在一个示例中,触觉反馈响应包括第一振动模式,并且奖励触觉反馈响应包括与第一振动模式不同的第二振动模式。奖励触觉反馈响应可以是更强(或更强烈)的振动模式或更快的振动模式。在一个示例中,触觉反馈反应可以是模拟心跳的振动模式。心跳可以是轻微的心跳,其随着距离的减小(例如,第一触摸输入和第二触摸输入越来越近)而变强,也可以是强烈的心跳,其随着距离的增加(例如,第一触摸输入和第二触摸输入越来越远)而变轻微。
响应于确定距离低于预定阈值,在一个示例中,处理器使第一用户界面802和第二用户界面802产生对通信界面的增强808,如图8C所示。增强808可以包括覆盖、视觉效果、动画、声音效果、或其任何组合。在一个示例中,增强808是在预定时间段内临时生成的。
尽管所描述的流程图可以将操作显示为顺序过程,但许多操作可以并行或并发地执行。此外,操作的顺序可以被重新安排。过程在其操作完成后被终止。过程可以对应于方法、程序、算法等。方法的操作可以全部或部分执行,可以与其他方法中的一些或全部操作一起执行,并且可以由任何数量的不同系统执行,例如本文所述的系统,或其任何部分,例如包括在任何系统中的处理器。
在实时视频通信界面上产生触觉反馈响应
图9是根据一些示例的用于在实时视频通信界面上产生触觉反馈响应的过程900的流程图。
在操作902处,系统500的处理器(例如,消息收发服务器系统108和/或客户端设备102)使用于通信会话的通信界面显示在第一客户端设备的第一用户界面上和第二客户端设备的第二用户界面上。该通信会话是在包括第一客户端设备和第二客户端设备的多个客户端设备之间进行的。在一个示例中,第一客户端设备的第一用户和第二客户端设备的第二用户存在于该通信会话中。
在操作904处,处理器检测第一用户界面上的第一触摸输入以及第二用户界面上的第二触摸输入。
在操作906处,处理器监测第一用户界面上的第一触摸输入的位置和第二用户界面上的第二触摸输入的位置。
在操作908处,处理器确定第一用户界面上的第一触摸输入的位置与第一用户界面上与第二用户界面上的第二触摸输入的位置对应的位置之间的距离。
在操作910处,处理器使第一用户界面和第二用户界面基于该距离产生触觉反馈响应。在一个示例中,触觉反馈响应在强度或速度上随着距离的减小而增加,以及在强度或速度上随着距离的增加而减小。
在一个示例中,响应于确定距离低于预定阈值,处理器使第一用户界面和第二用户界面产生奖励触觉反馈响应。奖励触觉响应可以与触觉反馈响应不同。触觉反馈响应可以包括第一振动模式,奖励触觉反馈响应可以包括不同于第一振动模式的第二振动模式。响应于确定距离低于预定阈值,处理器可以使第一用户界面和第二用户界面产生对通信界面的增强。
机器结构
图10是机器1000的图解表示,在该机器1000内可以执行用于使机器1000执行本文中所讨论的方法中的任何一种或更多种方法的指令1010(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1010可以使机器1000执行本文中描述的方法中的任何一种或更多种方法。指令1010将通用的未经编程的机器1000转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1000。机器1000可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1000可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1000可以包括但不限于服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1000采取的动作的指令1010的任何机器。此外,虽然仅示出了单个机器1000,但是术语“机器”还应当被视为包括单独地或联合地执行指令1010以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1000可以包括客户端设备102或者形成消息收发服务器系统108的一部分的多个服务器设备中的任何一个。在一些示例中,机器1000还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器1000可以包括可以被配置成经由总线1040彼此通信的处理器1004、存储器1006和输入/输出(I/O)部件1002。在示例中,处理器1004(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1010的处理器1008和处理器1012。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图10示出了多个处理器1004,但是机器1000可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器1006包括主存储器1014、静态存储器1016和存储单元1018,均可由处理器1004经由总线1040访问。主存储器1006、静态存储器1016和存储单元1018存储实施本文中描述的方法或功能中的任何一个或更多个方法或功能的指令1010。指令1010还可以在其由机器1000执行期间完全地或部分地驻留在主存储器1014内、静态存储器1016内、存储单元1018内的机器可读介质1120内、处理器1004中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者其任何合适的组合内。
I/O部件1002可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。特定机器中包括的特定I/O部件1002将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当认识到,I/O部件1002可以包括图10中未示出的许多其他部件。在各种示例中,I/O部件1002可以包括用户输出部件1026和用户输入部件1028。用户输出部件1026可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1028可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1002可以包括生物计量部件1030、运动部件1032、环境部件1034或位置部件1036以及广泛的一系列其他部件。例如,生物计量部件1030包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1032包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1034包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或用于测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更常规的摄像装置模式捕获静止图像和视频,这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1036包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1002还包括通信部件1038,该通信部件1038可操作以经由相应的耦接或连接将机器1000耦接至网络1022或设备1024。例如,通信部件1038可以包括与网络1022接口的网络接口部件或另一合适的设备。在其他示例中,通信部件1038可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能耗)、/>部件、和用于经由其他形式提供通信的其他通信部件。设备1024可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1038可以检测标识符,或者包括可操作以检测标识符的部件。例如,通信部件1038可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或者声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1038得到各种信息,例如经由因特网协议(IP)地理定位得到定位、经由信号三角测量得到定位、经由检测可以指示特定定位的NFC信标信号得到定位等。
各种存储器(例如,主存储器1014、静态存储器1016以及处理器1004的存储器)以及存储单元1018可以存储由本文中描述的方法或功能中的任何一个或更多个方法或功能实施或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1010)在由处理器1004执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1038中包括的网络接口部件)使用传输介质并且使用若干公知的传输协议中的任何一个传输协议(例如,超文本传输协议(HTTP))通过网络1022来发送或接收指令1010。类似地,可以使用传输介质经由与设备1024的耦接(例如,对等耦接)来发送或接收指令1010。
软件架构
图11是示出可以安装在本文中描述的设备中的任何一个或更多个设备上的软件架构1104的框图1100。软件架构1104由硬件诸如包括处理器1120、存储器1126和I/O部件1138的机器1102支持。在该示例中,软件架构1104可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1104包括诸如操作系统1112、库1110、框架1208和应用1106的层。在操作上,应用1106通过软件堆栈来激活API调用1150,并且响应于API调用1150接收消息1152。
操作系统1112管理硬件资源并且提供公共服务。操作系统1112包括例如核1114、服务1116和驱动器1122。核1114充当硬件层与其他软件层之间的抽象层。例如,核1114提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1116可以为其他软件层提供其他公共服务。驱动器1122负责控制底层硬件或与底层硬件接口。例如,驱动器1122可以包括显示驱动器、摄像装置驱动器、低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1110提供由应用1106使用的公共低级基础设施。库1110可以包括系统库1118(例如,C标准库),该系统库1118提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1110可以包括API库1124,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1110还可以包括各种其他库1128,以向应用1106提供许多其他API。
框架1108提供由应用1106使用的公共高级基础设施。例如,框架1108提供各种图形用户界面(GUI)功能、高级资源管理和高级定位服务。框架1108可以提供可以由应用1106使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1106可以包括家庭应用1136、联系人应用1130、浏览器应用1132、书籍阅读器应用1134、定位应用1142、媒体应用1144、消息收发应用1146、游戏应用1148和诸如第三方应用1140的各种各样的其他应用。应用1106是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1106中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,第三方应用1140(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTMPhone的移动操作系统或另外的移动操作系统上运行的移动软件。在该示例中,第三方应用1140可以激活由操作系统1112提供的API调用1150以有助于本文中描述的功能。
具有头戴式设备的系统
图12示出了其中可以根据一个示例性实施方式来实现头戴式设备700的系统1200。图12是示例性头戴式设备700的高级功能框图,该示例性头戴式设备700通过各种网络1236通信地耦接移动客户端设备102和服务器系统1230。
头戴式设备700包括摄像装置,例如可见光摄像装置1210、红外发射器1212和红外摄像装置1214中的至少一个。该摄像装置可以包括具有图7中的摄像装置透镜704a和摄像装置透镜704b的摄像装置模块。
客户端设备102可以能够使用低功率无线连接1232和高速无线连接1234与头戴式设备700连接。客户端设备102被连接至服务器系统1230和网络1236。网络1236可以包括有线连接和无线连接的任何组合。
头戴式设备700还包括光学组件1202的图像显示器中的两个图像显示器。光学组件1202的两个图像显示器包括与头戴式设备700的左侧边相关的一个图像显示器和与右侧边相关的一个图像显示器。头戴式设备700还包括图像显示驱动器1206、图像处理器1208、低功耗的低功率电路系统1224和高速电路系统1216。光学组件1202的图像显示器是用于向头戴式设备700的用户呈现图像和视频,包括可以包括图形用户界面的图像。
图像显示驱动器1206命令和控制光学组件1202的图像显示器的图像显示。图像显示驱动器1206可以将图像数据直接交付给光学组件1202的图像显示器的图像显示器以进行展示,或者可以将图像数据转换为适合交付给图像显示设备的信号或数据格式。例如,图像数据可以是根据诸如H.264(MPEG-4第10部分)、HEVC、Theora、Dirac、RealVideo RV40、VP8、VP9等的压缩格式格式化的视频数据,并且静态图像数据可以根据诸如便携式网络组(PNG)、联合摄影专家组(JPEG)、标签图像文件格式(TIFF)或可交换图像文件格式(Exif)等的压缩格式格式化。
如上所述,头戴式设备700包括框架706和从框架706的侧边延伸的柄部(或脚部)。头戴式设备700还包括用户输入设备1204(例如,触摸传感器或按钮),其包括头戴式设备700上的输入表面。用户输入设备1204(例如,触摸传感器或按钮)要从用户那里接收输入选择,以操纵呈现图像的图形用户界面。
图12中所示的用于头戴式设备700的部件位于一个或更多个电路板(例如轮辋或脚部中的PCB或柔性PCB)上。替选地或附加地,所描述的部件可以位于头戴式设备700的大块、框架、铰链或桥中。左和右可见光摄像装置1210可以包括数字摄像装置元件,例如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、摄像装置透镜704a和摄像装置透镜704b,或可用于捕获包括具有未知对象的场景图像的数据的任何其他各自的可见光或光捕获元件。
头戴式设备700包括存储器1220,其存储指令以执行本文所述的功能的子集或全部。存储器1220还可以包括存储设备。
如图12所示,高速电路系统1216包括高速处理器1218、存储器1220和高速无线电路系统1222。在该实施方式中,图像显示驱动器1206被耦接至高速电路系统1216并由高速处理器1218操作,以驱动光学组件1202的图像显示器的左图像显示器和右图像显示器。高速处理器1218可以是任何能够管理高速通信和头戴式设备700所需的任何一般计算系统的操作的处理器。高速处理器1218包括使用高速无线电路系统1222管理高速无线连接1234到无线局域网(WLAN)上的高速数据传输所需的处理资源。在某些示例中,高速处理器1218执行操作系统,例如LINUX操作系统或头戴式设备700的其他此类操作系统,并且该操作系统被存储在存储器1220中以便执行。除了任何其他职责外,执行头戴式设备700的软件架构的高速处理器1218被用来管理与高速无线电路系统1222的数据传输。在某些示例中,高速无线电路系统1222被配置成实现电气和电子工程师协会(IEEE)802.11通信标准,在此也被称为Wi-Fi。在其他示例中,其他高速通信标准可由高速无线电路系统1222实现。
头戴式设备700的低功率无线电路系统1228和高速无线电路系统1222可以包括短距离收发器(蓝牙TM)和无线广域网、局域网或广域网收发器(例如,蜂窝或WIFI)。包括经由低功率无线连接1232和高速无线连接1234进行通信的收发器的客户端设备102可以使用头戴式设备700的架构的细节来实现,网络1236的其他元件也是如此。
存储器1220包括能够存储各种数据和应用的任何存储设备,尤其包括由左右可见光摄像装置1210、红外摄像装置1214和图像处理器1208产生的摄像装置数据,以及由图像显示驱动器1206在光学组件1202的图像显示器的图像显示器上产生用于显示的图像。虽然存储器1220被显示为与高速电路系统1216集成,但在其他实例中,存储器1220可以是头戴式设备700的独立的独立元件。在某些这样的示例中,电路由线路可以提供通过包括高速处理器1218的芯片从图像处理器1208或低功率处理器1226到存储器1220的连接。在其他示例中,高速处理器1218可以管理存储器1220的寻址,从而低功率处理器1226将在需要涉及存储器1220的读或写操作的任何时候启动高速处理器1218。
如图12所示,头戴式设备700的低功率处理器1226或高速处理器1218可以耦接至摄像装置(可见光摄像装置1210;红外发射器1212,或红外摄像装置1214)、图像显示驱动器1206、用户输入设备1204(例如,触摸传感器或按钮)和存储器1220。
头戴式设备700与主机连接。例如,头戴式设备700经由高速无线连接1234与客户设备102配对,或者经由网络1236连接至服务器系统1230。服务器系统1230可以是作为服务或网络计算系统的一部分的一个或更多个计算设备,例如,其包括处理器、存储器和网络通信接口,以通过网络1236与客户端设备102和头戴式设备700通信。
客户端设备102包括处理器和耦接至处理器的网络通信接口。网络通信接口允许通过网络1236、低功率无线连接1232或高速无线连接1234进行通信。客户端设备102还可以在客户端设备102的存储器中存储至少部分指令以实现本文所述的功能。
头戴式设备700的输出部件包括视觉部件,例如显示器,如液晶显示器(LCD)、等离子体显示面板(PDP)、发光二极管(LED)显示器、投影仪或波导。光学组件的图像显示由图像显示驱动器1206驱动。头戴式设备700的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号发生器等。头戴式设备700、客户端设备102和服务器系统1230的输入部件(例如用户输入设备1204)可以包括字母数字输入部件(例如,键盘、配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如、鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向性工具)、触觉输入部件(例如,物理按钮、提供触摸或触摸手势的位置和力度的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
头戴式设备700可以选择性地包括附加的外围设备元件。这样的外围设备元件可以包括与头戴式设备700集成的生物识别传感器、附加传感器或显示元件。例如,外围设备元件可以包括任何I/O元件,包括输出部件、运动部件、位置元件或本文所述的任何其他此类元件。
例如,生物识别部件包括检测表情(例如,手部表情、面部表情、声乐表情、身体手势或眼球追踪)、测量生物信号(例如,血压、心率、体温、汗液或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等部件。运动部件包括加速度传感器部件(如加速度计)、重力传感器部件、旋转传感器部件(如陀螺仪),等等。位置部件包括生成位置坐标的位置传感器部件(例如,全球定位系统(GPS)接收器部件)、生成定位系统坐标的Wi-Fi___33或蓝牙TM收发器、高度传感器部件(例如,检测可从中得出高度的气压的高度计或气压计)、方向传感器部件(例如,磁力计)等。这样的定位系统坐标也可以通过低功率无线连接1232和高速无线连接1234从客户端设备102通过低功率无线电路系统1228或高速无线电路系统1222接收。
如果使用类似于“A、B或C中的至少一个”、“A、B和C中的至少一个”、“一个或更多个A、B或C”、或“A、B和C中的一个或更多个”的短语,其意指该短语应解释为:在一个实施方式中可以单独存在A,在一个实施方式中可以单独存在B,在一个实施方式中可以单独存在C,或者在一个实施方式中可以存在A、B和C的任何组合;例如,A和B,A和C,B和C,或A和B和C。
在不偏离本公开内容的范围的情况下,可以对所公开的实施方式进行改变和修改。这些和其他变化或修改旨在包括在本公开内容的范围内,如所附权利要求所表达的。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有以下边界的设备、物理实体或逻辑:所述边界由功能或子例程调用、分支点、API或对特定处理或控制功能提供分区或模块化的其他技术来定义。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件部件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行所配置的功能的特定机器(或机器的特定部件)并且不再是通用处理器。应当认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被配置为各自不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置特定的一个或多个处理器,以例如在一个时刻处构成特定硬件部件并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在这些硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在多个硬件部件在不同时间被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。在本文中描述的示例方法的各种操作可以至少部分地由临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,在本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器或者处理器实现的部件执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不仅驻留在单个机器内,而且跨多个机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨多个地理定位分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换地使用。
“短暂消息”是指可以在时间有限的持续时间内访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换地使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令并且包括数字或模拟通信信号的任何无形介质或者有助于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特性中的一个或更多个特性被以将信息编码在信号中的方式设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物并且可以在本公开内容中互换使用。

Claims (27)

1.一种系统,包括:
处理器;以及
存储器,其上具有指令,所述指令当由所述处理器执行时使所述系统执行操作,所述操作包括:
使用于通信会话的通信界面显示在第一客户端设备的第一用户界面上和第二客户端设备的第二用户界面上,其中,所述通信会话在包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间进行;
检测所述第一用户界面上的第一触摸输入和所述第二用户界面上的第二触摸输入;
监测所述第一用户界面上的所述第一触摸输入的位置和所述第二用户界面上的所述第二触摸输入的位置;
确定所述第一用户界面上的所述第一触摸输入的位置与所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置之间的距离;以及
使所述第一用户界面和所述第二用户界面根据所述距离产生触觉反馈响应,其中,所述触觉反馈响应在强度或速度上随着所述距离的减小而增加,以及在强度或速度上随着所述距离的增加而减小。
2.根据权利要求1所述的系统,其中,所述第一客户端设备的第一用户和所述第二客户端设备的第二用户存在于所述通信会话中。
3.根据权利要求1所述的系统,其中,所述系统执行操作还包括:
响应于确定所述距离低于预定阈值,使所述第一用户界面和所述第二用户界面产生奖励触觉反馈响应,所述奖励触觉响应与所述触觉反馈响应不同。
4.根据权利要求3所述的系统,其中,所述触觉反馈响应包括第一振动模式,并且所述奖励触觉反馈响应包括与所述第一振动模式不同的第二振动模式。
5.根据权利要求3所述的系统,其中,所述系统执行操作还包括:
响应于确定所述距离低于预定阈值,使所述第一用户界面和所述第二用户界面产生对所述通信界面的增强。
6.根据权利要求5所述的系统,其中,所述增强包括覆盖、视觉效果、动画、声音效果或其任何组合。
7.根据权利要求5所述的系统,其中,所述增强是在预定时间段内临时生成的。
8.根据权利要求1所述的系统,其中,所述系统执行操作还包括:
使所述第一用户界面在所述第一触摸输入的位置处显示第一指示符元素,并在所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置处显示第二指示符元素;或者
使所述第二用户界面在所述第二触摸输入的位置处显示所述第一指示符元素,并在所述第二用户界面上与所述第一用户界面上的所述第一触摸输入的位置对应的位置处显示所述第二指示符元素。
9.根据权利要求1所述的系统,其中,所述通信会话是实时视频通信会话。
10.一种方法,包括:
由处理器使用于通信会话的通信界面显示在第一客户端设备的第一用户界面和第二客户端设备的第二用户界面上,其中,所述通信会话在包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间进行;
检测所述第一用户界面上的第一触摸输入和所述第二用户界面上的第二触摸输入;
监测所述第一用户界面上的所述第一触摸输入的位置和所述第二用户界面上的所述第二触摸输入的位置;
确定所述第一用户界面上的所述第一触摸输入的位置与所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置之间的距离;以及
使所述第一用户界面和所述第二用户界面基于所述距离产生触觉反馈响应,其中,所述触觉反馈响应在强度或速度上随着所述距离的减小而增加,以及在强度或速度上随着所述距离的增加而减小。
11.根据权利要求10所述的方法,其中,所述第一客户端设备的第一用户和所述第二客户端设备的第二用户存在于所述通信会话中。
12.根据权利要求10所述的方法,还包括:
响应于确定所述距离低于预定阈值,使所述第一用户界面和所述第二用户界面产生奖励触觉反馈响应,所述奖励触觉响应与所述触觉反馈响应不同。
13.根据权利要求12所述的方法,其中,所述触觉反馈响应包括第一振动模式,并且所述奖励触觉反馈响应包括与所述第一振动模式不同的第二振动模式。
14.根据权利要求12所述的方法,还包括:
响应于确定所述距离低于预定阈值,使所述第一用户界面和所述第二用户界面产生对所述通信界面的增强。
15.根据权利要求14所述的方法,其中,所述增强包括覆盖、视觉效果、动画、声音效果或其任何组合。
16.根据权利要求14所述的方法,其中,所述增强是在预定时间段内临时生成的。
17.根据权利要求10所述的方法,还包括:
使所述第一用户界面在所述第一触摸输入的位置处显示第一指示符元素,并在所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置处显示第二指示符元素;或者
使所述第二用户界面在所述第二触摸输入的位置处显示所述第一指示符元素,并在所述第二用户界面上与所述第一用户界面上的所述第一触摸输入的位置对应的位置处显示所述第二指示符元素。
18.根据权利要求10所述的方法,其中,所述通信会话是实时视频通信会话。
19.一种其上存储有指令的非暂态计算机可读存储介质,所述指令当由处理器执行时使所述处理器执行操作,所述操作包括:
使用于通信会话的通信界面显示在第一客户端设备的第一用户界面上和第二客户端设备的第二用户界面上,其中,所述通信会话在包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间进行;
检测所述第一用户界面上的第一触摸输入和所述第二用户界面上的第二触摸输入;
监测所述第一用户界面上的所述第一触摸输入的位置和所述第二用户界面上的所述第二触摸输入的位置;
确定所述第一用户界面上的所述第一触摸输入的位置与所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置之间的距离;以及
使所述第一用户界面和所述第二用户界面基于所述距离产生触觉反馈响应,其中,所述触觉反馈响应在强度或速度上随着所述距离的减小而增加,以及在强度或速度上随着所述距离的增加而减小。
20.根据权利要求19所述的非暂态计算机可读存储介质,其中,所述第一客户端设备的第一用户和所述第二客户端设备的第二用户存在于所述通信会话中。
21.根据权利要求19所述的非暂态计算机可读存储介质,其中,所述处理器执行操作还包括:
响应于确定所述距离低于预定阈值,使所述第一用户界面和所述第二用户界面产生奖励触觉反馈响应,所述奖励触觉响应与所述触觉反馈响应不同。
22.根据权利要求21所述的非暂态计算机可读存储介质,其中,所述触觉反馈响应包括第一振动模式,并且所述奖励触觉反馈响应包括与所述第一振动模式不同的第二振动模式。
23.根据权利要求21所述的非暂态计算机可读存储介质,其中,所述处理器执行操作还包括:
响应于确定所述距离低于所述预定阈值,使所述第一用户界面和所述第二用户界面产生对所述通信界面的增强。
24.根据权利要求23所述的非暂态计算机可读存储介质,其中,所述增强包括覆盖、视觉效果、动画、声音效果或其任何组合。
25.根据权利要求23所述的非暂态计算机可读存储介质,其中,所述增强是在预定时间段内临时生成的。
26.根据权利要求19所述的非暂态计算机可读存储介质,其中,所述处理器执行操作还包括:
使所述第一用户界面在所述第一触摸输入的位置处显示第一指示符元素,并在所述第一用户界面上与所述第二用户界面上的所述第二触摸输入的位置对应的位置处显示第二指示符元素;或者
使所述第二用户界面在所述第二触摸输入的位置处显示所述第一指示符元素,并在所述第二用户界面上与所述第一用户界面上的所述第一触摸输入的位置对应的位置处显示所述第二指示符元素。
27.根据权利要求19所述的非暂态计算机可读存储介质,其中,所述通信会话是实时视频通信会话。
CN202180088077.7A 2020-12-31 2021-12-29 具有触觉反馈的实时视频通信界面 Pending CN116670635A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063133048P 2020-12-31 2020-12-31
US63/133,048 2020-12-31
PCT/US2021/065547 WO2022147151A1 (en) 2020-12-31 2021-12-29 Real-time video communication interface with haptic feedback

Publications (1)

Publication Number Publication Date
CN116670635A true CN116670635A (zh) 2023-08-29

Family

ID=80122317

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180088077.7A Pending CN116670635A (zh) 2020-12-31 2021-12-29 具有触觉反馈的实时视频通信界面

Country Status (5)

Country Link
US (2) US11997422B2 (zh)
EP (1) EP4272060A1 (zh)
KR (1) KR20230128063A (zh)
CN (1) CN116670635A (zh)
WO (1) WO2022147151A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
US11997422B2 (en) 2020-12-31 2024-05-28 Snap Inc. Real-time video communication interface with haptic feedback response
US12050729B2 (en) 2021-03-31 2024-07-30 Snap Inc. Real-time communication interface with haptic and audio feedback response

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230124086A (ko) 2020-12-31 2023-08-24 스냅 인코포레이티드 햅틱 피드백 응답을 갖는 전자 통신 인터페이스

Family Cites Families (138)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7286141B2 (en) 2001-08-31 2007-10-23 Fuji Xerox Co., Ltd. Systems and methods for generating and controlling temporary digital ink
US7779166B2 (en) 2002-12-08 2010-08-17 Immersion Corporation Using haptic effects to enhance information content in communications
US20060066569A1 (en) 2003-12-08 2006-03-30 Immersion Corporation, A Delaware Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
US8253686B2 (en) 2007-11-26 2012-08-28 Electronics And Telecommunications Research Institute Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same
KR100952698B1 (ko) 2008-03-10 2010-04-13 한국표준과학연구원 촉감 피드백장치를 이용한 촉감전달방법 및 그 시스템
US8576181B2 (en) 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
US20090303175A1 (en) 2008-06-05 2009-12-10 Nokia Corporation Haptic user interface
WO2010009163A1 (en) 2008-07-15 2010-01-21 Immersion Corporation Systems and methods for haptic message transmission
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
CN102473035B (zh) * 2009-07-22 2015-01-21 意美森公司 具有横跨平台的触觉反馈的交互式触摸屏游戏象征
KR101189053B1 (ko) 2009-09-05 2012-10-10 에스케이플래닛 주식회사 아바타 기반 화상 통화 방법 및 시스템, 이를 지원하는 단말기
KR20110030223A (ko) 2009-09-17 2011-03-23 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20140171036A1 (en) 2009-11-18 2014-06-19 Gwendolyn Simmons Method of communication
US9298260B2 (en) 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
US9678569B2 (en) 2010-04-23 2017-06-13 Immersion Corporation Systems and methods for providing haptic effects
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
DE102010052759A1 (de) 2010-08-11 2012-03-22 Vassilios Dikeoulias Geräteanordnung zur Simulation der gegenseitigen Berührung zweier Menschen aus der Ferne
US8781398B2 (en) 2010-09-23 2014-07-15 Kyocera Corporation Method and apparatus to transfer files between two touch screen interfaces
DE102010046359A1 (de) 2010-09-25 2012-03-29 Vassilios Dikeoulias Geräteanordnung zur Simulation der gegenseitigen streichenden Berührung zweier Menschen aus der Ferne
US9760241B1 (en) 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US20130145240A1 (en) 2011-12-05 2013-06-06 Thomas G. Anderson Customizable System for Storytelling
US20130227411A1 (en) 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
US20150370320A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Smart Clothing with Human-to-Computer Textile Interface
US8937556B2 (en) 2012-06-22 2015-01-20 Blackberry Limited Indicating the progress of a boot sequence on a communication device
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
US9223403B2 (en) 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
US9285880B2 (en) 2012-12-26 2016-03-15 Panasonic Intellectual Property Management Co., Ltd. Touch panel device and method of controlling a touch panel device
KR102035305B1 (ko) 2013-01-15 2019-11-18 삼성전자주식회사 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
CN103049761B (zh) 2013-01-21 2016-08-03 中国地质大学(武汉) 基于手语手套的手语识别方法及系统
US20140313142A1 (en) 2013-03-07 2014-10-23 Tactus Technology, Inc. Method for remotely sharing touch
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US20160048209A1 (en) 2013-05-21 2016-02-18 Samsung Electronics Co., Ltd. Method and apparatus for controlling vibration
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US20160004322A1 (en) 2013-07-05 2016-01-07 Clarion Co., Ltd. Information Processing Device
US20150084875A1 (en) 2013-09-26 2015-03-26 Min Liu Enhanced haptic feedback for handheld mobile computing devices
US9558756B2 (en) 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
JP2015114948A (ja) 2013-12-13 2015-06-22 株式会社東海理化電機製作所 操作装置
US10437341B2 (en) 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
JP2015170213A (ja) 2014-03-07 2015-09-28 キヤノン株式会社 携帯装置、制御方法及びプログラム
KR20150118813A (ko) 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
WO2016018040A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. A terminal and a method of controlling the same
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
WO2016036427A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Electronic device with rotatable input mechanism
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
FR3026868B1 (fr) 2014-10-02 2019-08-16 Dav Dispositif et procede de commande pour vehicule automobile
US9971406B2 (en) 2014-12-05 2018-05-15 International Business Machines Corporation Visually enhanced tactile feedback
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
WO2016168591A1 (en) 2015-04-16 2016-10-20 Robert Bosch Gmbh System and method for automated sign language recognition
US20180107279A1 (en) 2015-04-20 2018-04-19 Afarin Pirzadeh Applications, systems, and methods for facilitating emotional gesture-based communications
US9952669B2 (en) 2015-04-21 2018-04-24 Immersion Corporation Dynamic rendering of etching input
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
JP2017174300A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置、情報処理方法およびプログラム
US9965467B2 (en) 2016-03-28 2018-05-08 Avaya Inc. Sign language communication with communication devices
US10376797B2 (en) 2016-05-12 2019-08-13 Andrew Howarth Platform for gestural gaming device
US10628664B2 (en) 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
DK201670596A1 (en) 2016-06-12 2018-02-19 Apple Inc Digital touch on live video
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
EP3501170A4 (en) 2016-08-19 2020-01-01 Oiid, LLC METHOD AND SYSTEM FOR CREATING AND PLAYING INTERACTIVE MUSIC
US10372214B1 (en) 2016-09-07 2019-08-06 Apple Inc. Adaptable user-selectable input area in an electronic device
WO2018067605A1 (en) 2016-10-03 2018-04-12 Poynt Co. System and method for disabled user assistance
US10446059B2 (en) 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
WO2018113740A1 (en) 2016-12-21 2018-06-28 Zyetric Technologies Limited Combining virtual reality and augmented reality
EP3571569B1 (en) 2017-01-19 2021-12-01 Telefonaktiebolaget LM Ericsson (PUBL) Improved transmission of haptic input
US10936067B1 (en) 2017-02-13 2021-03-02 Snap, Inc. Generating a response that depicts haptic characteristics
WO2018152778A1 (en) 2017-02-24 2018-08-30 Immersion Corporation Virtual affective touch
EP3367216A1 (en) 2017-02-24 2018-08-29 Immersion Corporation Systems and methods for virtual affective touch
WO2018213423A1 (en) 2017-05-16 2018-11-22 Apple Inc. Tactile feedback for user interfaces
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
EP3707693A1 (en) 2017-11-08 2020-09-16 Signall Technologies Zrt Computer vision based sign language interpreter
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
KR102044241B1 (ko) * 2017-12-28 2019-11-13 주식회사 하이퍼커넥트 영상 통화 서비스를 제공하는 단말
US10962809B1 (en) 2018-01-10 2021-03-30 Snap Inc. Eyewear device with finger activated touch sensor
US11092998B1 (en) 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
US10621815B2 (en) 2018-02-02 2020-04-14 Aristocrat Technologies Australia Pty Limited Electronic gaming machine and methods for displaying supplemental information
US10775892B2 (en) 2018-04-20 2020-09-15 Immersion Corporation Systems and methods for multi-user shared virtual and augmented reality-based haptics
US11227626B1 (en) 2018-05-21 2022-01-18 Snap Inc. Audio response messages
US20190369754A1 (en) * 2018-06-01 2019-12-05 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US10812150B2 (en) 2018-08-19 2020-10-20 International Forte Group LLC First portable electronic device for facilitating a proximity based interaction with a second portable electronic device
CN109254658A (zh) 2018-08-29 2019-01-22 上海天马微电子有限公司 触觉反馈方法、触觉反馈装置及触摸显示装置
WO2020068455A1 (en) 2018-09-28 2020-04-02 Snap Inc. Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US10930265B2 (en) 2018-11-28 2021-02-23 International Business Machines Corporation Cognitive enhancement of communication with tactile stimulation
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
CN109876433B (zh) 2019-03-28 2020-09-18 瑞声科技(新加坡)有限公司 一种游戏角色的位置提示方法、终端设备以及存储介质
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
KR20220062338A (ko) 2019-09-09 2022-05-16 스냅 인코포레이티드 스테레오 카메라들로부터의 손 포즈 추정
CN112600961A (zh) 2019-09-19 2021-04-02 华为技术有限公司 一种音量调节方法及电子设备
US11169600B1 (en) 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11087728B1 (en) 2019-12-21 2021-08-10 Snap Inc. Computer vision and mapping for audio applications
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11488358B2 (en) 2020-02-05 2022-11-01 Snap Inc. Augmented reality session creation using skeleton tracking
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US20210405761A1 (en) 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
US11995774B2 (en) 2020-06-29 2024-05-28 Snap Inc. Augmented reality experiences using speech and text captions
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11989347B2 (en) 2020-11-18 2024-05-21 Samsung Electronics Co., Ltd. Haptic glove apparatus and virtual reality apparatus including the same
KR20230117236A (ko) 2020-12-16 2023-08-07 스냅 인코포레이티드 수화-음성 번역을 포함하는 아이웨어
CN116724285A (zh) 2020-12-29 2023-09-08 美国斯耐普公司 用于控制虚拟和图形元素的微手势
KR20230128063A (ko) 2020-12-31 2023-09-01 스냅 인코포레이티드 햅틱 피드백을 갖는 실시간 비디오 통신 인터페이스
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
WO2022147158A1 (en) 2020-12-31 2022-07-07 Snap Inc. Communication interface with haptic feedback response
CN116710885A (zh) 2020-12-31 2023-09-05 斯纳普公司 具有触觉反馈响应的通信界面
KR20230124086A (ko) 2020-12-31 2023-08-24 스냅 인코포레이티드 햅틱 피드백 응답을 갖는 전자 통신 인터페이스
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US20220317774A1 (en) 2021-03-31 2022-10-06 Snap Inc. Real-time communication interface with haptic and audio feedback response
CN117120959A (zh) 2021-03-31 2023-11-24 斯纳普公司 具有触觉反馈响应和音频反馈响应的界面
US12050729B2 (en) 2021-03-31 2024-07-30 Snap Inc. Real-time communication interface with haptic and audio feedback response
WO2022212177A1 (en) 2021-03-31 2022-10-06 Snap Inc. Virtual reality interface with haptic feedback response
CN117157609A (zh) 2021-03-31 2023-12-01 斯纳普公司 具有触觉反馈响应的虚拟现实界面
US20220317775A1 (en) 2021-03-31 2022-10-06 Snap Inc. Virtual reality communication interface with haptic feedback response
WO2022212175A1 (en) 2021-03-31 2022-10-06 Snap Inc. Interface with haptic and audio feedback response
WO2022212174A1 (en) 2021-03-31 2022-10-06 Snap Inc. Interface with haptic and audio feedback response
CN117120962A (zh) 2021-04-08 2023-11-24 斯纳普公司 用于控制虚拟和图形元素的映射手部区域之间的双手交互
KR20230170086A (ko) 2021-04-19 2023-12-18 스냅 인코포레이티드 가상 및 그래픽 엘리먼트들을 애니메이팅하고 제어하기 위한 손 제스처
EP4342196A1 (en) 2021-05-19 2024-03-27 Snap, Inc. Beacons for localization and content delivery to wearable devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11989348B2 (en) 2020-12-31 2024-05-21 Snap Inc. Media content items with haptic feedback augmentations
US11997422B2 (en) 2020-12-31 2024-05-28 Snap Inc. Real-time video communication interface with haptic feedback response
US12050729B2 (en) 2021-03-31 2024-07-30 Snap Inc. Real-time communication interface with haptic and audio feedback response

Also Published As

Publication number Publication date
US20240187551A1 (en) 2024-06-06
US11997422B2 (en) 2024-05-28
US20220210370A1 (en) 2022-06-30
EP4272060A1 (en) 2023-11-08
KR20230128063A (ko) 2023-09-01
WO2022147151A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN116745743A (zh) 具有触觉反馈响应的通信界面
US11531400B2 (en) Electronic communication interface with haptic feedback response
US11997422B2 (en) Real-time video communication interface with haptic feedback response
US20240184372A1 (en) Virtual reality communication interface with haptic feedback response
US20220317775A1 (en) Virtual reality communication interface with haptic feedback response
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
US12050729B2 (en) Real-time communication interface with haptic and audio feedback response
CN116685941A (zh) 具有触觉反馈增强的媒体内容项
CN117157609A (zh) 具有触觉反馈响应的虚拟现实界面
CN117120959A (zh) 具有触觉反馈响应和音频反馈响应的界面
CN116710885A (zh) 具有触觉反馈响应的通信界面
WO2022212174A1 (en) Interface with haptic and audio feedback response
WO2022212175A1 (en) Interface with haptic and audio feedback response
US11825276B2 (en) Selector input device to transmit audio signals
US11874960B2 (en) Pausing device operation based on facial movement
US20220210336A1 (en) Selector input device to transmit media content items
US20220375103A1 (en) Automatic media capture based on motion sensor data
US20220373791A1 (en) Automatic media capture using biometric sensor data
US20220318303A1 (en) Transmitting metadata via inaudible frequencies
CN117321545A (zh) 基于运动传感器数据的自动媒体捕获
CN117337563A (zh) 用于立体拼接的硬件编码器
CN117157608A (zh) 用户定义的情景空间
WO2022245856A1 (en) Automatic media capture based on motion sensor data
WO2022245831A1 (en) Automatic media capture using biometric sensor data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination