CN116710885A - 具有触觉反馈响应的通信界面 - Google Patents
具有触觉反馈响应的通信界面 Download PDFInfo
- Publication number
- CN116710885A CN116710885A CN202180088068.8A CN202180088068A CN116710885A CN 116710885 A CN116710885 A CN 116710885A CN 202180088068 A CN202180088068 A CN 202180088068A CN 116710885 A CN116710885 A CN 116710885A
- Authority
- CN
- China
- Prior art keywords
- user interface
- location
- touch input
- client device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004891 communication Methods 0.000 title claims abstract description 116
- 230000004044 response Effects 0.000 title claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 56
- 230000015654 memory Effects 0.000 claims description 49
- 230000000007 visual effect Effects 0.000 claims description 27
- 238000003860 storage Methods 0.000 claims description 22
- 230000007423 decrease Effects 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 10
- 210000003128 head Anatomy 0.000 description 46
- 230000006870 function Effects 0.000 description 43
- 230000004048 modification Effects 0.000 description 35
- 238000012986 modification Methods 0.000 description 35
- 230000009466 transformation Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000003287 optical effect Effects 0.000 description 13
- 230000003190 augmentative effect Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 12
- 238000007726 management method Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000006855 networking Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 239000008186 active pharmaceutical agent Substances 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001052 transient effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 150000003071 polychlorinated biphenyls Chemical class 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000004266 retinal recognition Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 241000278713 Theora Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72439—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
- H04N2005/2726—Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
用于生成触觉反馈响应的方法通过处理器使通信会话的通信界面显示在第一用户接口上和第二用户接口上而开始。处理器检测第一用户接口上的第一触摸输入。处理器使第二用户接口在第二客户端设备的第二用户接口上的与第一触摸输入在第一用户接口上的位置对应的位置处显示第一指示器元件。第一指示器元件被显示达预定时间段。处理器检测第二用户接口上的第二触摸输入。响应于确定第二触摸输入在第二用户接口上的位置与第二用户接口上的第一指示器的位置对应并确定在预定时间段内检测到在第二用户接口上的第二触摸输入,处理器使第一用户接口和第二用户接口生成触觉反馈响应。其他实施方式在本文中描述。
Description
相关申请的交叉引用
本申请要求于2020年12月31日提交的美国临时申请序列号63/133,072的优先权的权益,该申请的全部内容通过引用并入本文。
背景技术
消费类电子设备通常适应于捕获图像、音频和视频内容。使用消费类电子设备,用户能够经由文本消息、即时消息收发、音频呼叫、视频呼叫等彼此进行通信。用户还使用消费类电子设备和消息收发应用来共享媒体内容项诸如图片和视频,这反映了对更加视觉化的通信的总体需求。
随着社交联网系统的数目的增加,社交联网系统中的每一个面临提供吸引用户注意力的用户接口以及提供新颖和有吸引力的通信功能的挑战。
附图说明
在附图(其不一定按比例绘制)中,相同的附图标记可以在不同的视图中描述类似的部件。为了容易标识对任何特定元件或动作的讨论,附图标记中的一个或多个最高位数字是指该元件被首次引入时所在的图号。一些非限制性示例在附图的图中示出,在附图中:
图1是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5示出了根据一些示例的可以在其中实现具有触觉反馈响应的通信界面的系统500。
图6示出了根据一个示例实施方式的系统500中的客户端设备102的细节。
图7示出了根据一个示例实施方式的作为头可穿戴装置700的客户端设备102的细节。
图8A示出了根据一个示例实施方式的正显示在客户端设备102的用户接口802上的通信界面的示例。
图8B示出了根据一个示例实施方式的正显示在客户端设备102的用户接口802上的通信界面的示例。
图8C示出了根据一个示例实施方式的正显示在客户端设备102的用户接口802上的通信界面的示例。
图9示出了根据一个示例实施方式的正显示在客户端设备102的用户接口802上的通信界面的示例。
图10示出了根据一个示例实施方式的正显示在客户端设备102的用户接口1002上的通信界面的示例。
图11是根据一些示例的用于在通信界面上生成触觉反馈响应的过程1100的流程图。
图12是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文中讨论的方法中的任何一种或更多种方法。
图13是示出可以在其中实现示例的软件架构的框图。
图14示出了根据一个示例实施方式的可以在其中实现头可穿戴装置700的系统1400。
具体实施方式
当在消息收发系统上进行通信时,用户能够彼此呼叫并建立语音呼叫或视频呼叫。经由消息收发系统,用户能够共享媒体内容项诸如音频、视频和图片。然而,对用户明显的是,在消息收发系统上或使用客户端设备的通信不类似于面对面的交流。
本公开内容的实施方式通过将触觉或触感能力并入消息收发系统的通信界面中来改进消息收发系统的功能。通过向用户在消息收发系统上的通信添加触摸的感知,本公开内容的实施方式更接近提供面对面交流的体验,并进一步允许用户与其在消息系统上的联系人更深入地接触。
联网的计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,每个实例托管包括消息收发客户端104和其他应用106的若干应用。在一些示例中,如本文所讨论的,客户端设备102包括用户接口(例如,显示装置、触摸屏等),该用户接口基于在通信会话期间接收到的触摸输入生成触觉反馈响应。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至消息收发客户端104(例如,托管在相应的其他客户端设备102上)、消息收发服务器系统108和第三方服务器110的其他实例。消息收发客户端104还可以使用应用程序接口(API)与本地托管的应用106通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能的位置是在消息收发客户端104内还是在消息收发服务器系统108内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和叠加、消息内容持久性条件、社交网络信息以及实况事件信息。通过经由消息收发客户端104的用户接口(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器112提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),所述一组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。应用程序接口(API)服务器116公开应用服务器114所支持的各种功能,包括:账户注册;登录功能;经由应用服务器114从特定消息收发客户端104向另一消息收发客户端104发送消息,从消息收发客户端104向消息收发服务器118发送媒体文件(例如,图像或视频),以及供另一消息收发客户端104的可能访问;设置媒体数据的集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;对实体图(例如,社交图)添加和删除实体(例如,朋友);定位社交图内的朋友;以及打开应用(例如,与消息收发客户端104有关的)事件。
应用服务器114托管多个服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122以及社交网络服务器124。消息收发服务器118实现多个消息处理技术和功能,特别地涉及对从消息收发客户端104的多个实例接收的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库)。然后,使这些集合对消息收发客户端104可用。鉴于对数据的其他处理器和存储器密集处理的硬件要求,也可以由消息收发服务器118在服务器侧执行这样的处理。
应用服务器114还包括图像处理服务器122,图像处理服务器122专用于通常针对从消息收发服务器118发送或在消息收发服务器118处接收的消息的有效载荷内的图像或视频执行各种图像处理操作。
社交网络服务器124支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护并访问数据库126内的实体图308(如图3所示)。社交网络服务器124所支持的功能和服务的示例包括标识消息收发系统100中与特定用户有关系或该特定用户正“关注”的其他用户,并且还包括标识特定用户的兴趣和其他实体。
返回到消息收发客户端104,外部资源(例如,应用106或小应用)的特征和功能经由消息收发客户端104的接口对用户可用。在该上下文中,“外部”是指应用106或小应用在消息收发客户端104外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端104的创建者或提供者提供。消息收发客户端104接收对启动或访问这样的外部资源的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的应用106(例如,“本地app”)、或者托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的应用的小规模版本(例如,“小应用”)。应用的小规模版本包括应用的特征和功能的子集(例如,应用的全规模、原生版本),并且使用标记语言文档来实现。在一个示例中,应用的小规模版本(例如,“小应用”)是应用的基于web的标记语言版本,并且嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小应用可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源的特征的选项的用户选择,消息收发客户端104确定选择的外部资源是基于web的外部资源还是本地安装的应用106。在一些情况下,本地安装在客户端设备102上的应用106可以独立于消息收发客户端104并且与消息收发客户端104分开启动,例如通过在客户端设备102的主页屏幕上选择与应用106对应的图标。可以经由消息收发客户端104启动或访问这样的应用的小规模版本,并且在一些示例中,小规模应用的任何部分都不能(或者有限部分才能)在消息收发客户端104之外被访问。可以通过消息收发客户端104例如从第三方服务器110接收与小规模应用相关联的标记语言文档并处理这样的文档来启动小规模应用。
响应于确定外部资源是本地安装的应用106,消息收发客户端104指示客户端设备102通过执行与外部资源对应的本地存储的代码来启动外部资源。响应于确定外部资源是基于web的资源,消息收发客户端104(例如)与第三方服务器110通信以获得与选择的外部资源对应的标记语言文档。消息收发客户端104然后处理获得的标记语言文档以在消息收发客户端104的用户接口内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动(在该组朋友中)最近使用过但当前不活动的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端104的参与者提供与一组用户中的一个或更多个成员将外部资源中的项、状态、状况或位置共享到聊天会话中的能力。共享项目可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以启动对应的外部资源,查看外部资源内的特定信息,或将聊天的成员带到外部资源内的特定位置或状态。在给定的外部资源内,可以在消息收发客户端104上向用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端104可以向用户呈现可用外部资源(例如,应用106或小应用)的列表以启动或访问给定的外部资源。该列表可以呈现在上下文敏感菜单中。例如,表示不同的应用106(或小应用)的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器114。消息收发系统100包含多个子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、以及外部资源系统214。
短暂定时器系统202负责实施消息收发客户端104和消息收发服务器118对内容的临时或时间受限访问。短暂定时器系统202并入了多个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的集和集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件图库”或“事件故事”。可以使这样的集合在指定时间段例如在与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户接口发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括使得集合管理器能够管理和策展特定内容集合的策展接口206。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容的集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地为使用这样的用户的内容而向其进行支付。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布用于由消息收发系统100处理的消息的媒体叠加有关的功能。增强系统208基于客户端设备102的地理定位可操作地向消息收发客户端104提供媒体叠加或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104提供媒体叠加。媒体叠加可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色叠加。音频和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体叠加可以包括可以叠加在由客户端设备102拍摄的照片之上的文本或图像。在另一示例中,媒体叠加包括定位标识叠加(例如,威尼斯海滩)、实况事件名称或商家名称叠加(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理定位来标识包括客户端设备102的地理定位处的商家名称的媒体叠加。媒体叠加可以包括与商家相关联的其他标记。媒体叠加可以被存储在数据库126中并通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位,并且上传与选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体叠加的环境。增强系统208生成包括上传的内容的媒体叠加并且将上传的内容与选择的地理定位相关联。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程来选择与地理定位相关联的特定媒体叠加。例如,增强系统208将最高出价商家的媒体叠加与对应地理定位相关联达预定义时间量。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文中指示用户的“朋友”的当前定位或过去定位以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在消息收发客户端104的地图界面上将用户从特定地理定位发布到消息收发系统100的消息在地图的该特定定位的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状态化身)共享他或她的定位和状态信息,其中,该定位和状态信息在消息收发客户端104的地图界面的上下文内被类似地显示给选择的用户。
游戏系统212在消息收发客户端104的上下文内提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可以由用户在消息收发客户端104的上下文内启动并与消息收发系统100的其他用户一起玩的可用游戏的列表。消息收发系统100还使特定用户能够通过从消息收发客户端104向这样的其他用户发出邀请来邀请其他用户参与玩特定游戏。消息收发客户端104还支持玩游戏上下文内的语音和文本二者的消息收发(例如,聊天),为游戏提供排行榜,并且还支持提供游戏内奖励(例如,钱币和物品)
外部资源系统214为消息收发客户端104提供接口以与远程服务器(例如,第三方服务器110)通信以启动或访问外部资源(即,应用或小应用)。每个第三方服务器110例如托管基于标记语言(例如,HTML5)的应用或应用的小规模版本(例如,游戏应用、实用程序应用、支付应用或乘坐共享应用)。消息收发客户端104可以通过从与基于web的资源相关联的第三方服务器110访问HTML5文件来启动基于web的资源(例如,应用)。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由第三方服务器110托管的应用进行编程。SDK包括应用程序接口(API),该API具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavasScript库,该库提供对消息收发客户端104的某些用户数据的给定外部资源访问。HTML5被用作用于编程游戏的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由第三方服务器110从消息收发服务器118下载,或者由第三方服务器110以其他方式接收。一旦被下载或接收,SDK被包括作为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供外部资源(例如,应用106或小应用)与消息收发客户端104之间的桥接。这为用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK有助于第三方服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信信道。消息经由这些通信信道在外部资源与消息收发客户端104之间异步发送。每个SDK函数调用作为消息和回调发送。通过构造唯一的回调标识符并且发送具有该回调标识符的消息来实现每个SDK函数。
通过使用SDK,并非来自消息收发客户端104的所有信息都与第三方服务器110共享。SDK基于外部资源的需要来限制共享哪些信息。在某些示例中,每个第三方服务器110向消息收发服务器118提供与基于web的外部资源对应的HTML5文件。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(诸如盒设计或其他图形)。一旦用户选择了视觉表示或通过消息收发客户端104的GUI指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104获得HTML5文件并且对访问基于web的外部资源的特征所需的资源进行实例化。
消息收发客户端104呈现用于外部资源的图形用户接口(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,消息收发客户端104确定启动的外部资源是否先前已被授权访问消息收发客户端104的用户数据。响应于确定启动的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的另一图形用户接口,其包括外部资源的功能和特征。响应于确定启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现到画面中部或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,消息收发客户端104将外部资源添加至授权的外部资源的列表,并且使得外部资源能够访问来自消息收发客户端104的用户数据。在一些示例中,外部资源由消息收发客户端104根据OAuth 2框架授权访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模应用(例如,应用106)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问。作为另一示例,向包括应用的小规模版本(例如,应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身、以及具有各种化身特性的化身)的访问。化身特性包括定制化身的外观和感觉(例如,不同姿势、面部特征、服装等)的不同方式。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括多个表,但是将认识到,可以以其他类型的数据结构来存储数据(例如,存储为面向对象的数据库)。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接至实体图308和简档数据316。针对其的记录被维护在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或者基于活动的社交关系、职业关系(例如,在共同的公司或组织工作)。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容内以及由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间传送的状态或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员以及针对相关团体的各种设置(例如,通知)之外,针对团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如叠加或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且被应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为叠加在图像或视频上的叠加。过滤器可以是各种类型,包括当发送用户正在编写消息时来自由消息收发客户端104呈现给发送用户的一组过滤器的用户选择的过滤器。其他类型的过滤器包括地理定位过滤器(也称为地理过滤器),其可以基于地理定位被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理定位信息,由消息收发客户端104在用户接口内呈现特定于附近或特殊定位的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定定位处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、叠加、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似术语。这包括实时修改,其在图像被使用客户端设备102的设备传感器(例如,一个或多个摄像装置)进行捕获时并且然后在修改的情况下在客户端设备102的屏幕上显示时对图像进行修改。这还包括对存储的内容(例如,图库中可以被修改的视频剪辑)的修改。例如,在访问多个增强现实内容项的客户端设备102中,用户可以将单个视频剪辑与多个增强现实内容项一起使用来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过针对同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,可以将实时视频捕获与示出的修改一起使用,以示出客户端设备102的传感器当前正捕获的视频图像将如何修改捕获的数据。这样的数据可以仅显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并存储在存储器中。在一些系统中,预览特征可以同时显示不同的增强现实内容项将在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的数据和各种系统或使用这些数据来修改内容的其他这样的变换系统可以涉及:视频帧中各对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这样的对象的跟踪,以及在跟踪这样的对象时对这样的对象的修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在跟踪的位置处。在另外的示例中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既涉及用于在内容中创建变换的图像、模型和纹理,又涉及利用对象检测、跟踪和放置来实现这样的变换所需的附加建模和分析信息。
可以用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。另外,可以使用计算机动画模型来处理任何对象,例如人的面部和人体的各部位、动物或非生物(例如,椅子、汽车或其他对象)。
在一些示例中,当连同要变换的内容一起选择特定修改时,由计算设备标识要变换的元件,并且然后如果要变换的元件介于视频的帧中,则检测并跟踪要变换的元件。根据修改请求来修改对象的元件,因此变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要涉及改变对象的元件的形式的帧变换,计算对象的每个元件的特性点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元件中的每一个生成基于特性点的网格。该网格被用于在视频流中跟踪对象的各元件的后续阶段。在跟踪过程中,所提及的针对每个元件的网格与每个元件的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元件生成第一组第一点,并且基于该组第一点以及修改请求针对每个元件生成一组第二点。然后,可以通过基于一组第一点、一组第二点和网格修改对象的元件来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来使修改的对象的背景改变或发生扭曲。
在一些示例中,可以通过计算对象的每个元件的特性点并基于计算的特性点生成网格来执行使用对象的元件改变对象的某些区域的变换。在网格上生成点,并且然后生成基于这些点的各种区域。然后,通过将每个元件的区域与至少一个元件中的每一个的位置对准来跟踪对象的元件,并且可以基于修改请求来修改区域的属性,因此对视频流的帧进行变换。取决于具体的修改请求,可以以不同的方式来变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元件进行修改或使其发生扭曲。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特性点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,利用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适用于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可标识(例如,如果人具有眼罩),则可以使用次级界标。这样的界标标识过程可以被用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。利用使形状点之间的平均欧几里德距离最小化的相似变换(允许平移、缩放和旋转)将一个形状与另一形状对准。均值形状(meanshape)是经对准的训练形状的均值。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的均值形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配对形状点的定位进行调整来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单独模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每一级处重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功率消耗。复杂的图像操纵可以包括大小和形状改变、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减小表观年龄、改变性别)、风格转换、图形元件应用以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在该系统中,用户可以使用具有作为在客户端设备102上操作的消息收发客户端104的一部分而操作的神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍)。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换数据图像,或者计算机动画模型可以与本文中描述的界面相关联地存在。修改图标包括下述改变:该改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映选择的修改图标(例如,在用户上生成笑脸)的处理。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户接口中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用选择的修改。即,用户可以捕获图像或视频流并且一旦修改图标被选择,修改结果就被实时或接近实时地呈现给用户。此外,当正在捕获视频流时,修改可以是持久的,并且选择的修改图标保持被切换。机器教导的神经网络可以被用于实现这样的修改。
呈现由变换系统执行的修改的图形用户接口可以向用户提供附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的选择和内容捕获的界面(例如,从内容创建者用户接口发起)。在各种示例中,在对修改图标进行初始选择之后,修改可以是持久的。用户可以通过轻击或以其他方式选择正由变换系统修改的面部来开启或关闭修改,并将其存储以供稍后查看或浏览到成像应用的其他区域。在通过变换系统修改多个面部的情况下,用户可以通过轻击或选择图形用户接口内修改和显示的单个面部来全局地开启或关闭修改。在一些示例中,可以单独地修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户接口内显示的各个面部或一系列各个面部来单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,针对其的记录被维护在实体表306中的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端104的用户接口可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。可以例如经由消息收发客户端104的用户接口向其客户端设备启用了定位服务并且在特定时间处于共同定位事件处的用户呈现将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的定位向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另一种类型的内容集合被称为“定位故事”,该“定位故事”使得其客户端设备102位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对定位故事的贡献可能需要二级认证来验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与针对其的记录被维护在消息表302内的消息相关联。类似地,图像表312存储与其消息数据被存储在实体表306中的消息相关联的图像数据。实体表306可以将来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,该消息400由消息收发客户端104生成,以传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容被用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备102的用户接口生成并且包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备102的摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获或从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、标贴或其他注解或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)要经由消息收发客户端104呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以被包括在有效载荷中,这些参数值中的每一个与内容中包括的内容项(例如,消息图像有效载荷406内的特定图像或者消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像有效载荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每一个指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向表中存储有内容数据值的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
具有触觉反馈响应的实时通信界面
图5示出了根据一些示例的可以在其中实现具有触觉响应的实时视频通信界面的系统500。
如图5中所示,系统500可以包括多个客户端设备102。每个客户端设备102包括用户接口(例如,显示装置或触摸屏)以接收来自用户的触摸输入。虽然没有示出,但系统500也可以包括服务器(例如,图1中的消息收发服务器系统108)。
图6示出了根据一个示例实施方式的系统500中的客户端设备102中的一个客户端设备的细节。理解的是,系统500中的客户端设备102可以包括图6中所示的类似元件。客户端设备102可以是如图12中所示的机器1200。
如图6中所示,客户端设备102包括壳体604、具有摄像装置开口的摄像装置602、麦克风606以及显示装置608。虽然在图6中没有示出,但客户端设备102也可以包括摄像装置透镜、摄像装置图像传感器、处理器、存储器以及通信界面。
在一个实施方式中,摄像装置开口是壳体604中的开口,该壳体604中的开口耦接至客户端设备102中包括的摄像装置602的摄像装置透镜。在一个实施方式中,摄像装置开口可以是允许摄像装置透镜捕获图像或视频内容(例如,媒体内容项)的窗口。摄像装置602可以包括摄像装置透镜和图像传感器。摄像装置透镜可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如,鱼眼透镜,广角透镜,全向透镜等。图像传感器通过摄像装置透镜捕获图像或数字视频。图像也可以是静止图像帧或包括多个静止图像帧的视频。
在一个示例中,麦克风606(或多个麦克风)可以是将声音转换成电信号的空气界面声音收集装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的换能器。麦克风可以是数字或模拟的微机电系统(MEMS)麦克风。由麦克风606生成的声学信号可以是脉冲密度调制(PDM)信号。
被包括在客户端设备102中的显示装置608可以是触摸屏。如本文所讨论,显示装置608可以显示用户接口和通信界面。
用户可以通过触摸显示装置608上的位置来与显示装置608交互。用户可以通过执行与显示装置608的接触来与显示装置608交互。与显示装置608的接触的示例包括在显示装置608上的位置上的单击、按压或触摸,双击或按压显示装置608的位置,按压并保持与显示装置608的接触达一定时间段。在一个示例中,用户还可以通过在显示装置608上的开始定位处触摸显示装置608、在绘制绘图输入的同时保持与显示装置608的接触,并在显示装置608上的结束定位处离开显示装置608以完成绘图输入来绘制绘图输入(例如,线、图案或涂鸦或绘图的一部分)。
如图5中所示,系统500可以包括第一客户端设备102和第二客户端设备102。当第一客户端设备102与第二客户端设备102之间的通信会话被建立时,系统500使通信会话的通信界面被显示在第一客户端设备102和第二客户端设备102的显示装置608上。通信会话可以是第一客户端设备102与第二客户端设备102之间的视频通信会话。在一个示例中,视频通信会话是实时的。在一个示例中,通信会话是电子消息收发通信会话(例如,电子聊天或即时消息收发)。
在一个示例中,系统500检测第一客户端设备102的显示装置608上的第一触摸输入以及第二客户端设备102的显示装置608上的第二触摸输入。系统500监测第一触摸输入的位置和第二触摸输入的位置。系统500确定第一触摸输入在第一客户端设备102的显示装置608上的位置与第一客户端设备102的显示装置608上的与第二触摸输入在第二客户端设备102的显示装置608上的位置对应的位置之间的距离。
系统500可以使第一客户端设备102的显示装置608和第二客户端设备102的显示装置608基于距离生成触觉反馈响应。在一个示例中,触觉反馈响应随着距离的减小而在强度或速度方面增加,并且随着距离的增加而在强度或速度方面减小。
因此,触觉反馈响应基于在时间和位置上同步的在其各自客户端设备102上的用户触摸输入。生成的触觉反馈响应的变化强度(或力度)或速度还将用户引导至其他用户正在触摸的屏幕上的位置。
图7示出了根据一个示例实施方式的作为头可穿戴装置700的客户端设备102的细节。图7示出了根据一个示例实施方式的头可穿戴装置700的透视图。在图7中,头可穿戴装置700是一副眼镜。在一些实施方式中,头可穿戴装置700可以是太阳镜或护目镜。一些实施方式可以包括一个或更多个可穿戴设备(诸如具有集成摄像装置的吊坠,该吊坠与头可穿戴装置700或客户端设备102集成、通信或者耦接至头可穿戴装置700或客户端设备102)。任何所需的可穿戴设备可以与本公开内容的实施方式结合被使用,诸如手表、耳机、腕带、耳塞式耳机、服装(诸如具有集成电子装置的帽子或夹克)、夹式电子设备,或任何其他可穿戴设备。理解的是,虽然没有示出,但头可穿戴装置700中包括的系统的一个或更多个部分可以被包括在可以与头可穿戴装置700结合被使用的客户端设备102(例如,图12中的机器1200)中。
在图7中,头可穿戴装置700是包括框架706的一副眼镜,该框架706包括镜框(或边框),该镜框经由铰链和/或端件分别耦接至两个柄(或镜腿)。框架706的镜框携带或容纳一对镜片(例如,镜片708a和镜片708b)。框架706包括耦接至第一柄的第一(例如,右)侧和耦接至第二柄的第二(例如,左)侧。框架706的第一侧与第二侧相对。
头可穿戴装置700还包括摄像装置模块(未示出)和至少一个图像传感器,该摄像装置模块包括摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)。摄像装置透镜704a和摄像装置透镜704b可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如,鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜704a和摄像装置透镜704b捕获数字视频。图像也可以是静止图像帧或包括多个静止图像帧的视频。摄像装置模块可以耦接至框架706。如图7中所示,框架706耦接至摄像装置透镜704a和摄像装置透镜704b,使得摄像装置透镜(例如,摄像装置透镜704a、摄像装置透镜704b)面向前方。摄像装置透镜704a和摄像装置透镜704b可以与镜片708a和镜片708b垂直。摄像装置模块可以包括双前置摄像装置,该双前置摄像装置隔开框架706的宽度或头可穿戴装置700的用户的头的宽度。
在图7中,两个柄(或镜腿)分别耦接至麦克风壳体702a和麦克风壳体702b。第一柄和第二柄耦接至头可穿戴装置700的框架706的相对两侧。第一柄耦接至第一麦克风壳体702a,以及第二柄耦接至第二麦克风壳体702b。麦克风壳体702a和麦克风壳体702b可以在框架706与镜腿尖的位置之间耦接至柄。麦克风壳体702a和麦克风壳体702b可以位于用户穿戴头可穿戴装置700时用户的镜腿的任一侧上。
如图7中所示,麦克风壳体702a和麦克风壳体702b包裹着包括麦克风606的多个麦克风(未示出)。麦克风606可以是一个或更多个麦克风。麦克风是将声音转换成电信号的空气界面声音收集装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的换能器。麦克风可以是数字或模拟的微机电系统(MEMS)麦克风。由麦克风生成的声学信号可以是脉冲密度调制(PDM)信号。
在一个实施方式中,头可穿戴装置700中的一对镜片(例如,镜片708a和镜片708b)还可以包括可以显示通信界面的显示装置。在一些示例中,头可穿戴装置700可以是虚拟现实(VR)眼镜。
一些实施方式可以包括一个或更多个可穿戴设备(诸如具有提供触觉反馈的能力的手套,该手套与客户端设备102集成、通信或者耦接至客户端设备102)。任何所需的可穿戴设备可以与本公开内容的实施方式结合被使用,诸如手表、眼镜、护目镜、虚拟现实(VR)护目镜、耳机、腕带、耳塞式耳机、服装(诸如具有集成电子装置的帽子或夹克)、夹式电子装置或任何其他可穿戴设备。
图8A、图8B以及图8C示出了根据一个示例实施方式的正显示在第一客户端设备102的第一用户接口802上的通信界面的示例。理解的是,显示在第二客户端设备102的第二用户接口802上的通信界面可以包括类似元件。
在图8A、图8B以及图8C中所示的示例中,通信会话是第一客户端设备102的第一用户与第二客户端设备102的第二用户之间的实时视频通信会话。在第一用户接口802上,显示第二用户的实时图像。类似地,第二用户接口802可以在通信会话期间显示第一用户的实时图像。
第一客户端设备102的第一用户和第二客户端设备102的第二用户在通信会话中在线。换言之,两个用户具有显示在其客户端设备102上的通信界面,使得两个用户在通信会话中在线或在通信会话中活跃。
在一个示例中,系统500中的处理器检测第一用户接口上的第一触摸输入和第二用户接口上的第二触摸输入。处理器可以监测第一触摸输入在第一用户接口802上的位置和第二触摸输入在第二用户接口802上的位置。
如图8A、图8B以及图8C中所示,显示在第一用户接口802上的通信界面可以包括第一指示器元件804和第二指示器元件806。处理器可以使第一用户接口802在第一触摸输入的位置处显示第一指示器元件804,以及在第一用户接口802上的与第二触摸输入在第二用户接口802上的位置对应的位置处显示第二指示器元件806。类似地,处理器可以使第二用户接口802在第二触摸输入的位置处显示第一指示器元件804,以及在第二用户接口802上的与第一触摸输入在第一用户接口802上的位置对应的位置处显示第二指示器元件806。
如图8A、图8B以及图8C中所示,第一用户接口802上的第一指示器元件804与第二指示器元件806之间的距离在图8A中大,在图8B中减小,并且在图8C中再次减小。
处理器可以确定第一触摸输入在第一用户接口802上的位置(例如,第一指示器元件804的位置)与第一用户接口802上的与第二触摸输入在第二用户接口802上的位置(例如,第二指示器元件806的位置)对应的位置之间的距离。
处理器可以使第一用户接口802和第二用户接口802基于距离生成触觉反馈响应。在一个示例中,触觉反馈响应随着距离的减小而在强度或速度方面增加,并且随着距离的增加而在强度或速度方面减小。
在一个示例中,处理器可以确定距离是否低于预定阈值。在距离低于预定阈值的情况下,在其各自客户端设备102上的用户触摸输入被确定成在时间和位置上同步。响应于确定距离低于预定阈值,处理器可以使第一用户接口802和第二用户接口802生成奖励触觉反馈响应。在一个示例中,奖励触觉响应与触觉反馈响应不同,以指示用户在其触摸输入上同步。换言之,当用户正在同时触摸其客户端设备102上相同的对应位置时,用户被提供有奖励触觉响应。
在一个示例中,触觉反馈响应包括第一振动模式,并且奖励触觉反馈响应包括与第一振动模式不同的第二振动模式。奖励触觉反馈响应可以是更强的(或更强烈的)振动模式或更快的振动模式。在一个示例中,触觉反馈反应可以是模拟心跳的振动模式。心跳可以是随着距离的减小(例如,第一触摸输入和第二触摸输入变得越来越接近)而变得较强的轻心跳,或者可以是随着距离的增加(例如,第一触摸输入和第二触摸输入变得越来越远离)而变得较轻的强心跳。
响应于确定距离低于预定阈值,在一个示例中,处理器使第一用户接口802和第二用户接口802生成如图8C中所示的对于通信界面的增强808。增强808可以包括叠加,视觉效果,动画,声音效果,或其任何组合。在一个示例中,增强808被临时生成达预定时间段。
图9示出了根据一个示例实施方式的正显示在第二客户端设备102的用户接口802上的通信界面的示例。在第二客户端设备102的用户接口802中,显示第一用户的视频。
处理器可以检测由第一客户端设备102的第一用户执行的预定姿势。预定姿势的示例可以包括飞吻、挑眉、以击掌动作拍打客户端设备102、轻弹用户接口802等。在图9中,第一用户正在执行飞吻的预定姿势。
响应于检测到第一用户的预定姿势,处理器可以使第一用户接口802或第二用户接口802基于预定姿势生成触觉反馈响应。预定姿势中的每一个可以与不同触觉反馈响应相关联。
在一个示例中,响应于检测到第一用户的预定姿势,处理器可以使第一用户接口802或第二用户接口802生成对于通信界面的增强。增强可以包括叠加、视觉效果、动画、声音效果或其任何组合。增强被临时生成达预定时间段。如图9中所示,增强是在第二用户接口802的正在显示第一用户的嘴唇的位置处叠加闪烁。
图10示出了根据一个示例实施方式的正显示在第一客户端设备102的第一用户接口1002上的通信界面的示例。在图10中,通信会话是电子消息收发通信会话。
如图10中所示,用户接口1002包括电子消息显示部分1004和触觉部分1006。电子消息显示部分1004包括由第一用户在第一客户端设备102上输入的或由第一客户端设备102从第二客户端设备102接收的电子消息。系统500的处理器(例如,消息收发服务器系统108或客户端设备102中的处理器)从第一客户端设备102或第二客户端设备102接收电子消息的内容。例如,电子消息可以由第一用户经由第一客户端设备的用户接口1002输入。可替选地,电子消息可以由第二用户经由第二客户端设备102的用户接口1002输入。在一个实施方式中,第一客户端设备102的第一用户和第二客户端设备102的第二用户在通信会话期间在线。在通信会话中在线的用户具有在其各自客户端设备102上主动显示的通信界面。存在的这些用户分别能够查看正显示在通信界面上的消息以及在通信界面上输入电子消息的内容。在一个实施方式中,电子消息的内容可以包括UNICODE字符或文本。电子消息可以包括由UNICODE标准定义的表情字符/图标。在一个实施方式中,电子消息的内容可以包括图像、定制图形(例如,头像)或视频。如本文所使用的,“电子消息”可以指以电子形式的任何消息,诸如电子邮件、短消息服务(SMS)消息、多媒体消息服务(MMS)消息、即时消息(IM)、互联网中继聊天(IRC)消息,以及实时的、近实时的、同步的或异步的电子消息收发格式的任何其他形式。
在一个实施方式中,第一用户也可以经由用户接口1002传送媒体内容项(例如,图片或视频)。如图10中所示,在与递送至第二用户的媒体内容项对应的电子消息显示部分1004中显示确认元件1014。如图10中所示,可选择元件1016可以被显示在电子消息显示部分1004中,以向第一用户指示从第二用户接收媒体内容项。在经由第一用户接口1002激活可选择元件1016时,处理器可以使接收到的媒体内容项通过第一客户端设备102显示。
用户接口1002还包括聊天状态栏1012,该聊天状态栏1012包括分别与客户端设备的用户相关联的状态指示器。在一个实施方式中,当用户在通信会话中在线时,与用户相关联的头像可以被显示在聊天状态栏1012中作为用户的状态指示器。具体地,当第一用户在通信会话中在线时,显示在第二客户端设备102上的用户接口1002中包括的聊天状态栏1012中的第一用户的状态指示器包括第一用户的头像。类似地,当第二用户在通信会话中在线时,显示在第一客户端设备102上的用户接口1002中包括的聊天状态栏1012中的第二用户的状态指示器包括第二用户的头像。
用户接口1002的触觉部分1006是用于第一用户和第二用户触摸并接收触觉反馈响应的区域。触觉反馈响应可以基于在时间和位置上同步的在其各自客户端设备102上的用户触摸输入。所生成的触觉反馈反应的变化强度(或力度)或速度还将用户引导至其他用户正在触摸的屏幕上的位置。
在一个示例中,系统500中的处理器检测第一用户接口1002上的第一触摸输入和第二用户接口1002上的第二触摸输入。处理器可以监测第一触摸输入在第一用户接口1002上的位置和第二触摸输入在第二用户接口1002上的位置。
类似于图8A、图8B以及图8C,在图10中,显示在第一用户接口1002上的通信界面可以包括第一指示器元件1008和第二指示器元件1010。处理器可以使第一用户接口1002在第一触摸输入的位置处显示第一指示器元件1008,以及在第一用户接口1002上的与第二触摸输入在第二用户接口1002上的位置对应的位置处显示第二指示器元件1010。类似地,处理器可以使第二用户接口1002在第二触摸输入的位置处显示第一指示器元件1008,以及在第二用户接口1002上的与第一触摸输入在第一用户接口802上的位置对应的位置处显示第二指示器元件1010。
处理器可以确定第一触摸输入在第一用户接口1002上的位置(例如,第一指示器元件1008的位置)与第一用户接口1002上的与第二触摸输入在第二用户接口上的位置对应的位置(例如,第二指示器元件1010的位置)之间的距离。
处理器可以使第一用户接口1002和第二用户接口1002基于距离生成触觉反馈响应。在一个示例中,触觉反馈响应随着距离的减小而在强度或速度方面增加,并且随着距离的增加而在强度或速度方面减小。
在一个示例中,处理器可以确定距离是否低于预定阈值。如果距离低于预定阈值,在其各自客户端设备102上的用户触摸输入被确定成在时间和位置上同步。响应于确定距离低于预定阈值,处理器可以使第一用户接口1002和第二用户接口1002生成奖励触觉反馈响应。在一个示例中,奖励触觉响应与触觉反馈响应不同,以指示用户在其触摸输入上同步。换言之,当用户同时触摸其客户端设备102上相同的对应位置时,用户被提供奖励触觉响应。
在一个示例中,触觉反馈响应包括第一振动模式,以及奖励触觉反馈响应包括与第一振动模式不同的第二振动模式。奖励触觉反馈响应可以是更强的(或更强烈的)振动模式或更快的振动模式。在一个示例中,触觉反馈反应可以是模拟心跳的振动模式。心跳可以是随着距离的减少(例如,第一触摸输入和第二触摸输入变得越来越接近)而变得较强的轻心跳,或者可以是随着距离的增加(例如,第一触摸输入和第二触摸输入变得越来越远离)而变得较轻的强心跳。
响应于确定距离低于预定阈值,在一个示例中,处理器使第一用户接口1002和第二用户接口1002生成对于通信界面的增强(未示出)。增强可以包括叠加、视觉效果、动画、声音效果或其任何组合。在一个示例中,增强被临时生成达预定时间段。
虽然没有示出,但在另一示例中,用户接口可以主要或完全包括触觉部分1006。在这个示例中,用户接口主要显示触觉部分1006,该触觉部分1006根据第一用户的触摸输入与第二用户的触摸输入之间的同步性或基于在触觉部分1006上检测到的某些预定姿势生成触觉反馈响应。
尽管所描述的流程图可以将操作示出为顺序过程,但操作中的许多操作可以被并行或并发地执行。此外,操作的顺序可以被重新布置。在过程的操作被完成时过程被终止。过程可以对应于方法、程序、算法等。方法的操作可以被全部或部分地执行,可以与其他方法中的操作中的一些或全部操作结合被执行,并且可以由任何数目的不同系统(诸如本文所描述的系统,或其任何部分(诸如系统的任一个中包括的处理器))执行。
在通信界面上生成触觉反馈响应
图11是根据一些示例的用于在通信界面上生成触觉反馈响应的过程1100的流程图。
在操作1102处,系统500的处理器(例如,消息收发服务器系统108和/或客户端设备102)使通信会话的通信界面显示在第一客户端设备的第一用户接口上和第二客户端设备的第二用户接口上。通信会话介于包括第一客户端设备和第二客户端设备的多个客户端设备之间。在一个示例中,第一客户端设备的第一用户和第二客户端设备的第二用户在通信会话中在线。
在操作1104处,处理器检测第一用户接口上的第一触摸输入。第一触摸输入可以是第一用户接口的单个触摸、客户端或按压。在一个示例中,第一触摸输入可以是绘图输入(例如,线、图案或涂鸦或绘图的一部分),该绘图输入由第一用户通过在用户接口上的开始定位处触摸第一客户端设备的用户接口,在绘制绘图输入的同时保持与用户接口的接触,并在用户接口上的结束定位处离开用户接口以完成绘图输入而被绘制。
在操作1106处,处理器确定第一触摸输入在第一用户接口上的位置,并且在操作1108处,处理器使第二用户接口在第二客户端设备的第二用户接口上的与第一触摸输入在第一用户接口上的位置对应的位置处显示第一指示器元件。第一指示器元件被显示达预定时间段。在一个示例中,所显示的第一指示器元件的视觉强度随时间而减小。因此,当第一用户最初触摸第一用户接口以生成第一触摸输入时,显示在第二客户端设备上的第一指示器元件的视觉强度处于较高的视觉强度处,并随着时间下降到较低的视觉强度。
在一个实施方式中,当第一触摸输入是如上所述的绘图输入时,第一触摸输入可以包括在开始定位处触摸第一用户接口和在结束定位处离开第一用户接口。在这个示例中,第二用户接口上的开始定位与第一用户接口的开始定位的定位对应,以及第二用户接口上的结束定位与第一用户接口的结束定位的定位对应。可以从第二用户接口上的开始定位到第二用户接口上的结束定位显示第一指示器元件。
在操作1110处,处理器检测第二用户接口上的第二触摸输入,并且在操作1112处,处理器确定第二触摸输入在第二用户接口上的位置。
在一个示例中,处理器确定第二触摸输入在第二用户接口上的位置与第二用户接口上的第一指示器的位置对应。处理器还可以确定在预定时间段内检测到第二用户接口上的第二触摸输入。换言之,处理器确定第二用户是否在第一指示器仍正被显示的同时(例如,在预定时间段的结束前)正在触摸第二用户接口上的第一指示器的位置,。
在操作1114处,响应于确定第二触摸输入在第二用户接口上的位置与第二用户接口上的第一指示器的位置对应并确定在预定时间段内检测到第二用户接口上的第二触摸输入,处理器使第一用户接口和第二用户接口生成触觉反馈响应。触觉反馈响应例如,可以包括振动模式。
在一个示例中,响应于确定第二触摸输入在第二用户接口上的位置与第二用户接口上的第一指示器的位置对应并确定在预定时间段内检测到第二用户接口上的第二触摸输入,处理器使第一用户接口和第二用户接口生成对于通信界面的增强。
响应于确定第二触摸输入在第二用户接口上的位置与第二用户接口上的第一指示器的位置对应并确定在预定时间段内检测到第二用户接口上的第二触摸输入,处理器还可以使显示在第二用户接口上的第一指示器的视觉强度处于较高的视觉强度处。因此,当处理器确定第二用户在第一指示器仍正被显示的同时正在触摸第二用户接口上的第一指示器的位置,从第一触摸输入的时间处的其原始强度下降的第一指示器的视觉强度将把第一指示器更新至较高视觉强度。随着时间,第一指示器将再次逐渐降低到较低的视觉强度。因此,第二用户可以跟踪或跟随第一用户的绘图,并且当第二用户成功地跟踪或跟随第一用户的绘图时,也接收触觉反馈响应。
机器架构
图12是机器1200的图解表示,在该机器1200内可以执行用于使机器1200执行本文中所讨论的方法中的任何一种或更多种方法的指令1210(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1210可以使机器1200执行本文中描述的方法中的任何一种或更多种方法。指令1210将通用的未经编程的机器1200转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1200。机器1200可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1200可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1200可以包括但不限于服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1200采取的动作的指令1210的任何机器。此外,虽然仅示出了单个机器1200,但是术语“机器”还应当被视为包括单独地或联合地执行指令1210以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器1200可以包括客户端设备102或者形成消息收发服务器系统108的一部分的多个服务器设备中的任何一个。在一些示例中,机器1200还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器1200可以包括可以被配置成经由总线1240彼此通信的处理器1204、存储器1206和输入/输出(I/O)部件1202。在示例中,处理器1204(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1210的处理器1208和处理器1212。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图12示出了多个处理器1204,但是机器1200可以包括单个具有单个核的处理器、单个具有多个核的处理器(例如,多核处理器)、多个具有单个核的处理器、多个具有多个核的处理器、或者其任何组合。
存储器1206包括主存储器1214、静态存储器1216和存储单元1218,均可由处理器1204经由总线1240访问。主存储器1206、静态存储器1216和存储单元1218存储实施本文中描述的方法或功能中的任何一个或更多个方法或功能的指令1210。指令1210还可以在其由机器1200执行期间完全地或部分地驻留在主存储器1214内、静态存储器1216内、存储单元1218内的机器可读介质1220内、处理器1204中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者其任何合适的组合内。
I/O部件1202可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。特定机器中包括的特定I/O部件1202将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当认识到,I/O部件1202可以包括图12中未示出的许多其他部件。在各种示例中,I/O部件1202可以包括用户输出部件1226和用户输入部件1228。用户输出部件1226可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1228可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1202可以包括生物计量部件1230、运动部件1232、环境部件1234或位置部件1236以及广泛的一系列其他部件。例如,生物计量部件1230包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1232包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1234包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或用于测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更常规的摄像装置模式捕获静止图像和视频,这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1236包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1202还包括通信部件1238,该通信部件1238可操作以经由相应的耦接或连接将机器1200耦接至网络1222或设备1224。例如,通信部件1238可以包括与网络1222接口的网络接口部件或另一合适的设备。在其他示例中,通信部件1238可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能耗)、/>部件、和用于经由其他形式提供通信的其他通信部件。设备1224可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1238可以检测标识符,或者包括可操作以检测标识符的部件。例如,通信部件1238可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或者声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1238得到各种信息,例如经由因特网协议(IP)地理定位得到定位、经由信号三角测量得到定位、经由检测可以指示特定定位的NFC信标信号得到定位等。
各种存储器(例如,主存储器1214、静态存储器1216以及处理器1204的存储器)以及存储单元1218可以存储由本文中描述的方法或功能中的任何一个或更多个方法或功能实施或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1210)在由处理器1204执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1238中包括的网络接口部件)使用传输介质并且使用若干公知的传输协议中的任何一个传输协议(例如,超文本传输协议(HTTP))通过网络1222来发送或接收指令1210。类似地,可以使用传输介质经由与设备1224的耦接(例如,对等耦接)来发送或接收指令1210。
软件架构
图13是示出可以安装在本文中描述的设备中的任何一个或更多个设备上的软件架构1304的框图1300。软件架构1304由硬件诸如包括处理器1320、存储器1326和I/O部件1338的机器1302支持。在该示例中,软件架构1304可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1304包括诸如操作系统1312、库1310、框架1308和应用1306的层。在操作上,应用1306通过软件堆栈来激活API调用1350,并且响应于API调用1350接收消息1352。
操作系统1312管理硬件资源并且提供公共服务。操作系统1312包括例如核1314、服务1316和驱动器1322。核1314充当硬件层与其他软件层之间的抽象层。例如,核1314提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1316可以为其他软件层提供其他公共服务。驱动器1322负责控制底层硬件或与底层硬件接口。例如,驱动器1322可以包括显示驱动器、摄像装置驱动器、或低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1310提供由应用1306使用的公共低级基础设施。库1310可以包括系统库1318(例如,C标准库),该系统库1318提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1310可以包括API库1324,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1310还可以包括各种其他库1328,以向应用1306提供许多其他API。
框架1308提供由应用1306使用的公共高级基础设施。例如,框架1308提供各种图形用户接口(GUI)功能、高级资源管理和高级定位服务。框架1308可以提供可以由应用1306使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1306可以包括家庭应用1336、联系人应用1330、浏览器应用1332、书籍阅读器应用1334、定位应用1342、媒体应用1344、消息收发应用1346、游戏应用1348和诸如第三方应用1340的各种各样的其他应用。应用1306是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1306中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,第三方应用1340(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTM、Phone的移动操作系统或另外的移动操作系统上运行的移动软件。在该示例中,第三方应用1340可以激活由操作系统1312提供的API调用1350以有助于本文中描述的功能。
具有头可穿戴装置的系统
图14示出了根据一个示例实施方式的可以在其中实现头可穿戴装置700的系统1400。图14是示例头可穿戴装置700的高级功能框图,该示例头可穿戴装置700经由各种网络1436通信地耦接移动客户端设备102和服务器系统1430。
头可穿戴装置700包括摄像装置,诸如可见光摄像装置1410、红外发射器1412和红外摄像装置1414中的至少一个。摄像装置可以包括图7中具有摄像装置透镜704a和摄像装置透镜704b的摄像装置模块。
客户端设备102可以能够使用低功率无线连接1432和高速无线连接1434与可穿戴装置700连接。客户端设备102连接至服务器系统1430和网络1436。网络1436可以包括有线和无线连接的任何组合。
头可穿戴装置700还包括光学组件1402的图像显示的两个图像显示器。光学组件1402的两个图像显示器包括与头可穿戴装置700的左横向侧相关联的一个图像显示器和与右横向侧相关联的一个图像显示器。头可穿戴装置700还包括图像显示驱动器1406、图像处理器1408、低功率低功率电路1424以及高速电路1416。光学组件1402的图像显示器用于给头可穿戴装置700的用户呈现图像和视频,该图像和视频包括可以包括图形用户界面的图像。
图像显示驱动器1406命令并控制光学组件1402的图像显示的图像显示器。图像显示驱动器1406可以将图像数据直接递送至光学组件1402的图像显示的图像显示器,以用于呈现,或者必须将图像数据转换成适合于到图像显示装置的传递的信号或数据格式。例如,图像数据可以是根据压缩格式(诸如H.264(MPEG-4Part 10)、HEVC、Theora、Dirac、RealVideo RV40、VP8、VP9等)格式化的视频数据,以及静止图像数据可以根据压缩格式(诸如便携式网络组(PNG)、联合摄影专家组(JPEG)、标签图像文件格式(TIFF)或可交换图像文件格式(Exif)等)而被格式化。
如上所述,头可穿戴装置700包括框架706和从框架706的横向侧延伸的柄(或镜腿)。头可穿戴装置700还包括用户输入装置1404(例如,触摸传感器或按钮),该用户输入装置1404包括头可穿戴装置700上的输入表面。用户输入装置1404(例如,触摸传感器或按钮)是为了从用户接收输入选择,以操纵呈现的图像的图形用户接口。
图14中所示的用于头可穿戴装置700的部件位于边框或镜腿中的一个或更多个电路板(例如PCB或柔性PCB)上。可替选地,或额外地,所描绘的部件可以位于头可穿戴装置700的块、框架、铰链或梁架中。左可见光摄像装置1410和右可见光摄像装置1410可以包括数字摄像机装置元件诸如可以用于捕获数据的互补金属氧化物半导体(CMOS)图像传感器、电荷耦合装置、摄像机装置透镜704a和摄像机装置透镜704b,或任何其他相应可见或光捕获元件,该数字摄像机装置元件包括具有未知物体的场景图像。
头可穿戴装置700包括存储器1420,该存储器1420存储执行本文所描述的功能的子集或全部的指令。存储器1420还可以包括存储装置。
如图14中所示,高速电路1416包括高速处理器1418、存储器1420以及高速无线电路1422。在示例中,图像显示驱动器1406耦接至高速电路1416并由高速处理器1418操作,以驱动光学组件1402的图像显示器的左图像显示器和右图像显示器。高速处理器1418可以是能够管理高速通信和头可穿戴装置700所需的任何一般计算系统的操作的任何处理器。高速处理器1418包括使用高速无线电路1422管理高速无线连接1434到无线局域网(WLAN)上的高速数据传输所需的处理资源。在某些示例中,高速处理器1418执行操作系统(诸如LINUX操作系统或头可穿戴装置700的其他这样的操作系统),并且操作系统被存储在存储器1420中以用于执行。除任何其他职责之外,使用执行头可穿戴装置700的软件架构的高速处理器1418来管理与高速无线电路1422的数据传输。在某些示例中,高速无线电路1422被配置成实现电气和电子工程师协会(IEEE)802.11通信标准(在本文中也被称为Wi-Fi)。在其他示例中,其他高速通信标准可以通过高速无线电路1422来实现。
头可穿戴装置700的低功率无线电路1428和高速无线电路1422可以包括短程收发器(蓝牙TM)和无线广域、本地或广域网络收发器(例如,蜂窝或WiFi)。可以使用头可穿戴装置700的架构的可以如网络1436的其他元件的细节来实现客户端设备102(包括经由低功率无线连接1432和高速无线连接1434进行通信的收发器)。
存储器1420包括能够存储各种数据和应用的任何存储装置,所述各种数据和应用包括除其他外的由左可见光摄像装置1410和右可见光摄像装置1410、红外摄像装置1414和图像处理器140生成的摄像装置数据,以及由在光学组件1402的图像显示的图像显示器上的图像显示驱动器1406生成的用于显示的图像。虽然存储器1420被示出为与高速电路1416集成,但在其他示例中,存储器1420可以是头可穿戴装置700的独立的单独元件。在某些这样的示例中,电路由线可以提供通过包括高速处理器1418的芯片从图像处理器1408或低功率处理器1426至存储器1420的连接。在其他示例中,高速处理器1418可以管理存储器1420的寻址,使得低功率处理器1426将在需要涉及存储器1420的读或写操作的任何时间启动高速处理器1418。
如图14中所示,头可穿戴装置700的低功率处理器1426或高速处理器1418可以耦接至摄像装置(可见光摄像装置1410;红外发射器1412,或红外摄像装置1414)、图像显示驱动器1406、用户输入装置1404(例如,触摸传感器或按钮)以及存储器1420。
头可穿戴装置700与主机连接。例如,头可穿戴装置700经由高速无线连接1434与客户端设备102配对,或者经由网络1436连接至服务器系统1430。服务器系统1430可以是作为服务或网络计算系统的一部分的一个或更多个计算设备,例如,所述一个或更多个计算设备包括处理器、存储器以及通过网络1436与客户端设备102和头可穿戴装置700进行通信的网络通信接口。
客户端设备102包括处理器和耦接至处理器的网络通信接口。网络通信接口允许通过网络1436、低功率无线连接1432或高速无线连接1434进行通信。客户端设备102还可以在客户端设备102的存储器中存储指令中的至少部分以实现本文所描述的功能。
头可穿戴装置700的输出部件包括视觉部件诸如显示器(诸如液晶显示器(LCD)、等离子显示板(PDP)、发光二极管(LED)显示器、投影仪或波导)。光学组件的图像显示器由图像显示驱动器1406驱动。头可穿戴装置700的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号生成器等。头可穿戴装置700、客户端设备102和服务器系统1430的输入部件(诸如用户输入装置1404)可以包括字母数字输入部件(例如,键盘、配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他定点仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏,或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
头可穿戴装置700可以可选地包括额外的外围设备元件。这样的外围设备元件可以包括生物识别传感器、附加传感器或与头可穿戴装置700集成的显示元件。例如,外围设备元件可以包括任何I/O部件,该I/O部件包括输出部件、运动部件、位置部件或本文所描述的任何其他这样的元件。
例如,生物识别部件包括检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。位置部件包括生成位置坐标的位置传感器部件(例如,全球定位系统(GPS)接收器部件)、生成定位系统坐标的WiFi或蓝牙TM收发器、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。这样的定位系统坐标也可以通过低功率无线连接1432和高速无线连接1434从客户端设备102经由低功率无线电路1428或高速无线电路1422被接收。
在使用与“A、B或C中的至少一个”、“A、B和C中的至少一个”、“一个或更多个A、B或C”、或“A、B和C中的一个或更多个”相似的短语的情况下,旨在将短语解释成意指在实施方式中可以单独存在A,在实施方式中可以单独存在B,在实施方式中可以单独存在C,或者可以在单个实施方式中存在元素A、B和C的任何组合;例如,A和B,A和C,B和C,或A和B和C。
在不偏离本公开内容的范围的情况下,可以对所公开的实施方式做出改变和修改。这些和其他改变或修改旨在被包括在本公开内容的范围内,如以下权利要求中所表达的。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有以下边界的设备、物理实体或逻辑:所述边界由功能或子例程调用、分支点、API或对特定处理或控制功能提供分区或模块化的其他技术来定义。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件部件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行所配置的功能的特定机器(或机器的特定部件)并且不再是通用处理器。应当认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被配置为各自不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置特定的一个或多个处理器,以例如在一个时刻处构成特定硬件部件并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在这些硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在多个硬件部件在不同时间被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。在本文中描述的示例方法的各种操作可以至少部分地由临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,在本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器或者处理器实现的部件执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不仅驻留在单个机器内,而且跨多个机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨多个地理定位分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储装置/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换地使用。
“短暂消息”是指可以在时间有限的持续时间内访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储装置和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换地使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令并且包括数字或模拟通信信号的任何无形介质或者有助于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特性中的一个或更多个特性被以将信息编码在信号中的方式设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物并且可以在本公开内容中互换使用。
Claims (21)
1.一种系统,包括:
处理器;以及
其上具有指令的存储器,所述指令当由所述处理器执行时使所述系统执行操作,所述操作包括:
使通信会话的通信界面显示在第一客户端设备的第一用户接口上和第二客户端设备的第二用户接口上,其中,所述通信会话介于包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间;
检测所述第一用户接口上的第一触摸输入;
确定所述第一触摸输入在所述第一用户接口上的位置;
使所述第二用户接口在所述第二客户端设备的第二用户接口上的与所述第一触摸输入在所述第一用户接口上的位置对应的位置处显示第一指示器元件,其中,所述第一指示器元件被显示达预定时间段;
检测所述第二用户接口上的第二触摸输入;
确定所述第二触摸输入在所述第二用户接口上的位置;以及
响应于确定所述第二触摸输入在所述第二用户接口上的位置与所述第二用户接口上的第一指示器的位置对应并确定在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入,使所述第一用户接口和所述第二用户接口生成触觉反馈响应。
2.根据权利要求1所述的系统,其中,所述第一客户端设备的第一用户和所述第二客户端设备的第二用户在所述通信会话中在线。
3.根据权利要求1所述的系统,其中,处于被显示状态的所述第一指示器元件的视觉强度随着时间而降低。
4.根据权利要求1所述的系统,其中,所述系统执行所述操作还包括:
确定所述第二触摸输入在所述第二用户接口上的位置是否与所述第二用户接口上的所述第一指示器的位置对应;以及
确定是否在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入。
5.根据权利要求1所述的系统,其中,所述第一触摸输入包括在开始定位处触摸所述第一用户接口,以及在结束定位处离开所述第一用户接口。
6.根据权利要求5所述的系统,
其中,所述第二用户接口上的开始定位与所述第一用户接口的开始定位的位置对应,以及所述第二用户接口上的结束定位与所述第一用户接口的结束定位的位置对应,以及
其中,从所述第二用户接口上的开始定位到所述第二用户接口上的所述结束定位显示所述第一指示器元件。
7.根据权利要求1所述的系统,其中,所述触觉反馈响应包括振动模式。
8.根据权利要求1所述的系统,其中,所述系统执行所述操作还包括:
响应于确定所述第二触摸输入在所述第二用户接口上的位置与所述第二用户接口上的所述第一指示器的位置对应并确定在所述预定时间段内检测所述第二用户接口上的所述第二触摸输入,使所述第一用户接口和所述第二用户接口生成对于所述通信界面的增强。
9.根据权利要求8所述的系统,其中,所述增强包括叠加、视觉效果、动画、声音效果,或其任何组合。
10.根据权利要求8所述的系统,其中,所述增强被临时生成达预定时间段。
11.一种方法,包括:
通过处理器使通信会话的通信界面显示在第一客户端设备的第一用户接口上和第二客户端设备的第二用户接口上,其中,所述通信会话介于包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间;
检测所述第一用户接口上的第一触摸输入;
确定所述第一触摸输入在所述第一用户接口上的位置;
使所述第二用户接口在所述第二客户端设备的第二用户接口上的与所述第一触摸输入在所述第一用户接口上的位置对应的位置上显示第一指示器元件,其中,所述第一指示器元件被显示达预定时间段;
检测所述第二用户接口上的第二触摸输入;
确定所述第二触摸输入在所述第二用户接口上的位置;以及
响应于确定所述第二触摸输入在所述第二用户接口上的位置与所述第二用户接口上的所述第一指示器的位置对应并确定在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入,使所述第一用户接口和所述第二用户接口生成触觉反馈响应。
12.根据权利要求11所述的方法,其中,所述第一客户端设备的第一用户和所述第二客户端设备的第二用户在所述通信会话中在线。
13.根据权利要求11所述的方法,其中,处于被显示状态的所述第一指示器元件的视觉强度随着时间而降低。
14.根据权利要求11所述的方法,还包括:
确定所述第二触摸输入在所述第二用户接口上的位置是否与所述第二用户接口上的所述第一指示器的位置对应;以及
确定是否在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入。
15.根据权利要求11所述的方法,其中,所述第一触摸输入包括在开始定位处触摸所述第一用户接口,并且在结束定位处离开所述第一用户接口。
16.根据权利要求15所述的方法,
其中,所述第二用户接口上的开始定位与所述第一用户接口的开始定位的位置对应,以及所述第二用户接口上的结束定位与所述第一用户接口的所述结束定位的位置对应,以及
其中,从所述第二用户接口上的开始定位到所述第二用户接口上的结束定位显示所述第一指示器元件。
17.根据权利要求11所述的方法,其中,所述触觉反馈响应包括振动模式。
18.根据权利要求11所述的方法,还包括:
响应于确定所述第二触摸输入在所述第二用户接口上的位置与所述第二用户接口上的所述第一指示器的位置对应并确定在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入,使所述第一用户接口和所述第二用户接口生成对于所述通信界面的增强。
19.根据权利要求18所述的方法,其中,所述增强包括叠加、视觉效果、动画、声音效果或其任何组合。
20.根据权利要求18所述的方法,其中,所述增强被临时生成达预定时间段。
21.一种其上存储有指令的非暂态计算机可读存储介质,所述指令当由处理器执行时使所述处理器执行操作,所述操作包括:
使通信会话的通信界面显示在第一客户端设备的第一用户接口上和第二客户端设备的第二用户接口上,其中,所述通信会话介于包括所述第一客户端设备和所述第二客户端设备的多个客户端设备之间;
检测所述第一用户接口上的第一触摸输入;
确定所述第一触摸输入在所述第一用户接口上的位置;
使所述第二用户接口在所述第二客户端设备的第二用户接口上的与所述第一触摸输入在所述第一用户接口上的位置对应的位置上显示第一指示器元件,其中,所述第一指示器元件被显示达预定时间段;
检测所述第二用户接口上的第二触摸输入;
确定所述第二触摸输入在所述第二用户接口上的位置;以及
响应于确定所述第二触摸输入在所述第二用户接口上的位置与所述第二用户接口上的所述第一指示器的位置对应并确定在所述预定时间段内检测到所述第二用户接口上的所述第二触摸输入,使所述第一用户接口和所述第二用户接口生成触觉反馈响应。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063133072P | 2020-12-31 | 2020-12-31 | |
US63/133,072 | 2020-12-31 | ||
PCT/US2021/073156 WO2022147450A1 (en) | 2020-12-31 | 2021-12-29 | Communication interface with haptic feedback response |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116710885A true CN116710885A (zh) | 2023-09-05 |
Family
ID=80122237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180088068.8A Pending CN116710885A (zh) | 2020-12-31 | 2021-12-29 | 具有触觉反馈响应的通信界面 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220206584A1 (zh) |
EP (1) | EP4272062A1 (zh) |
KR (1) | KR20230124081A (zh) |
CN (1) | CN116710885A (zh) |
WO (1) | WO2022147450A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11989348B2 (en) | 2020-12-31 | 2024-05-21 | Snap Inc. | Media content items with haptic feedback augmentations |
US11997422B2 (en) | 2020-12-31 | 2024-05-28 | Snap Inc. | Real-time video communication interface with haptic feedback response |
US12050729B2 (en) | 2021-03-31 | 2024-07-30 | Snap Inc. | Real-time communication interface with haptic and audio feedback response |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4272059A1 (en) | 2020-12-31 | 2023-11-08 | Snap Inc. | Electronic communication interface with haptic feedback response |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7286141B2 (en) * | 2001-08-31 | 2007-10-23 | Fuji Xerox Co., Ltd. | Systems and methods for generating and controlling temporary digital ink |
KR100952698B1 (ko) * | 2008-03-10 | 2010-04-13 | 한국표준과학연구원 | 촉감 피드백장치를 이용한 촉감전달방법 및 그 시스템 |
EP3206381A1 (en) * | 2008-07-15 | 2017-08-16 | Immersion Corporation | Systems and methods for mapping message contents to virtual physical properties for vibrotactile messaging |
EP2457142B1 (en) * | 2009-07-22 | 2019-12-25 | Immersion Corporation | Interactive touch screen gaming metaphors with haptic feedback across platforms |
EP2561424B1 (en) * | 2010-04-23 | 2019-02-20 | Immersion Corporation | Systems and methods for providing haptic effects |
US9760241B1 (en) * | 2010-11-05 | 2017-09-12 | Amazon Technologies, Inc. | Tactile interaction with content |
US20130227411A1 (en) * | 2011-12-07 | 2013-08-29 | Qualcomm Incorporated | Sensation enhanced messaging |
US8711118B2 (en) * | 2012-02-15 | 2014-04-29 | Immersion Corporation | Interactivity model for shared feedback on mobile devices |
US8937556B2 (en) * | 2012-06-22 | 2015-01-20 | Blackberry Limited | Indicating the progress of a boot sequence on a communication device |
US20160048209A1 (en) * | 2013-05-21 | 2016-02-18 | Samsung Electronics Co., Ltd. | Method and apparatus for controlling vibration |
DE202015006142U1 (de) * | 2014-09-02 | 2015-12-09 | Apple Inc. | Elektronische Touch-Kommunikation |
EP3367216A1 (en) * | 2017-02-24 | 2018-08-29 | Immersion Corporation | Systems and methods for virtual affective touch |
KR102044241B1 (ko) * | 2017-12-28 | 2019-11-13 | 주식회사 하이퍼커넥트 | 영상 통화 서비스를 제공하는 단말 |
-
2021
- 2021-12-29 US US17/646,370 patent/US20220206584A1/en active Pending
- 2021-12-29 EP EP21851780.3A patent/EP4272062A1/en active Pending
- 2021-12-29 CN CN202180088068.8A patent/CN116710885A/zh active Pending
- 2021-12-29 WO PCT/US2021/073156 patent/WO2022147450A1/en active Application Filing
- 2021-12-29 KR KR1020237025958A patent/KR20230124081A/ko unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11989348B2 (en) | 2020-12-31 | 2024-05-21 | Snap Inc. | Media content items with haptic feedback augmentations |
US11997422B2 (en) | 2020-12-31 | 2024-05-28 | Snap Inc. | Real-time video communication interface with haptic feedback response |
US12050729B2 (en) | 2021-03-31 | 2024-07-30 | Snap Inc. | Real-time communication interface with haptic and audio feedback response |
Also Published As
Publication number | Publication date |
---|---|
US20220206584A1 (en) | 2022-06-30 |
WO2022147450A1 (en) | 2022-07-07 |
KR20230124081A (ko) | 2023-08-24 |
EP4272062A1 (en) | 2023-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116648687B (zh) | 具有触觉反馈响应的电子通信界面 | |
US20220206581A1 (en) | Communication interface with haptic feedback response | |
US20220317774A1 (en) | Real-time communication interface with haptic and audio feedback response | |
US20220206584A1 (en) | Communication interface with haptic feedback response | |
US12050729B2 (en) | Real-time communication interface with haptic and audio feedback response | |
CN117120959A (zh) | 具有触觉反馈响应和音频反馈响应的界面 | |
CN117157609A (zh) | 具有触觉反馈响应的虚拟现实界面 | |
CN116670635A (zh) | 具有触觉反馈的实时视频通信界面 | |
CN116685941A (zh) | 具有触觉反馈增强的媒体内容项 | |
WO2022212174A1 (en) | Interface with haptic and audio feedback response | |
WO2022212175A1 (en) | Interface with haptic and audio feedback response | |
KR20230161516A (ko) | 햅틱 피드백 응답을 갖는 가상 현실 인터페이스 | |
US20220210336A1 (en) | Selector input device to transmit media content items | |
US20220375103A1 (en) | Automatic media capture based on motion sensor data | |
US20220210551A1 (en) | Selector input device to transmit audio signals | |
US20220373791A1 (en) | Automatic media capture using biometric sensor data | |
CN117321545A (zh) | 基于运动传感器数据的自动媒体捕获 | |
CN117337563A (zh) | 用于立体拼接的硬件编码器 | |
CN117157608A (zh) | 用户定义的情景空间 | |
WO2022245856A1 (en) | Automatic media capture based on motion sensor data | |
WO2022245831A1 (en) | Automatic media capture using biometric sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |