CN117321548A - 使用生物计量传感器数据的自动媒体捕获 - Google Patents

使用生物计量传感器数据的自动媒体捕获 Download PDF

Info

Publication number
CN117321548A
CN117321548A CN202280036135.6A CN202280036135A CN117321548A CN 117321548 A CN117321548 A CN 117321548A CN 202280036135 A CN202280036135 A CN 202280036135A CN 117321548 A CN117321548 A CN 117321548A
Authority
CN
China
Prior art keywords
image
wearable device
head wearable
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202280036135.6A
Other languages
English (en)
Inventor
法里德·扎雷赛桑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Priority claimed from PCT/US2022/029642 external-priority patent/WO2022245831A1/en
Publication of CN117321548A publication Critical patent/CN117321548A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7553Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Computer Hardware Design (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Otolaryngology (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computing Systems (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本文中的系统和方法描述了媒体捕获系统,该媒体捕获系统接收来自耦接至头部可穿戴装置的生物计量传感器的传感器数据,基于传感器数据检测与头部可穿戴装置的用户对应的触发事件,使用耦接至头部可穿戴装置的摄像装置捕获图像,并将所捕获的图像发送至客户端设备。

Description

使用生物计量传感器数据的自动媒体捕获
优先权声明
本申请要求于2022年4月8日提交的序列号为17/716,825的美国专利申请的优先权的权益,该美国专利申请要求于2021年5月19日提交的序列号为63/190,515的美国临时申请的优先权的权益,上述美国专利申请和美国临时申请中的每一个的全部内容通过引用并入本文中。
技术领域
本文中的实施方式总体上涉及增强现实。更具体地但非限制性地,本文中的实施方式描述了使用生物计量传感器数据在增强现实设备上进行自动媒体捕获。
背景技术
增强现实(AR)允许用户与真实世界进行交互。用户可以将数字内容呈现到真实世界的对象上,并且可以增强用户对物理世界的体验。
附图说明
在附图(其不一定按比例绘制)中,相同的附图标记可以在不同的视图中描述类似的部件。为了容易标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时所在的图号。在附图的图中示出了一些非限制性示例,在附图中:
图1是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能两者的消息收发系统的图解表示。
图3是根据一些示例的如在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5示出了根据一个示例实施方式的包括媒体捕获系统的头部可穿戴装置。
图6是根据示例实施方式的用于基于可穿戴设备的生物计量传感器数据自动捕获图像的方法的流程图。
图7是根据一些示例的呈计算机系统形式的机器的图解表示,在该机器内可以执行一组指令以使该机器执行本文中讨论的方法中的任何一种或更多种方法。
图8是示出可以在其中实现示例的软件架构的框图。
图9示出了根据一个示例实施方式的可以在其中实现头部可穿戴装置的系统。
具体实施方式
本公开内容的实施方式描述了媒体捕获系统,其用于基于对可穿戴设备处接收到的生物计量传感器数据的突然变化的检测,自动地并且智能地捕获图像。例如,媒体捕获系统基于用户健康状况的突然变化,自动地记录并向一个或更多个计算设备发送威胁或紧急事件。
联网计算环境
图1是示出用于通过网络来交换数据(例如,消息和相关联的内容)的示例消息收发系统100的框图。消息收发系统100包括客户端设备102的多个实例,每个实例托管包括消息收发客户端104和其他应用106的若干应用。每个消息收发客户端104经由网络112(例如,因特网)通信地耦接至消息收发客户端104(例如,托管在相应的其他客户端设备102上)、消息收发服务器系统108和第三方服务器110的其他实例。消息收发客户端104还可以使用应用程序接口(API)与本地托管的应用106通信。
消息收发客户端104能够经由网络112与其他消息收发客户端104和消息收发服务器系统108通信并交换数据。在消息收发客户端104之间以及在消息收发客户端104与消息收发服务器系统108之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统108经由网络112向特定消息收发客户端104提供服务器侧功能。虽然消息收发系统100的某些功能在本文中被描述为由消息收发客户端104或由消息收发服务器系统108执行,但是某些功能的位置是在消息收发客户端104内还是定位在消息收发服务器系统108内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统108内,但是后面将该技术和功能迁移至客户端设备102具有足够处理能力的消息收发客户端104。
消息收发服务器系统108支持向消息收发客户端104提供的各种服务和操作。这样的操作包括向消息收发客户端104发送数据、从消息收发客户端104接收数据以及对由消息收发客户端104生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理位置信息、媒体增强和覆加、消息内容持久性条件、社交网络信息以及实况事件信息。通过经由消息收发客户端104的用户界面(UI)可用的功能来激活和控制消息收发系统100内的数据交换。
现在具体地转至消息收发服务器系统108,应用程序接口(API)服务器116耦接至应用服务器114并且向应用服务器114提供编程接口。应用服务器114通信地耦接至数据库服务器120,数据库服务器120有助于对数据库126进行访问,数据库126存储与由应用服务器114处理的消息相关联的数据。类似地,web服务器128耦接至应用服务器114,并且向应用服务器114提供基于web的接口。为此,web服务器128通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
应用程序接口(API)服务器116在客户端设备102与应用服务器114之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器116提供一组接口(例如,例程和协议),所述一组接口可以由消息收发客户端104调用或查询以激活应用服务器114的功能。应用程序接口(API)服务器116公开应用服务器114所支持的各种功能,包括:账户注册;登录功能;经由应用服务器114从特定消息收发客户端104向另一消息收发客户端104发送消息,从消息收发客户端104向消息收发服务器118发送媒体文件(例如,图像或视频),以及供另一消息收发客户端104的可能访问;设置媒体数据的集合(例如,故事);检索客户端设备102的用户的朋友列表;检索这样的集合;检索消息和内容;对实体图(例如,社交图)添加和删除实体(例如,朋友);在社交图内定位朋友;以及打开应用事件(例如,与消息收发客户端104有关)。
应用服务器114托管多个服务器应用和子系统,包括例如消息收发服务器118、图像处理服务器122、社交网络服务器124和媒体捕获系统130。消息收发服务器118实现多个消息处理技术和功能,特别地涉及对从消息收发客户端104的多个实例接收的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或库)。然后,使这些集合对消息收发客户端104可用。鉴于对这样的处理的硬件要求,也可以由消息收发服务器118在服务器侧执行数据的其他处理器和存储器密集型处理。
应用服务器114还包括图像处理服务器122,图像处理服务器122专用于通常针对从消息收发服务器118发送或在消息收发服务器118处接收的消息的有效载荷内的图像或视频执行各种图像处理操作。
社交网络服务器124支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器118。为此,社交网络服务器124维护并访问数据库126内的实体图308(如图3所示)。社交网络服务器124所支持的功能和服务的示例包括标识消息收发系统100中与特定用户有关系或该特定用户正“关注”的其他用户,并且还包括标识特定用户的兴趣和其他实体。
媒体捕获系统130基于检测可穿戴设备的用户的生物计量传感器数据的变化,自动且智能地捕获图像或视频。例如,可穿戴设备基于生物计量传感器数据的突然变化自动地记录威胁或紧急事件。
返回到消息收发客户端104,外部资源(例如,应用106或小程序)的特征和功能经由消息收发客户端104的接口对用户可用。在该上下文中,“外部”是指应用106或小程序在消息收发客户端104外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端104的创建者或提供者提供。消息收发客户端104接收对启动或访问这样的外部资源的特征的选项的用户选择。外部资源可以是安装在客户端设备102上的应用106(例如,“本地app”)、或者托管在客户端设备102上或者位于客户端设备102的远端(例如,在第三方服务器110上)的应用的小规模版本(例如,“小程序”)。应用的小规模版本包括应用的特征和功能的子集(例如,应用的全规模本地版本),并且使用标记语言文档来实现。在一个示例中,应用的小规模版本(例如,“小程序”)是应用的基于web的标记语言版本,并且嵌入在消息收发客户端104中。除了使用标记语言文档(例如,.*ml文件)之外,小程序可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源的特征的选项的用户选择,消息收发客户端104确定选择的外部资源是基于web的外部资源还是本地安装的应用106。在一些情况下,本地安装在客户端设备102上的应用106可以独立于消息收发客户端104并且与消息收发客户端104分开启动,例如通过在客户端设备102的主页画面上选择与应用106对应的图标。可以经由消息收发客户端104启动或访问这样的应用的小规模版本,并且在一些示例中,小规模应用的任何部分都不能(或者有限部分才能)在消息收发客户端104之外被访问。可以通过消息收发客户端104例如从第三方服务器110接收与小规模应用相关联的标记语言文档并处理这样的文档来启动小规模应用。
响应于确定外部资源是本地安装的应用106,消息收发客户端104指示客户端设备102通过执行与外部资源对应的本地存储的代码来启动外部资源。响应于确定外部资源是基于web的资源,消息收发客户端104(例如)与第三方服务器110通信以获得与选择的外部资源对应的标记语言文档。消息收发客户端104然后处理获得的标记语言文档以在消息收发客户端104的用户界面内呈现基于web的外部资源。
消息收发客户端104可以向客户端设备102的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端104可以向消息收发客户端104中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活动的外部资源或者启动(在该组朋友中)最近使用过但当前不活动的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端104的参与者提供与一组用户中的一个或更多个成员将外部资源中的项、状态、状况或定位共享到聊天会话中的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以启动对应的外部资源,查看外部资源内的特定信息,或将聊天的成员带到外部资源内的特定位置或状态。在给定的外部资源内,可以在消息收发客户端104上向用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端104可以向用户呈现可用外部资源(例如,应用106或小程序)的列表以启动或访问给定的外部资源。该列表可以呈现在上下文相关菜单中。例如,表示应用106(或小程序)的不同应用(或小程序)的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
系统架构
图2是示出根据一些示例的关于消息收发系统100的另外的细节的框图。具体地,消息收发系统100被示出为包括消息收发客户端104和应用服务器114。消息收发系统100包含多个子系统,这些子系统在客户端侧由消息收发客户端104支持并且在服务器侧由应用服务器114支持。这些子系统包括例如短暂定时器系统202、集合管理系统204、增强系统208、地图系统210、游戏系统212、和外部资源系统214。
短暂定时器系统202负责实施消息收发客户端104和消息收发服务器118对内容的临时或时间受限访问。短暂定时器系统202并入了多个定时器,这些定时器基于与消息或消息的集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端104访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器系统202的操作的另外的细节。
集合管理系统204负责管理媒体的集和集合(例如,文本、图像视频和音频数据的集合)。内容(例如,消息,包括图像、视频、文本和音频)的集合可以被组织成“事件库”或“事件故事”。可以使这样的集合在指定时间段例如在与内容有关的事件的持续时间内可用。例如,可以使与音乐会有关的内容在该音乐会的持续时间内作为“故事”可用。集合管理系统204还可以负责向消息收发客户端104的用户界面发布提供存在特定集合的通知的图标。
此外,集合管理系统204包括使得集合管理器能够管理和策展特定内容集合的策展接口206。例如,策展接口206使得事件组织者能够策展与特定事件有关的内容的集合(例如,删除不适当的内容或冗余消息)。另外,集合管理系统204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中而向用户支付补偿。在这样的情况下,集合管理系统204进行操作以自动地为使用这样的用户的内容而向其进行支付。
增强系统208提供使得用户能够增强(例如,注解或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强系统208提供与生成和发布用于由消息收发系统100处理的消息的媒体覆加有关的功能。增强系统208基于客户端设备102的地理位置可操作地向消息收发客户端104提供媒体覆加或增强(例如,图像过滤器)。在另一示例中,增强系统208基于诸如客户端设备102的用户的社交网络信息的其他信息可操作地向消息收发客户端104提供媒体覆加。媒体覆加可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、徽标、动画和声音效果。视觉效果的示例包括颜色覆加。音频和视觉内容或视觉效果可以被应用于客户端设备102处的媒体内容项(例如,照片)。例如,媒体覆加可以包括可以覆加在由客户端设备102拍摄的照片之上的文本或图像。在另一示例中,媒体覆加包括位置标识覆加(例如,威尼斯海滩)、实况事件名称或商家名称覆加(例如,海滩咖啡馆)。在另一示例中,增强系统208使用客户端设备102的地理位置来标识包括客户端设备102的地理位置处的商家名称的媒体覆加。媒体覆加可以包括与商家相关联的其他标记。媒体覆加可以被存储在数据库126中并通过数据库服务器120访问。
在一些示例中,增强系统208提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理位置,并且上传与选择的地理位置相关联的内容。用户还可以指定应当向其他用户提供特定媒体覆加的环境。增强系统208生成包括上传的内容的媒体覆加并且将上传的内容与选择的地理位置相关联。
在其他示例中,增强系统208提供基于商家的发布平台,该基于商家的发布平台使得商家能够经由出价过程来选择与地理位置相关联的特定媒体覆加。例如,增强系统208将最高出价商家的媒体覆加与对应地理位置相关联达预定义时间量。
地图系统210提供各种地理定位功能,并且支持由消息收发客户端104呈现基于地图的媒体内容和消息。例如,地图系统210使得能够在地图上显示(例如,存储在简档数据316中的)用户图标或化身,以在地图的上下文中指示用户的“朋友”的当前位置或过去位置以及由这样的朋友生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,可以在消息收发客户端104的地图界面上将用户从特定地理位置发布到消息收发系统100的消息在地图的该特定定位的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端104与消息收发系统100的其他用户(例如,使用适当的状态化身)共享他或她的位置和状态信息,其中,该位置和状态信息在消息收发客户端104的地图界面的上下文内被类似地显示给选择的用户。
游戏系统212在消息收发客户端104的上下文中提供各种游戏功能。消息收发客户端104提供游戏界面,该游戏界面提供可用游戏的列表,该游戏可以由用户在消息收发客户端104的上下文中启动并与消息收发系统100的其他用户一起玩。消息系统100还使得特定用户能够通过从消息收发客户端104向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。消息收发客户端104还支持在玩游戏的上下文中的语音消息收发和文本消息收发(例如,聊天)两者,提供游戏的排行榜,并且还支持提供游戏内奖励(例如,游戏币和物品)。
外部资源系统214为消息收发客户端104提供接口以与远程服务器(例如,第三方服务器110)进行通信以启动或访问外部资源即应用或小程序。每个第三方服务器110例如托管基于标记语言(例如,HTML5)的应用或应用的小规模版本(例如,游戏应用、实用程序应用、支付应用或乘坐共享应用)。消息收发客户端104可以通过从与基于web的资源相关联的第三方服务器110访问HTML5文件来启动基于web的资源(例如,应用)。在某些示例中,利用由消息收发服务器118提供的软件开发工具包(SDK)以JavaScript对由第三方服务器110托管的应用进行编程。SDK包括应用程序接口(API),该API具有可以由基于web的应用调用或激活的功能。在某些示例中,消息收发服务器118包括JavasScript库,该库提供对消息收发客户端104的某些用户数据的给定外部资源访问。HTML5被用作用于编程游戏的示例技术,但是可以使用基于其他技术编程的应用和资源。
为了将SDK的功能集成到基于web的资源中,SDK由第三方服务器110从消息收发服务器118下载,或者由第三方服务器110以其他方式接收。一旦被下载或接收,SDK被包括作为基于web的外部资源的应用代码的一部分。基于web的资源的代码然后可以调用或激活SDK的某些功能以将消息收发客户端104的特征集成到基于web的资源中。
存储在消息收发服务器118上的SDK有效地提供外部资源(例如,应用106或小应用)与消息收发客户端104之间的桥接。这为用户提供了与消息收发客户端104上的其他用户通信的无缝体验,同时还保留了消息收发客户端104的外观和感觉。为了桥接外部资源与消息收发客户端104之间的通信,在某些示例中,SDK有助于第三方服务器110与消息收发客户端104之间的通信。在某些示例中,在客户端设备102上运行的WebViewJavaScriptBridge在外部资源与消息收发客户端104之间建立两个单向通信信道。消息经由这些通信信道在外部资源与消息收发客户端104之间异步发送。每个SDK功能激活被作为消息和回调来发送。通过构造唯一的回调标识符并且发送具有该回调标识符的消息来实现每个SDK函数。
通过使用SDK,并非来自消息收发客户端104的所有信息都与第三方服务器110共享。SDK基于外部资源的需要来限制共享哪些信息。在某些示例中,每个第三方服务器110向消息收发服务器118提供与基于web的外部资源对应的HTML5文件。消息收发服务器118可以在消息收发客户端104中添加基于web的外部资源的视觉表示(诸如盒设计或其他图形)。一旦用户选择了视觉表示或通过消息收发客户端104的GUI指示消息收发客户端104访问基于web的外部资源的特征,消息收发客户端104获得HTML5文件并且对访问基于web的外部资源的特征所需的资源进行实例化。
消息收发客户端104呈现用于外部资源的图形用户界面(例如,登录页面或标题画面)。在呈现登录页面或标题画面期间、之前或之后,消息收发客户端104确定启动的外部资源是否先前已被授权访问消息收发客户端104的用户数据。响应于确定启动的外部资源先前已被授权访问消息收发客户端104的用户数据,消息收发客户端104呈现外部资源的另一图形用户界面,其包括外部资源的功能和特征。响应于确定启动的外部资源先前未被授权访问消息收发客户端104的用户数据,在显示外部资源的登录页面或标题画面的阈值时间段(例如,3秒)之后,消息收发客户端104向上滑动用于授权外部资源访问用户数据的菜单(例如,将菜单动画化为从画面底部浮现到画面中间或其他部分)。该菜单标识外部资源将被授权使用的用户数据的类型。响应于接收到对接受选项的用户选择,消息收发客户端104将外部资源添加至授权的外部资源的列表,并且使得外部资源能够访问来自消息收发客户端104的用户数据。在一些示例中,外部资源由消息收发客户端104根据OAuth 2框架授权访问用户数据。
消息收发客户端104基于被授权的外部资源的类型来控制与外部资源共享的用户数据的类型。例如,向包括全规模应用(例如,应用106)的外部资源提供对第一类型的用户数据(例如,具有或不具有不同化身特性的用户的仅二维化身)的访问。作为另一示例,向包括应用的小规模版本(例如,应用的基于web的版本)的外部资源提供对第二类型的用户数据(例如,支付信息、用户的二维化身、用户的三维化身、以及具有各种化身特性的化身)的访问。化身特性包括定制化身的外观和感觉(例如,不同姿势、面部特征、服装等)的不同方式。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器系统108的数据库126中的数据结构300的示意图。虽然数据库126的内容被示出为包括多个表,但是将认识到,可以以其他类型的数据结构来存储数据(例如,存储为面向对象的数据库)。
数据库126包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据内的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接至实体图308和简档数据316。其记录保持在实体表306内的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器系统108存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或者基于活动的社交关系、职业关系(例如,在共同的公司或组织工作)。
简档数据316存储关于特定实体的多种类型的简档数据。基于由特定实体指定的隐私设置,简档数据316可以被选择性地使用并呈现给消息收发系统100的其他用户。在实体是个人的情况下,简档数据316包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置)以及用户选择的化身表示(或这样的化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发系统100传送的消息的内容内以及由消息收发客户端104向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间传送的状态或活动的图形表示。
在实体是团体的情况下,除了团体名称、成员以及针对相关团体的各种设置(例如,通知)之外,针对团体的简档数据316还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库126还在增强表310中存储增强数据,例如覆加(overlay)或过滤器(filters)。增强数据与视频(视频的数据存储在视频表304中)和图像(图像的数据存储在图像表312中)相关联并且被应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆加在图像或视频上的覆加。过滤器可以是各种类型,包括当发送用户正在编写消息时来自由消息收发客户端104呈现给发送用户的一组过滤器的用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,可以基于由客户端设备102的全球定位系统(GPS)单元确定的地理位置信息,由消息收发客户端104在用户界面内呈现特定于附近或特定位置的地理位置过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端104基于在消息创建过程期间由客户端设备102收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定定位处的当前温度、发送用户行进的当前速度、客户端设备102的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以添加至图像或视频的实时特效和声音。
如上所述,增强数据包括增强现实内容项、覆加、图像变换、AR图像以及指代可以应用于图像数据(例如,视频或图像)的修改的类似术语。这包括实时修改,其在使用客户端设备102的设备传感器(例如,一个或更多个摄像装置)捕获图像时对图像进行修改并且然后在客户端设备102的屏幕上显示具有修改的图像。这还包括对存储的内容(例如,图库中可以被修改的视频剪辑)的修改。例如,在访问多个增强现实内容项的客户端设备102中,用户可以将单个视频剪辑与多个增强现实内容项一起使用来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过针对同一内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,可以将实时视频捕获与示出的修改一起使用,以示出客户端设备102的传感器当前正捕获的视频图像将如何修改捕获的数据。这样的数据可以仅显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或两者)的情况下被记录并存储在存储器中。在一些系统中,预览特征可以示出不同的增强现实内容项同时在显示器中的不同窗口内看起来如何。例如,这可以使得能够同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的数据和各种系统或使用该数据来修改内容的其他这样的变换系统可以涉及:视频帧中各对象(例如,面部、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这样的对象的跟踪,以及在跟踪这样的对象时对这样的对象的修改或变换。在各种示例中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的三维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在所跟踪的位置处。在另外的示例中,可以使用视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既涉及用于在内容中创建变换的图像、模型和纹理,又涉及利用对象检测、跟踪和放置来实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何种类的计算机化系统的存储器中的任何种类的视频数据(例如,视频流、视频文件等)来执行实时视频处理。例如,用户可以加载视频文件并将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。另外,可以使用计算机动画模型来处理任何对象,例如人的面部和人体的各部位、动物或非生物对象(例如,椅子、汽车或其他对象)。
在一些示例中,当连同要变换的内容一起选择特定修改时,由计算设备标识要变换的元素,并且然后如果要变换的元素存在于视频的帧中,则检测并跟踪要变换的元素。根据修改请求来修改对象的元素,因此变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要涉及改变对象的元素的形式的帧变换,计算对象的每个元素的特性点(例如,使用主动形状模型(Active Shape Model,ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特性点的网格。该网格在视频流中跟踪对象的各元素的后续阶段中使用。在跟踪过程中,所提及的针对每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一组第一点,并且基于该组第一点以及修改请求针对每个元素生成一组第二点。然后,可以通过基于一组第一点、一组第二点和网格修改对象的元素来对视频流的帧进行变换。在这样的方法中,也可以通过跟踪和修改背景来使修改的对象的背景改变或发生扭曲。
在一些示例中,可以通过计算对象的每个元素的特性点并基于计算的特性点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,并且然后生成基于这些点的各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改请求来修改区域的属性,因此对视频流的帧进行变换。取决于具体的修改请求,可以以不同的方式来变换提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除至少部分区域;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其发生扭曲。在各种示例中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特性点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,利用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
可以使用适用于面部检测的其他方法和算法。例如,在一些示例中,使用界标来定位特征,界标表示在所考虑的大多数图像中存在的可区分点。例如,对于面部界标,可以使用左眼瞳孔的定位。如果初始界标不可标识(例如,如果人具有眼罩),则可以使用次级界标。这样的界标标识过程可以被用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。利用使形状点之间的平均欧几里德距离最小化的相似变换(允许平移、缩放和旋转)将一个形状与另一形状对准。均值形状(meanshape)是经对准的训练形状的均值。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的均值形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配对形状点的定位进行调整来建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些系统中,单独模板匹配是不可靠的,并且形状模型对弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索从粗略分辨率到精细分辨率在图像金字塔的每一级处重复。
变换系统可以在客户端设备(例如,客户端设备102)上捕获图像或视频流,并在客户端设备102上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状改变、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减小表观年龄、改变性别)、风格转换、图形元素应用以及由已经被配置成在客户端设备102上高效地执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由下述系统使用:在该系统中,用户可以使用具有作为在客户端设备102上操作的消息收发客户端104的一部分而操作的神经网络的客户端设备102来捕获用户的图像或视频流(例如,自拍)。在消息收发客户端104内操作的变换系统确定图像或视频流内的面部的存在,并且提供与计算机动画模型相关联的修改图标以变换数据图像,或者计算机动画模型可以与本文中描述的界面相关联地存在。修改图标包括下述改变:该改变可以是作为修改操作的一部分的用于修改图像或视频流内的用户的面部的基础。一旦选择了修改图标,则变换系统发起将用户的图像转换以反映选择的修改图标(例如,在用户上生成笑脸)的过程。一旦图像或视频流被捕获并且指定的修改被选择,则经修改的图像或视频流可以呈现在客户端设备102上显示的图形用户界面中。变换系统可以在图像或视频流的一部分上实现复杂的卷积神经网络,以生成和应用选择的修改。即,用户可以捕获图像或视频流并且一旦修改图标被选择,修改结果就被实时或接近实时地呈现给用户。此外,当正在捕获视频流时,修改可以是持久的,并且选择的修改图标保持被切换。机器教导的神经网络可以被用于实现这样的修改。
呈现由变换系统执行的修改的图形用户界面可以向用户提供附加的交互选项。这样的选项可以基于用于发起特定计算机动画模型的选择和内容捕获的界面(例如,从内容创建者用户界面发起)。在各种示例中,在对修改图标进行初始选择之后,修改可以是持久的。用户可以通过轻击或以其他方式选择正由变换系统修改的面部来切换以开启或关闭修改,并将其存储以供稍后查看或浏览到成像应用的其他区域。在通过变换系统修改多个面部的情况下,用户可以通过轻击或选择图形用户界面内修改和显示的单个面部来全局地切换以开启或关闭修改。在一些示例中,可以单独地修改一组多个面部中的各个面部,或者可以通过轻击或选择图形用户界面内显示的个别面部或一系列各个面部来单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如,针对其的记录被维护在实体表306中的每个用户)发起。用户可以以已由该用户创建和发送/广播的内容集合的形式创建“个人故事”。为此,消息收发客户端104的用户界面可以包括用户可选择的图标,以使得发送用户能够将特定内容添加至他或她的个人故事。
集合还可以构成“实况故事”,该“实况故事”是手动地、自动地或使用手动技术和自动技术的组合创建的来自多个用户的内容的集合。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策划流。可以例如经由消息收发客户端104的用户界面向其客户端设备启用了定位服务并且在特定时间处于共同定位事件处的用户呈现将内容贡献给特定实况故事的选项。可以由消息收发客户端104基于用户的定位向他或她标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另一种类型的内容集合被称为“位置故事”,该“位置故事”使得其客户端设备102位于特定地理位置(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证来验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如以上提及的,视频表304存储视频数据,在一个示例中,该视频数据与其记录被保持在消息表302内的消息相关联。类似地,图像表312存储与其消息数据存储在实体表306中的消息相关联的图像数据。实体表306可以将来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,该消息400由消息收发客户端104生成,以传送至另外的消息收发客户端104或消息收发服务器118。特定消息400的内容被用于填充存储在可由消息收发服务器118访问的数据库126内的消息表302。类似地,消息400的内容作为客户端设备102或应用服务器114的“运输中(in-transit)”或“飞行中(in-flight)”数据存储库在存储器中。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备102的用户界面生成并且包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备102的摄像装置部件捕获或从客户端设备102的存储器部件检索并且包括在消息400中的图像数据。针对发送或接收的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获或者从客户端设备102的存储器部件检索并且包括在消息400中的视频数据。针对发送或接收的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获或从客户端设备102的存储器部件检索并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、标贴或其他注解或增强)。针对发送或接收的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:以秒为单位指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)要经由消息收发客户端104呈现给用户或使其对于用户可访问的时间量的参数值。
·消息地理位置参数416:与消息的内容有效载荷相关联的地理位置数据(例如,纬度坐标和经度坐标)。多个消息地理位置参数416值可以被包括在有效载荷中,这些参数值中的每一个关于内容中包括的内容项(例如,消息图像有效载荷406内的特定图像或者消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识与消息400的消息图像有效载荷406中的特定内容项相关联的一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,所述多个标签中的每一个指示消息有效载荷中包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如,狮子)的情况下,标签值可以被包括在指示相关动物的消息标签420内。标签值可以基于用户输入手动生成,或者可以使用例如图像识别自动生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400寻址到的客户端设备102的用户的标识符(例如,消息收发系统标识符、电子邮件地址或设备标识符)。
消息400的各组成部分的内容(例如,值)可以是指向在其内存储内容数据值的表中的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或图像表312内的位置的地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
图5示出了根据一个示例实施方式的包括媒体捕获系统130的头部可穿戴装置500。图5示出了根据一个示例实施方式的头部可穿戴装置500的立体图。在图5中,头部可穿戴装置500是一副眼镜。在一些实施方式中,头部可穿戴装置500可以是太阳镜或护目镜。一些实施方式可以包括一个或更多个可穿戴设备(例如,具有集成摄像装置的吊坠,该吊坠与头部可穿戴装置500或客户端设备102集成、通信或者耦接至头部可穿戴装置500或客户端设备102)。任何所需的可穿戴设备可以与本公开内容的实施方式结合来使用,其例如是手表、头戴式耳机、腕带、耳塞式耳机、服装(例如,具有集成电子装置的帽子或夹克)、夹式电子设备,或任何其他可穿戴设备。应理解的是,虽然没有示出,但头部可穿戴装置500中包括的系统的一个或更多个部分可以被包括在可以与头部可穿戴装置500结合被使用的客户端设备102(例如,图7中的机器700)中。
在图5中,头部可穿戴装置500是包括框架506的一副眼镜,该框架506包括镜框(或镜圈),其经由铰链和/或端件分别耦接至两个柄(或镜腿)。框架506的镜框携带或容纳一对镜片(例如,镜片508a和镜片508b)。框架506包括耦接至第一柄的第一(例如,右)侧和耦接至第二柄的第二(例如,左)侧。框架506的第一侧与第二侧相对。
头部可穿戴装置500还包括摄像装置模块(未示出)和至少一个图像传感器,该摄像装置模块包括摄像装置透镜(例如,摄像装置透镜504a、摄像装置透镜504b)。摄像装置透镜504a和摄像装置透镜504b可以是透视摄像装置透镜或非透视摄像装置透镜。非透视摄像装置透镜可以是例如鱼眼透镜、广角透镜、全向透镜等。图像传感器通过摄像装置透镜504a和摄像装置透镜504b捕获数字视频。图像可以是静态图像帧或包括多个静态图像帧的视频。摄像装置模块可以耦接至框架506。如图5中所示,框架506耦接至摄像装置透镜504a和摄像装置透镜504b,使得摄像装置透镜(例如,摄像装置透镜504a、摄像装置透镜504b)面向前方。摄像装置透镜504a和摄像装置透镜504b可以与镜片508a和镜片508b垂直。摄像装置模块可以包括双前置摄像装置,该双前置摄像装置被框架506的宽度或头部可穿戴装置500的用户的头部的宽度分开。摄像装置模块还可以包括后置的摄像装置透镜(未图示)。
在图5中,两个柄(或镜腿)分别耦接至麦克风壳体502a和麦克风壳体502b。第一柄和第二柄耦接至头部可穿戴装置500的框架506的相对两侧。第一柄耦接至第一麦克风壳体502a,并且第二柄耦接至第二麦克风壳体502b。麦克风壳体502a和麦克风壳体502b可以在框架506与镜腿末端的位置之间耦接至柄。当用户穿戴头部可穿戴装置500时,麦克风壳体502a和麦克风壳体502b可以位于用户的镜腿的任一侧上。
如图5中所示,麦克风壳体502a和麦克风壳体502b包裹着多个麦克风(未示出)。麦克风是将声音转换成电信号的空中接口声音拾取装置。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的换能器。麦克风可以是数字或模拟的微机电系统(MEMS)麦克风。由麦克风生成的声学信号可以是脉冲密度调制(PDM)信号。
头部可穿戴装置500还可以包括测量生物计量传感器数据的生物计量传感器(未示出)。生物计量传感器可以包括用于检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的传感器。
尽管下面描述的流程图可以将操作示出为顺序过程,但操作中的许多操作可以被并行或并发地执行。此外,可以对操作的顺序进行重新排列。过程在其操作完成时终止。过程可以对应于方法、程序、算法等。方法的操作可以全部或部分执行,可以与其他方法中的一些或所有操作结合执行,并且可以通过任何数目的不同系统(例如本文描述的系统)或者其任何部分(例如包括在各系统中的任何系统中的处理器)执行。
图6是根据示例实施方式的用于基于生物计量传感器数据在头部可穿戴装置500上进行自动媒体捕获的方法600的流程图。方法600的操作中的一些或全部操作可以由媒体捕获系统130、媒体捕获系统130的处理器或其组合执行。
在操作602处,媒体捕获系统130通过处理器接收来自耦接至头部可穿戴装置的生物计量传感器的传感器数据。生物计量传感器被配置成检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等。
在操作604处,媒体捕获系统130基于传感器数据来检测与头部可穿戴装置的用户对应的触发事件。检测触发事件可以包括检测来自生物计量传感器的传感器数据中超过阈值的变化。传感器数据的变化可以是一个或更多个生物计量传感器的传感器数据的变化。可以针对生物计量传感器中的每个传感器预定义阈值量。在一些示例中,传感器数据的变化必须发生在预定义的时间量内(例如,2秒以内),以使媒体捕获系统130检测触发事件。例如,媒体捕获系统130可以检测头部可穿戴装置500的用户的心率突然上升或降低。
在操作606处,响应于检测到触发事件,媒体捕获系统130使用耦接至头部可穿戴装置的摄像装置捕获图像。在一些示例中,媒体捕获系统130响应于检测到触发事件而捕获音频和视频。摄像装置可以是耦接至头部可穿戴装置500的前置摄像装置。在一些示例中,媒体捕获系统130使用耦接至头部可穿戴装置500的第二摄像装置,面向头部可穿戴装置500的用户来捕获第二组图像。
在操作608处,媒体捕获系统130经由网络将捕获图像发送至客户端设备。例如,捕获图像可以被发送至头部可穿戴装置500的用户的联系人。在一些示例中,捕获图像被发送至多个客户端设备。例如,可以将捕获图像发送至头部可穿戴装置500的用户的紧急联系人。还可以将捕获图像存储在服务器系统(例如,消息收发服务器系统108)上。
在一些示例中,媒体捕获系统130向多个客户端设备发送警报。警报可以包括捕获图像。在一些示例中,警报包括与头部可穿戴装置500相关联的位置数据。
机器架构
图7是机器700的图解表示,在该机器700内可以执行用于使机器700执行本文中所讨论的方法中的任何一种或更多种方法的指令710(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令710可以使机器700执行本文中描述的方法中的任何一种或更多种方法。指令710将通用的未经编程的机器700转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器700。机器700可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器700可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器700可以包括但不限于服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器700采取的动作的指令710的任何机器。此外,虽然仅示出了单个机器700,但是术语“机器”还应当被视为包括单独地或联合地执行指令710以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。例如,机器700可以包括客户端设备102或者形成消息收发服务器系统108的一部分的多个服务器设备中的任何一个。在一些示例中,机器700还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且所述特定方法或算法的某些操作在客户端侧执行。
机器700可以包括可以被配置成经由总线740彼此通信的处理器704、存储器706和输入/输出I/O部件702。在示例中,处理器704(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令710的处理器708和处理器712。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图7示出了多个处理器704,但是机器700可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器706包括主存储器714、静态存储器716和存储单元718,该主存储器714、静态存储器716和存储单元718均可由处理器704经由总线740访问。主存储器706、静态存储器716和存储单元718存储实施本文中描述的方法或功能中的任何一个或更多个方法或功能的指令710。指令710还可以在其由机器700执行期间完全地或部分地驻留在主存储器714内、静态存储器716内、存储单元718内的机器可读介质720内、处理器704中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者其任何合适的组合内。
I/O部件702可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种部件。特定机器中包括的特定I/O部件702将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当认识到,I/O部件702可以包括图7中未示出的许多其他部件。在各种示例中,I/O部件702可以包括用户输出部件726和用户输入部件728。用户输出部件726可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件728可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光学键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触感输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触感输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件702可以包括生物计量部件730、运动部件732、环境部件734或定位部件736以及各种其他部件。例如,生物计量部件730包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件732包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件734包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或用于测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备102可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备102的前表面上的前置摄像装置和客户端设备102的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备102的用户的静止图像和视频(例如,“自拍”),该静止图像和视频然后可以用上述增强数据(例如,过滤器)进行增强。例如,后置摄像装置可以用于以更常规的摄像装置模式捕获静止图像和视频,这些图像类似地用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备102还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备102的摄像装置系统可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备102的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
定位部件736包括位置传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件702还包括通信部件738,该通信部件738可操作以经由相应的耦接或连接将机器700耦接至网络722或设备724。例如,通信部件738可以包括与网络722接口的网络接口部件或另一合适的设备。在另外的示例中,通信部件738可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、蓝牙部件(例如,蓝牙低功耗)、部件以及经由其他模态提供通信的其他通信部件。设备724可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件738可以检测标识符,或者包括可操作以检测标识符的部件。例如,通信部件738可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(UltraCode)、UCC RSS-2D条形码的多维条形码和其他光学码的光学传感器)或者声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件738得到各种信息,例如经由因特网协议(IP)地理定位得到的位置、经由信号三角测量得到的位置、经由检测可以指示特定定位的NFC信标信号得到的位置等。
各种存储器(例如,主存储器714、静态存储器716以及处理器704的存储器)以及存储单元718可以存储由本文中描述的方法或功能中的任何一个或更多个方法或功能实施或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令710)在由处理器704执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件738中包括的网络接口部件)使用传输介质并且使用若干公知的传输协议中的任何一个传输协议(例如,超文本传输协议(HTTP))通过网络722来发送或接收指令710。类似地,可以使用传输介质经由与设备724的耦接(例如,对等耦接)来发送或接收指令710。
软件架构
图8是示出可以安装在本文中描述的设备中的任何一个或更多个设备上的软件架构804的框图800。软件架构804由硬件诸如包括处理器820、存储器826和I/O部件838的机器802支持。在该示例中,软件架构804可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构804包括诸如操作系统812、库810、框架808和应用806的层。在操作上,应用806通过软件堆栈来激活API调用850,并且响应于API调用850接收消息852。
操作系统812管理硬件资源并且提供公共服务。操作系统812包括例如核814、服务816和驱动器822。核814充当硬件层与其他软件层之间的抽象层。例如,核814提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务816可以为其他软件层提供其他公共服务。驱动器822负责控制底层硬件或与底层硬件接口。例如,驱动器822可以包括显示驱动器、摄像装置驱动器、或/>低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、/>驱动器、音频驱动器、电力管理驱动器等。
库810提供由应用806使用的公共低级基础设施。库810可以包括系统库818(例如,C标准库),该系统库818提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库810可以包括API库824,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库810还可以包括各种其他库828,以向应用806提供许多其他API。
框架808提供由应用806使用的公共高级基础设施。例如,框架808提供各种图形用户界面(GUI)功能、高级资源管理和高级定位服务。框架808可以提供可以由应用806使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用806可以包括家庭应用836、联系人应用830、浏览器应用832、书籍阅读器应用834、位置应用842、媒体应用844、消息收发应用846、游戏应用848和诸如第三方应用840的各种各样的其他应用。应用806是执行程序中定义的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用806中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如,C语言或汇编语言)。在特定示例中,第三方应用840(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTMPhone的移动操作系统或另外的移动操作系统上运行的移动软件。在该示例中,第三方应用840可以激活由操作系统812提供的API调用850以有助于本文中描述的功能。
具有头部可穿戴装置的系统
图9示出了根据一个示例实施方式的可以在其中实现头部可穿戴装置500的系统900。图9是经由各种网络936通信地耦接移动客户端设备102和服务器系统930的示例头部可穿戴装置500的高级功能框图。
头部可穿戴装置500包括摄像装置,例如,可见光摄像装置910、红外发射器912和红外摄像装置914中的至少一个。摄像装置可以包括图5中具有摄像装置透镜504a和摄像装置透镜504b的摄像装置模块。
客户端设备102可以能够使用低功率无线连接932和高速无线连接934与可穿戴装置500连接。客户端设备102连接至服务器系统930和网络936。网络936可以包括有线连接和无线连接的任何组合。
头部可穿戴装置500还包括光学组件的图像显示器902中的两个图像显示器。光学组件的两个图像显示器902包括与头部可穿戴装置500的左横向侧相关联的一个图像显示器以及与头部可穿戴装置500的右横向侧相关联的一个图像显示器。头部可穿戴装置500还包括图像显示驱动器906、图像处理器908、低功耗的低功率电路924以及高速电路916。光学组件的图像显示器902是用于向头部可穿戴装置500的用户呈现图像和视频,所述图像和视频包括可以包括图形用户界面的图像。
图像显示驱动器906命令和控制光学组件的图像显示器902中的图像显示器。图像显示驱动器906可以将图像数据直接递送至光学组件的图像显示器902中的图像显示器以进行呈现,或者可以将图像数据转换为适合于递送至图像显示设备的信号或数据格式。例如,图像数据可以是根据压缩格式(例如,H.264(MPEG-4Part 10)、HEVC、Theora、Dirac、RealVideo RV40、VP8、VP9等)格式化的视频数据,并且静止图像数据可以根据压缩格式(例如,便携式网络组(PNG)、联合摄影专家组(JPEG)、标签图像文件格式(TIFF)或可交换图像文件格式(Exif)等)而被格式化。
如上所述,头部可穿戴装置500包括框架506和从框架506的横向侧延伸的柄(或镜腿)。头部可穿戴装置500还包括用户输入设备904(例如,触摸传感器或按压按钮),该用户输入设备包括头部可穿戴装置500上的输入表面。用户输入设备904(例如,触摸传感器或按压按钮)用于从用户接收用于操纵所呈现的图像的图形用户界面的输入选择。
用于头部可穿戴装置500的图9中所示的部件位于镜圈或镜腿中的一个或更多个电路板(例如,PCB或柔性PCB)上。替选地或附加地,所描绘的部件可以位于头部可穿戴装置500的块、框架、铰链或鼻梁架中。左可见光摄像装置和右可见光摄像装置910可以包括数字摄像装置元件,例如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、摄像装置透镜504a和摄像装置透镜504b,或可以用于捕获包括具有未知对象的场景图像的数据的任何其他各自的可见光或光捕获元件。
头部可穿戴装置500包括存储器920,该存储器920存储用于执行本文所描述的功能的子集或全部的指令。存储器920还可以包括存储装置。
如图9中所示,高速电路916包括高速处理器918、存储器920以及高速无线电路922。在该示例中,图像显示驱动器906被耦接至高速电路916并由高速处理器918操作,以驱动光学组件的图像显示器902的左图像显示器和右图像显示器。高速处理器918可以是能够管理头部可穿戴装置500所需的高速通信和任何一般计算系统的操作的任何处理器。高速处理器918包括使用高速无线电路922管理到无线局域网(WLAN)的高速无线连接934上的高速数据传输所需的处理资源。在某些示例中,高速处理器918执行操作系统(例如,LINUX操作系统或头部可穿戴装置500的其他这样的操作系统),并且操作系统被存储在存储器920中以用于执行。除了任何其他职责之外,使用执行头部可穿戴装置500的软件架构的高速处理器918来管理与高速无线电路922的数据传输。在某些示例中,高速无线电路922被配置成实现电气和电子工程师协会(IEEE)802.11通信标准(在本文中也被称为Wi-Fi)。在其他示例中,其他高速通信标准可以通过高速无线电路922来实现。
头部可穿戴装置500的低功率无线电路928和高速无线电路922可以包括短距离收发器(蓝牙)和无线广域网、局域网或广域网收发器(例如,蜂窝或WiFi)。可以使用头部可穿戴装置500的架构的细节来实现客户端设备102(包括经由低功率无线连接932和高速无线连接934进行通信的收发器),网络936的其他元件也可以如此。
存储器920包括能够存储各种数据和应用的任何存储设备,所述各种数据和应用包括除其他外的由左可见光摄像装置和右可见光摄像装置910、红外摄像装置914和图像处理器908生成的摄像装置数据,以及由图像显示驱动器906生成以显示在光学组件的图像显示器902中的图像显示器上的图像。虽然存储器920被示出为与高速电路916集成,但在其他示例中,存储器920可以是头部可穿戴装置500的独立的单独元件。在某些这样的示例中,电路由线可以提供通过包括高速处理器918的芯片从图像处理器908或低功率处理器926至存储器920的连接。在其他示例中,高速处理器918可以管理存储器920的寻址,使得低功率处理器926将在需要涉及存储器920的读或写操作的任何时间启动高速处理器918。
如图9中所示,头部可穿戴装置500的低功率处理器926或高速处理器918可以耦接至摄像装置(可见光摄像装置910;红外发射器912,或红外摄像装置914)、图像显示驱动器906、用户输入设备904(例如,触摸传感器或按压按钮)以及存储器920。
头部可穿戴装置500与主机连接。例如,头部可穿戴装置500经由高速无线连接934与客户端设备102配对,或者经由网络936连接至服务器系统930。服务器系统930可以是作为服务或网络计算系统的一部分的一个或更多个计算设备,例如,其包括处理器、存储器以及通过网络936与客户端设备102和头部可穿戴装置500进行通信的网络通信接口。
客户端设备102包括处理器和耦接至处理器的网络通信接口。网络通信接口允许通过网络936、低功率无线连接932或高速无线连接934进行通信。客户端设备102还可以将用于生成双耳音频内容的指令的至少部分存储在客户端设备102的存储器中,以实现本文所述的功能。
头部可穿戴装置500的输出部件包括视觉部件,例如显示器诸如液晶显示器(LCD)、等离子显示板(PDP)、发光二极管(LED)显示器、投影仪或波导。光学组件的图像显示器由图像显示驱动器906驱动。头部可穿戴装置500的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号生成器等。头部可穿戴装置500、客户端设备102和服务器系统930的输入部件(例如用户输入设备904)可以包括字母数字输入部件(例如,键盘、配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如、鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
头部可穿戴装置500可以可选地包括额外的外围设备元件。这样的外围设备元件可以包括与头部可穿戴装置500集成的生物计量传感器、附加传感器或显示元件。例如,外围设备元件可以包括任何I/O部件,包括输出部件、运动部件、位置部件或本文中描述的任何其他此类元件。
例如,生物计量部件包括用于检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。定位部件包括生成位置坐标的位置传感器部件(例如,全球定位系统(GPS)接收器部件)、生成定位系统坐标的WiFi或蓝牙TM收发器、海拔传感器部件(例如,检测可以从其得到海拔高度的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。这样的定位系统坐标也可以通过低功率无线连接932和高速无线连接934从客户端设备102经由低功率无线电路928或高速无线电路922被接收。
在使用类似于“A、B或C中的至少一个”、“A、B和C中的至少一个”、“一个或更多个A、B或C”或“A、B和C中的一个或更多个”的短语时,意图将该短语解释为意指A可以单独存在于实施方式中,B可以单独存在于实施方式中,C可以单独存在于实施方式中,或元素A、B和C的任何组合可以存在于单个实施方式中;例如,A和B、A和C、B和C、或A和B以及C。
在不脱离本公开内容的范围的情况下,可以对所公开的实施方式进行改变和修改。这些及其他改变或修改旨在包括在所附权利要求书中所表达的本公开内容的范围内。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有以下边界的逻辑或设备、物理实体:所述边界由功能或子例程调用、分支点、API或对特定处理或控制功能提供分区或模块化的其他技术来定义。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件部件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置为进行操作以执行如本文中描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行所配置的功能的特定机器(或机器的特定部件)并且不再是通用处理器。将认识到,可以出于成本和时间考虑来决定是机械地在专用且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文中描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被配置为各自不同的专用处理器(例如,包括不同的硬件部件)。软件相应地配置特定的一个或多个处理器,以例如在一个时刻处构成特定硬件部件并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在这些硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在多个硬件部件在不同时间被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。在本文中描述的示例方法的各种操作可以至少部分地由临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文中描述的一个或更多个操作或功能的处理器实现的部件。如本文中使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,在本文中描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器或者处理器实现的部件执行。此外,一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由计算机组(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不仅驻留在单个机器内,而且跨多个机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理位置中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨多个地理位置分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换使用。
“短暂消息”是指可以在时间有限的持续时间内访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,例如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令并且包括数字或模拟通信信号的任何无形介质或者有助于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指使其特性中的一个或更多个特性以将信息编码在信号中的方式来设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物并且可以在本公开内容中互换使用。

Claims (20)

1.一种方法,包括:
通过处理器接收来自耦接至头部可穿戴装置的生物计量传感器的传感器数据;
基于所述传感器数据来检测与所述头部可穿戴装置的用户相对应的触发事件;
响应于检测到所述触发事件,使用耦接至所述头部可穿戴装置的摄像装置来捕获图像;以及
经由网络将所捕获的图像发送至客户端设备。
2.根据权利要求1所述的方法,其中,检测所述触发事件包括检测来自所述生物计量传感器的所述传感器数据中超过阈值的变化。
3.根据权利要求2所述的方法,其中,所述生物计量传感器包括第一组传感器、第二组传感器以及第三组传感器,所述第一组传感器被配置成检测面部和身体姿势,所述第二组传感器被配置成测量生物信号,所述第三组传感器被配置成识别人。
4.根据权利要求1所述的方法,其中,所述摄像装置为前置摄像装置。
5.根据权利要求1所述的方法,其中,所述捕获图像还包括:
从面向所述头部可穿戴装置的所述用户的第二摄像装置捕获第二组图像。
6.根据权利要求1所述的方法,所述方法还包括:
响应于检测到所述触发事件,使得耦接至所述头部可穿戴装置的麦克风记录音频。
7.根据权利要求1所述的方法,所述方法还包括:
向多个客户端设备发送警报,所述警报包括所捕获的图像。
8.根据权利要求7所述的方法,其中,所述警报还包括与所述头部可穿戴装置相关联的位置数据。
9.一种系统,包括:
处理器;以及
存储器,所述存储器存储指令,所述指令当由所述处理器执行时,将所述系统配置成执行包括以下的操作:
通过处理器接收来自耦接至头部可穿戴装置的生物计量传感器的传感器数据;
基于所述传感器数据来检测与所述头部可穿戴装置的用户相对应的触发事件;
响应于检测到所述触发事件,使用耦接至所述头部可穿戴装置的摄像装置来捕获图像;以及
将所捕获的图像发送至客户端设备。
10.根据权利要求9所述的系统,其中,检测所述触发事件包括检测来自所述生物计量传感器的所述传感器数据中超过阈值的变化。
11.根据权利要求10所述的系统,其中,所述生物计量传感器包括第一组传感器、第二组传感器以及第三组传感器,所述第一组传感器被配置成检测面部和身体姿势,所述第二组传感器被配置成测量生物信号,所述第三组传感器被配置成识别人。
12.根据权利要求9所述的系统,其中,所述摄像装置为前置摄像装置。
13.根据权利要求9所述的系统,其中,所述捕获图像还包括:
从面向所述头部可穿戴装置的所述用户的第二摄像装置捕获第二组图像。
14.根据权利要求9所述的系统,其中,所述操作还包括:
响应于检测到所述触发事件,使得耦接至所述头部可穿戴装置的麦克风记录音频。
15.根据权利要求9所述的系统,其中,所述操作还包括:
向多个客户端设备发送警报,所述警报包括所捕获的图像。
16.根据权利要求15所述的系统,其中,所述警报还包括与所述头部可穿戴装置相关联的位置数据。
17.一种非暂态计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令当由计算机执行时,使所述计算机执行包括以下的操作:
通过处理器接收来自耦接至头部可穿戴装置的生物计量传感器的传感器数据;
基于所述传感器数据来检测与所述头部可穿戴装置的用户相对应的触发事件;
响应于检测到所述触发事件,使用耦接至所述头部可穿戴装置的摄像装置来捕获图像;以及
经由网络将所捕获的图像发送至客户端设备。
18.根据权利要求17所述的计算机可读存储介质,其中,检测所述触发事件包括检测来自所述生物计量传感器的所述传感器数据中超过阈值的变化。
19.根据权利要求18所述的计算机可读存储介质,其中,所述生物计量传感器包括第一组传感器、第二组传感器以及第三组传感器,所述第一组传感器被配置成检测面部和身体姿势,所述第二组传感器被配置成测量生物信号,所述第三组传感器被配置成识别人。
20.根据权利要求17所述的计算机可读存储介质,其中,所述摄像装置是前置摄像装置。
CN202280036135.6A 2021-05-19 2022-05-17 使用生物计量传感器数据的自动媒体捕获 Pending CN117321548A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202163190515P 2021-05-19 2021-05-19
US63/190,515 2021-05-19
US17/716,825 US20220373791A1 (en) 2021-05-19 2022-04-08 Automatic media capture using biometric sensor data
US17/716,825 2022-04-08
PCT/US2022/029642 WO2022245831A1 (en) 2021-05-19 2022-05-17 Automatic media capture using biometric sensor data

Publications (1)

Publication Number Publication Date
CN117321548A true CN117321548A (zh) 2023-12-29

Family

ID=84103579

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202280036135.6A Pending CN117321548A (zh) 2021-05-19 2022-05-17 使用生物计量传感器数据的自动媒体捕获

Country Status (4)

Country Link
US (1) US20220373791A1 (zh)
EP (1) EP4341784A1 (zh)
KR (1) KR20240009484A (zh)
CN (1) CN117321548A (zh)

Also Published As

Publication number Publication date
EP4341784A1 (en) 2024-03-27
KR20240009484A (ko) 2024-01-22
US20220373791A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
CN116745743A (zh) 具有触觉反馈响应的通信界面
US11531400B2 (en) Electronic communication interface with haptic feedback response
US11997422B2 (en) Real-time video communication interface with haptic feedback response
US20220317773A1 (en) Real-time communication interface with haptic and audio feedback response
US20220317774A1 (en) Real-time communication interface with haptic and audio feedback response
CN117157609A (zh) 具有触觉反馈响应的虚拟现实界面
CN117120959A (zh) 具有触觉反馈响应和音频反馈响应的界面
CN116685941A (zh) 具有触觉反馈增强的媒体内容项
CN116710885A (zh) 具有触觉反馈响应的通信界面
KR20230118687A (ko) 안경류 디바이스 상의 ar/vr 콘텐츠를 리센터링함
KR20230161516A (ko) 햅틱 피드백 응답을 갖는 가상 현실 인터페이스
US20220319061A1 (en) Transmitting metadata via invisible light
US20220318303A1 (en) Transmitting metadata via inaudible frequencies
KR20230160926A (ko) 사용자-정의 맥락 공간들
US11825276B2 (en) Selector input device to transmit audio signals
US11874960B2 (en) Pausing device operation based on facial movement
US20220375103A1 (en) Automatic media capture based on motion sensor data
US20220210336A1 (en) Selector input device to transmit media content items
US20220373791A1 (en) Automatic media capture using biometric sensor data
US20240231500A1 (en) Real-time communication interface with haptic and audio feedback response
CN117321545A (zh) 基于运动传感器数据的自动媒体捕获
CN117157608A (zh) 用户定义的情景空间
CN117337563A (zh) 用于立体拼接的硬件编码器
KR20240008371A (ko) 모션 센서 데이터에 기초한 자동 미디어 캡처
WO2022245831A1 (en) Automatic media capture using biometric sensor data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination