CN116685263A - 头戴式呼吸分析装置 - Google Patents
头戴式呼吸分析装置 Download PDFInfo
- Publication number
- CN116685263A CN116685263A CN202180084819.9A CN202180084819A CN116685263A CN 116685263 A CN116685263 A CN 116685263A CN 202180084819 A CN202180084819 A CN 202180084819A CN 116685263 A CN116685263 A CN 116685263A
- Authority
- CN
- China
- Prior art keywords
- respiration
- observed
- user
- respiratory
- related parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
公开了一种监测用户的呼吸的方法,包括从多个麦克风接收多个音频信号并将这多个音频信号波束成形为波束成形音频信号。从波束成形音频信号得出观察到的呼吸相关参数,并且将观察到的呼吸相关参数的输出或从观察到的呼吸相关参数得出的输出提供给客户端设备的用户。可以通过将观察到的呼吸相关参数与参考呼吸相关参数进行比较来确定呼吸度量,并且可以从呼吸度量得出呼吸得分。呼吸得分可以基于用户的观察到的呼吸与提示的或期望的呼吸速率匹配的接近程度以及观察到的时间量的组合,所述观察到的时间量是用户的观察到的呼吸速率在提示的或期望的呼吸速率的阈值内的时间量。
Description
优先权要求
本申请要求于2020年12月18日提交的序列号为63/127,855的美国临时申请和于2021年11月22日提交的序列号为17/456,096的美国专利申请的优先权的权益,上述美国临时申请和美国专利申请各自通过引用整体并入本文。
背景技术
目前,用户可以使用移动设备上的内置摄像装置来快速捕获用户生活中发生的事件或时刻。许多头戴式装置适于捕获音频和/或视觉内容。例如,所谓的智能眼镜可以在无需用户取出他们的移动设备的情况下捕获音频和/或视频(A/V)内容。以这种方式捕获的A/V内容可以通过消息收发应用或社交网络应用与其他人分享。
智能眼镜还可以向用户提供附加功能。例如,AR(增强现实)智能眼镜可以提供视觉或听觉信息,以补充用户的真实世界体验。
附图说明
在附图(其不一定按比例绘制)中,相似的附图标记可以在不同的视图中描述类似的部件。为了容易地识别对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字是指该元素被首次引入时的图号。一些非限制性示例在附图的图中示出,在附图中:
图1示出了根据一个示例的头戴式装置的立体图。
图2示出了根据一个示例的图1的头戴式装置的底视图。
图3是根据一些示例的可以在其中部署本公开内容的联网环境的图解表示。
图4是根据一个示例的与图1的头戴式装置一起使用的音频处理器的框图。
图5示出了根据一个示例的图4的波束成形器的框图。
图6是由图4的呼吸信号分析模块接收的信号的示例的曲线图。
图7A是示出吸气的音频频率分布的示例的曲线图。
图7B示出了对应呼气的音频频率分布的示例。
图8是根据一个示例的使用图1的头戴式装置进行的呼吸监测处理的流程图。
图9示出了根据一个实施方式的主题的一方面。
图10示出了根据一个实施方式的主题的一方面。
图11是根据一个示例的与图1的头戴式装置一起使用的音频处理器的框图。
图12是根据一个示例的使用图1的头戴式装置进行的呼吸监测处理的流程图。
图13是根据一些示例的呈计算机系统形式的机器的图解表示,在该计算机系统内可以执行一组指令以使该机器执行本文所讨论的方法中的任何一种或更多种。
图14是示出了其中可以实现示例的软件架构的框图。
具体实施方式
以下描述包括体现本公开内容的说明性示例的系统、方法、技术、指令序列和计算机器程序产品。在以下描述中,出于说明的目的,阐述了许多具体细节以提供对本发明主题的各种示例的理解。然而,对本领域技术人员来说将明显的是,可以在没有这些具体细节的情况下实践本发明主题的示例。一般地,公知的指令实例、协议、结构和技术不一定详细示出。
呼吸练习或正念呼吸技巧可以提供许多身体和精神上的益处,包括例如减轻压力、降低血压等。在这方面,向正在进行呼吸练习的人提供监测和反馈可能是有益的。
在一个示例中,头戴式装置包括一副眼镜,该眼镜包括一个或更多个间隔开的麦克风。眼镜可以例如是所谓的智能眼镜,并且麦克风可以另外用于语音通话或捕获环境音频以伴随由眼镜中包括的一个或更多个摄像装置捕获的视频。来自麦克风的信号可以被波束成形以更好地检测呼吸音。然后可以根据波束成形信号来确定各种呼吸相关参数,以向进行呼吸练习的人提供反馈。
还公开了一种监测用户的呼吸的示例方法,包括:从多个麦克风接收多个音频信号,将多个音频信号波束成形为波束成形音频信号,根据波束成形音频信号确定观察到的呼吸相关参数,以及提供观察到的呼吸相关参数的输出或提供从观察到的呼吸相关参数得出的输出。
方法还可以包括根据观察到的呼吸相关参数确定呼吸度量,其中,输出包括呼吸度量。可以通过将观察到的呼吸相关参数与参考呼吸相关参数进行比较来确定呼吸度量,并且参考呼吸相关参数可以是用户的历史呼吸相关参数。观察到的呼吸相关参数可以包括吸气或呼气的频率特征。
可以从呼吸度量得出呼吸得分。呼吸得分可以是基于用户的观察到的呼吸与提示的或期望的呼吸速率匹配的接近程度的准确度得分。呼吸得分可以是基于用户的观察到的呼吸速率与提示的或期望的呼吸速率匹配的接近程度以及观察到的时间量的组合的准确度得分。观察到的时间量是观察到的呼吸速率在提示的或期望的呼吸速率的阈值内的时间量。
用户可以提供指示要与一个或更多个接收者分享呼吸得分的输入,并且作为响应,可以通过网络传送包括呼吸得分的消息。
还公开了一种包括指令的示例性非暂态机器可读存储介质,所述指令在由机器的一个或更多个处理器执行指令时,使机器执行用于监测用户的呼吸的操作,所述操作包括:从多个麦克风接收多个音频信号,将多个音频信号波束成形为波束成形音频信号,根据波束成形音频信号确定观察到的呼吸相关参数,以及提供观察到的呼吸相关参数的输出或提供从观察到的呼吸相关参数得出的输出。
方法还可以包括根据观察到的呼吸相关参数确定呼吸度量,其中,输出包括呼吸度量。可以通过将观察到的呼吸相关参数与参考呼吸相关参数进行比较来确定呼吸度量。
操作还可以包括从呼吸度量得出呼吸得分,其中,呼吸得分是基于用户的观察到的呼吸速率与提示的或期望的呼吸速率匹配的接近程度的准确度得分。呼吸得分还可以基于观察到的时间量,所述观察到的时间量是观察到的呼吸速率在提示的或期望的呼吸速率的阈值内的时间量。
还公开了一种示例系统,包括一个或更多个处理器以及一个或更多个存储指令的机器可读介质,所述指令在由一个或更多个处理器执行指令时,使所述系统执行如本文所述的用于监测用户的呼吸的操作。操作可以包括:从多个麦克风接收多个音频信号,将多个音频信号波束成形为波束成形音频信号,根据波束成形音频信号确定观察到的呼吸相关参数,以及提供观察到的呼吸相关参数的输出或提供从观察到的呼吸相关参数得出的输出。
操作还可以包括:通过将观察到的呼吸相关参数与参考呼吸相关参数进行比较,来根据观察到的呼吸相关参数确定呼吸度量,并且其中,输出包括呼吸度量。观察到的呼吸相关参数可以包括吸气或呼气的频率特征。
操作还可以包括从呼吸度量得出呼吸得分,呼吸得分基于用户的观察到的呼吸与提示的或期望的呼吸速率匹配的接近程度以及观察到的时间量的组合,所述观察到的时间量是观察到的呼吸速率在提示的或期望的呼吸速率的阈值内的时间量。
操作还可以另外包括:接收指示要与一个或更多个接收者分享呼吸得分的用户输入,以及通过网络来传送包括呼吸得分的消息。
图1示出了根据一个示例的用于监测呼吸的头戴式装置100的立体图。图2示出了根据一个示例的来自图1的头戴式装置100的底视图。在图1和图2中,头戴式装置100是一副眼镜。在一些示例中,头戴式装置100可以是太阳镜或护目镜。一些示例可以包括一个或更多个可穿戴设备,诸如具有与头戴式装置100或客户端设备集成、通信或耦接的集成式摄像装置的物件(pendant)。任何期望的可穿戴设备都可以与本公开内容的示例结合使用,诸如手表、头戴式耳机、腕带、耳塞、衣服(诸如具有集成电子设备的帽子或夹克)、夹式电子设备或任何其他可穿戴设备。应当理解,尽管未示出,但包括在头戴式装置中的系统的一个或更多个部分可以被包括在可以与头戴式装置100结合使用的客户端设备(例如,图13的机器1300)中。例如,如图4和图5所示的一个或更多个元件可以被包括在头戴式装置100和/或客户端设备中。
如本文所使用的,术语“客户端设备”可以指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获取资源的任何机器。客户端设备可以是但不限于移动电话、台式计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器的或可编程的消费类电子产品、游戏控制台、机顶盒(STB)或用户可以用于访问网络的任何其他通信设备。
在图1和图2中,头戴式装置100是一副眼镜,其包括镜框103,镜框103包括经由铰链和/或端部件分别耦接至两个杆(或镜脚(temples))的圈线(eye wires)(或坑线(eyesrims))。镜框103的圈线承载或托持一对镜片104_1、104_2。镜框103包括耦接至第一杆的第一侧(例如,右侧)和耦接至第二杆的第二侧(例如,左侧)。框架103的第一侧与第二侧相对。
装置100还包括摄像装置模块,该摄像装置模块包括摄像装置镜头102_1、102_2和至少一个图像传感器。摄像装置镜头可以是透视摄像装置镜头或非透视摄像装置镜头。非透视摄像装置镜头可以是例如鱼眼镜头、广角镜头、全向镜头等。图像传感器通过摄像装置镜头捕获数字视频。图像也可以是静止图像帧或包括多个静止图像帧的视频。摄像装置模块可以耦接至镜框103。如图1和图2所示,镜框103耦接至摄像装置镜头102_1、102_2使得摄像装置镜头面向前方。摄像装置镜头102_1、102_2可以垂直于镜片104_1、104_2。摄像装置模块可以包括相隔镜框103的宽度或装置100的用户的头部的宽度的双前置摄像装置。
在图1和图2中,两个杆(或镜脚)分别耦接至麦克风壳体101_1、101_2。第一杆和第二杆耦接至头戴式装置100的镜框103的相对侧。第一杆耦接至第一麦克风壳体101_1,第二杆耦接至第二麦克风壳体101_2。麦克风壳体101_1、101_2可以在框架103的位置与脚套(temple tips)的位置之间耦接至杆。当用户佩戴装置100时,麦克风壳体101_1、101_2可以位于用户太阳穴的任一侧。
在图2所示的示例中,第一麦克风壳体101_1封装麦克风110_3和110_4,第二麦克风壳体101_2封装麦克风110_1和110_2。麦克风壳体101_1、101_2各自包括前端口和后端口。第一麦克风壳体101_1的前端口耦接至麦克风110_3(例如,第一前麦克风),并且第一麦克风壳体101_1的后端口耦接至麦克风110_4(例如,第一后麦克风)。第二麦克风壳体101_2的前端口耦接至麦克风110_1(例如,第二前麦克风),并且第二麦克风壳体101_2的后端口耦接至麦克风110_2(例如,第二后麦克风)。
在图2所示的示例中还包括麦克风101_5,麦克风101_5位于眼镜的在鼻梁架(nosepiece)114上方的鼻桥(bridge)108中。除了麦克风101_1至101_4之外,还可以提供麦克风101_5,以提供与用户的呼吸音或人声对应的附加信号。
麦克风110_1至110_N可以是数字或模拟微机电系统(MEMS)麦克风。
此外,头戴式装置100可以包括一个或更多个加速度计。加速度计可以是用于呼吸监测的专用加速度计,或者它们可以是惯性测量单元(IMU)的一部分,诸如参照图13描述的运动部件1332。
例如,图2示出了安装至头戴式装置100的鼻梁架114的加速度计112。应当理解,可以针对一个或更多个加速度计选择其他合适的位置,包括在眼镜的鼻梁架114上方的鼻桥108中。此外,IMU还可以位于鼻梁架114或鼻桥108内或其周围。在这种情况下,头戴式装置100的配置可以被修改成例如包括集成的鼻桥和鼻梁架,或者根据需要进行修改。
图3是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发系统300的框图。消息收发系统300包括客户端设备302的多个实例,每个实例托管多个应用,包括消息收发客户端304和其他应用306。每个消息收发客户端304经由网络310(例如,因特网)通信地耦接至消息收发客户端304(例如,托管在相应的其他客户端设备302上)的其他实例和消息收发服务器系统308。消息收发客户端304还可以使用应用程序接口(API)与本地托管的应用306通信。
如可以看到的,头戴式装置100可以借助于将头戴式装置100耦接至客户端设备302的数据链路328被包括在图3的联网计算环境中。在一个示例中,数据链路328是在诸如Bluetooth的短程协议上操作的无线数据链路。该数据链路可操作以用于提供头戴式装置100与客户端设备302之间的数据(例如,音频和视频数据)和命令或用户输入的交换。
消息收发客户端304能够经由网络310与其他消息收发客户端304和消息收发服务器系统308通信并交换数据。在消息收发客户端304之间以及在消息收发客户端304与消息收发服务器系统308之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器系统308经由网络310向特定消息收发客户端304提供服务器侧功能。虽然消息收发系统300的某些功能在本文中被描述为由消息收发客户端304或由消息收发服务器系统308执行,但是某些功能的定位是在消息收发客户端304内还是在消息收发服务器系统308内可以是设计选择。例如,在技术上可能优选的是,最初将某些技术和功能部署在消息收发服务器系统308内,但是后面将该技术和功能迁移至客户端设备302具有足够处理能力的消息收发客户端304。
消息收发服务器系统308支持向消息收发客户端304提供的各种服务和操作。这样的操作包括向消息收发客户端304发送数据、从消息收发客户端304接收数据以及对由消息收发客户端304生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和覆盖、消息内容持久性条件、社交网络信息和实况事件信息。通过经由消息收发客户端304的用户界面(UI)可用的功能来激活和控制消息收发系统300内的数据交换。
现在具体地转至消息收发服务器系统308,应用程序接口(API)服务器314耦接至应用服务器312并且向应用服务器312提供编程接口。应用服务器312通信地耦接至数据库服务器318,数据库服务器318有助于对数据库324进行访问,数据库324存储与由应用服务器312处理的消息相关联的数据。类似地,web服务器326耦接至应用服务器312,并且向应用服务器312提供基于web的接口。为此,web服务器326通过超文本传输协议(HTTP)和若干其他相关协议来处理传入的网络请求。
应用程序接口(API)服务器314在客户端设备302与应用服务器312之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器314提供一组接口(例如,例程和协议),该组接口可以由消息收发客户端304调用或查询以激活应用服务器312的功能。应用程序接口(API)服务器314公开应用服务器312所支持的各种功能,包括:账户注册;登录功能;经由应用服务器312从特定消息收发客户端304向另一消息收发客户端304发送消息,从消息收发客户端304向消息收发服务器316发送媒体文件(例如,图像或视频),以及供另一消息收发客户端304的可能访问;设置媒体数据的集合(例如,故事);检索客户端设备302的用户的朋友列表;检索这样的集合;检索消息和内容;针对实体图(例如,社交图)添加和删除实体(例如,朋友);定位社交图内的朋友;以及打开应用事件(例如,与消息收发客户端304相关)。
应用服务器312托管多个服务器应用和子系统,包括例如消息收发服务器316、图像处理服务器320以及社交网络服务器322。消息收发服务器316实现多个消息处理技术和功能,特别地涉及对从消息收发客户端304的多个实例接收的消息中包括的内容(例如,文本和多媒体内容)的聚合及其他处理。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库(gallery))。然后,使这些集合对消息收发客户端304可用。鉴于对数据的其他处理器和存储器密集处理的硬件要求,也可以由消息收发服务器316在服务器侧执行这样的处理。
应用服务器312还包括图像处理服务器320,图像处理服务器320专用于通常针对从消息收发服务器316发送或在消息收发服务器316处接收的消息的有效载荷内的图像或视频执行各种图像处理操作。
社交网络服务器322支持各种社交联网功能和服务,并使这些功能和服务对消息收发服务器316可用。社交网络服务器322所支持的功能和服务的示例包括识别消息收发系统300的与特定用户具有关系或该特定用户正在“关注”的其他用户,以及识别特定用户的兴趣和其他实体。
返回至消息收发客户端304,外部资源(例如,应用306或小应用)的特征和功能经由消息收发客户端304的接口对用户可用。在该上下文中,“外部”是指应用306或小应用在消息收发客户端304外部的事实。外部资源通常由第三方提供,但也可以由消息收发客户端304的创建者或提供者提供。消息收发客户端304接收对启动或访问这样的外部资源的特征的选项的用户选择。外部资源可以是安装在客户端设备302上的应用306(例如,“本地app”)、或者托管在客户端设备302上或者位于客户端设备302的远端(例如,在第三方服务器上)的应用的小规模版本(例如,“小应用”)。应用的小规模版本包括应用(例如,应用的全规模、原生版本)的特征和功能的子集,并且使用标记语言文档来实现。在一个示例中,应用的小规模版本(例如,“小应用”)是应用的基于web的标记语言版本,并且被嵌入在消息收发客户端304中。除了使用标记语言文档(例如,.*ml文件)之外,小应用可以包括脚本语言(例如,.*js文件或.json文件)和样式表(例如,.*ss文件)。
响应于接收到对启动或访问外部资源的特征的选项的用户选择,消息收发客户端304确定所选择的外部资源是基于web的外部资源还是本地安装的应用306。在一些情况下,本地安装在客户端设备302上的应用306可以独立于消息收发客户端304并且与消息收发客户端304分开启动,诸如通过在客户端设备302的主页屏幕上选择与应用306对应的图标。可以经由消息收发客户端304启动或访问这样的应用的小规模版本,并且在一些示例中,小规模应用的任何部分都不能(或者有限部分才能)在消息收发客户端304之外被访问。可以通过消息收发客户端304例如从第三方服务器接收与小规模应用相关联的标记语言文档并处理这样的文档来启动小规模应用。
响应于确定外部资源是本地安装的应用306,消息收发客户端304通过执行与外部资源对应的本地存储的代码来指示客户端设备302启动外部资源。响应于确定外部资源是基于web的资源,消息收发客户端304与(例如)第三方服务器通信以获得与所选择的外部资源对应的标记语言文档。消息收发客户端304然后对所获得的标记语言文档进行处理以在消息收发客户端304的用户界面内呈现基于web的外部资源。
消息收发客户端304可以向客户端设备302的用户或与这样的用户有关的其他用户(例如,“朋友”)通知在一个或更多个外部资源中发生的活动。例如,消息收发客户端304可以向消息收发客户端304中的对话(例如,聊天会话)中的参与者提供与一组用户中的一个或更多个成员当前或最近使用外部资源有关的通知。可以邀请一个或更多个用户加入活跃的外部资源或者启动(在该组朋友中)最近使用过但当前不活跃的外部资源。外部资源可以向对话中的各自使用相应的消息收发客户端304的参与者提供与一组用户中的一个或更多个成员将外部资源中的项、状态、状况或定位共享到聊天会话中的能力。共享项可以是交互式聊天卡,聊天的成员可以利用该交互式聊天卡进行交互,例如,以用于启动对应的外部资源、查看外部资源内的特定信息或将聊天的成员带到外部资源内的特定定位或状态。在给定的外部资源内,可以在消息收发客户端304上向用户发送响应消息。外部资源可以基于外部资源的当前上下文在响应中选择性地包括不同的媒体项。
消息收发客户端304可以向用户呈现可用外部资源(例如,应用306或小应用)的列表以启动或访问给定的外部资源。该列表可以被呈现在上下文相关菜单中。例如,表示不同的应用306(或小应用)的图标可以基于用户如何启动菜单(例如,从对话界面或从非对话界面)而变化。
图4示出了根据一个示例的与头戴式装置100一起使用的音频处理器400的框图。音频处理器400可以在头戴式装置100中或者在相关联的计算设备诸如客户端设备302中实现。客户端设备302的一个实施方式是下面参照图13更详细地讨论的机器1300。一个示例中的音频处理器400包括波束成形器402、单声道音频处理器404、双声道音频处理器408、噪声抑制器406和呼吸信号分析模块410。如果单声道音频处理器404、双声道音频处理器408、呼吸信号分析模块410中的一个或更多个元件没有包括在客户端设备302本身中,则将这些元件的输出提供给客户端设备302。
波束成形器402接收来自麦克风110_1至110_N的音频信号,并以下述方式将这些音频信号组合:使得感兴趣位置处的声学信号经历相长干涉,而其他位置处的声学信号经历相消干涉。这使得能够增强来自波束成形器402的所得音频输出信号。图4的示例中的波束成形器402根据音频处理器400的操作模式具有不同的模式,例如在被用于生成双声道音频信号(例如用于视频捕获)时以及在被用于生成单声道音频信号(例如用于电话呼叫或用于呼吸分析)时具有不同的模式。图5中更详细地示出了波束成形器402。
在一个示例中,单声道音频处理器404被配置成提供与用户的语音对应的输出以用于与远程设备的语音通信,或者捕获用户的语音以用于其他目的,诸如针对消息收发应用或者在将音频备忘录保存至本地或远程存储器时进行语音到文本的转换。单声道音频处理器404提供本领域公知的常规语音音频处理。
在一个示例中,双声道音频处理器408被配置成提供与头戴式装置100附近的环境声音对应的双声道输出,例如当用户正在使用头戴式装置100捕获视频时。双声道音频处理器生成与头戴式装置100前面的音频对应的信号,该信号通常与所捕获的视频相关。在一个示例中,双声道音频处理器提供在已公布的其内容已并入本文的美国专利第10,567,898号中描述的处理,但是应当理解,也可以使用本领域已知的其他双声道处理技术。
噪声抑制器406和呼吸信号分析模块410被配置成生成与头戴式装置100的用户在呼吸期间生成的呼吸音对应的数据。噪声抑制器406使用本领域已知的一种或更多种主动或被动降噪技术。呼吸信号分析模块410处理来自噪声抑制器406的输出信号,以从用户的呼吸音中提取数据,这将在下面更详细地讨论。
音频处理器400能够根据用户输入在不同模式之间切换,或者根据上下文通过用户设备自动切换。例如,如果在客户端设备302上接收到或发起了呼叫,或者在用户设备上激活了语音识别模式,则波束成形器402的参数可以被设置为提供适合于通过单声道音频处理器404进行这样的处理的输出信号,而如果针对头戴式装置100启用了视频捕获,则波束成形器402可以被设置为提供适合于通过双声道音频处理器408进行这样的处理的输出信号。类似地,如果检测到与呼吸监测对应的用户输入,或者在客户端设备302上以其他方式启用了呼吸监测,则波束成形器402可以被设置为提供适合于由呼吸信号分析模块410处理的输出信号。
还将理解,虽然图4中示出了用于处理来自麦克风的音频的三个信号路径,但是音频处理器400也可以被实现为单个自适应音频路径以提供所需的处理。此外,在音频处理器400中可以包括多于一个波束成形器402,以提供对多于一个空间位置处的信号的增强,诸如在双声道实现中。
在从例如加速度计112或从运动部件1332提供加速度计输入信号的情况下,首先在加速度计信号处理器412处对加速度计输入信号进行放大和滤波。选择进行放大和滤波以提供来自加速度计信号处理器412的输出,该输出可与呼吸信号分析模块410从噪声抑制器406接收的音频信号相比较。然后该输出被提供给呼吸信号分析模块410。呼吸信号分析模块410可以以相同的方式对来自加速度计信号处理器412的输出和来自噪声抑制器406的输出进行处理,如下面参照图7A和图7B更详细地讨论的。从加速度计信号得出的参数和度量可以在音频信号弱的情况下使用,并且还可以在麦克风上的摩擦声产生噪声的情况下进行交叉验证。在一个实施方式中,呼吸参数和度量可以仅从加速度计输出得出。
单声道音频处理器404、呼吸信号分析模块410、双声道音频处理器408的输出通过数据链路328提供给客户端设备302(在音频处理器400没有被包括在客户端设备302中的情况下)以用于提供给消息收发客户端304或应用306,或者在音频处理器400被包括在客户端设备302中的情况下,单声道音频处理器404、呼吸信号分析模块410、双声道音频处理器408的输出则被提供给消息收发客户端304或应用306。还将理解,音频处理器400的各种功能或模块可以分布在头戴式装置100与客户端设备302之间。
图5示出了根据一个示例的图4的波束成形器402的框图。
波束成形器402包括多个延迟器504a至404e、多个增益器506a至406e以及求和点508。波束成形器402耦接至分别与麦克风110_1至110_5对应的麦克风502a至402e。每个延迟器(例如,延迟器504a)接收来自对应麦克风(例如麦克风502a)的输入信号并对该输入信号施加时间延迟。时间延迟可由音频处理器400设置(例如,在客户端设备302的指令下)以操纵波束成形器402,如本领域中已知的。在一些情况下,时间延迟,例如针对502e(与麦克风110_5对应)的时间延迟,可以被设置为零,因为该麦克风将是用于捕获来自位于对称平面上的源(用户的嘴和鼻子)的音频(呼吸音)的阵列中的中央麦克风。
每个延迟器(例如,延迟器504a)将输出信号提供给对应的增益器(例如,增益器506a),该增益器将可变增益施加于每个输出信号。由每个增益器(例如,增益器506a)施加的增益值可由音频处理器400设置(例如,在客户端设备302的指令下),以如本领域中已知的那样标准化来自麦克风502a至402e的信号。在一些情况下,如果音频处理器400在诸如双声道模式的模式下操作,在双声道模式下不使用502e,则增益例如针对502e(与麦克风110_5对应)的增益可以被设置为零。
增益器中的每个增益器的输出被提供给求和点508,在求和点508处这些输出被组合成输出信号,该输出信号被提供给单声道音频处理器404、噪声抑制器406或双声道音频处理器408。
图6是当音频处理器400在呼吸分析模式下操作时由呼吸信号分析模块410从噪声抑制器406或加速度计信号处理器412接收的信号602的示例的曲线图600。所示出的信号602示出了三次缓慢呼吸,接着是三次快速呼吸。可以看到,每次呼吸包括由吸气期间生成的声音引起的初始振幅峰值604,接着是由呼气期间生成的声音引起的第二振幅峰值606。
图7A是示出吸气的示例音频频率分布的曲线图,而图7B示出了对应呼气的音频频率分布。从图7A可以看出,对于吸气,在从100Hz至1kHz的范围内存在相对相等的频率分布,而从图7B可以看出,对于呼气,在从100Hz至1kHz的频率分布中存在急剧下降。此外,对于吸气,在80Hz与100Hz之间有强峰值,这相比对于吸气在30kHz与60kHz之间的峰值大得多。使用这些差异,呼吸信号分析模块410可以通过比较两个频率分布或通过比较吸气与呼气之间的峰值幅度来区分吸气和呼气。
利用信号处理技术,呼吸信号分析模块410根据从波束成形器402和/或噪声抑制器406接收的音频信号确定各种参数和度量,包括呼吸之间的持续时间(即周期)、呼吸深度、频率特征、过度换气、哮喘性呼吸和紧张性呼吸。
例如,呼吸信号分析模块410可以通过对音频信号样本的振幅进行时间窗口平均来确定呼吸之间的周期(以及因此确定其倒数——呼吸频率,也称为呼吸速率)。当信号值的平均值达到峰值时,这可以被认为是呼吸循环中与从呼气到吸气的转变对应的可重复位置的可靠指示符。此外,可以将吸气和呼气之间的峰值与呼气和吸气之间的过渡处的峰值区分开来,因为前者将低于后者。此外,如上所述,也可以基于吸气与呼气之间频率组成的差异来区分这两者。
通过观察呼吸速率(通常被表示为每分钟的呼吸次数)或呼吸之间的周期,以及吸气和呼气的频率特征,呼吸信号分析模块410可以做出许多确定。例如,可以通过观察用户的呼吸缓慢而稳定,例如在呼吸周期为8秒或更长的连续呼吸周期中几乎没有变化,来确定用户正在深呼吸。
类似地,如果该人正在以变化的呼吸周期快速呼吸,则呼吸信号分析模块410可以确定该人正在过度换气。另外,如果音频频率分布包括较强的高频分量,则呼吸信号分析模块410可以确定正在发生哮喘性呼吸。
由呼吸信号分析模块410做出的确定可以通过将可选地通过人口统计特征诸如年龄和性别过滤的平均/参考呼吸速率和频率分布与观察到的呼吸速率和频率分布进行比较来完成。由呼吸信号分析模块410做出的确定也可以通过基于特定用户的先前观察到的呼吸数据对该特定用户的历史呼吸速率和频率分布进行比较来完成。这些数据或从这些数据得出的特征可以被存储在与特定用户的账户相关联的应用服务器312上。
图8是根据本公开内容的各个方面的使用图1的头戴式装置100进行的呼吸监测处理800的示例流程图。尽管流程图可能将操作描述为顺序处理,但是许多操作可以并行或同时执行。此外,可以重新排列操作的顺序。当其操作完成时,处理终止。处理可以与方法、过程等对应。方法的步骤可以被整体或部分地执行,可以结合其他方法中的一些或所有步骤来执行,并且可以由任何数量的不同系统例如本文所描述的任何系统执行。处理800也可以由包括在图1中的头戴式装置100中的处理器或包括在客户端设备302中的处理器来执行。
处理800在操作802处开始,头戴式装置100或客户端设备302接收用户输入以开始在呼吸监测和分析模式下操作。用户输入可以例如通过头戴式装置100或客户端设备302上的按钮按压或触摸输入、语音命令等来提供。在一个实施方式中,呼吸监测模式被提供为在客户端设备302上运行的消息收发客户端304或应用306中的选项。仅为了清楚起见,将结合头戴式装置100关于在客户端设备302上的消息收发客户端304中实现的呼吸监测和分析来描述处理800。
一旦接收到用户输入,在操作804中,消息收发客户端304启用音频处理器400(在其还没有被启用的情况下)并且将音频处理器400中的音频处理路径选择成包括图4中的呼吸信号分析模块410的路径。波束成形器402被设置成使得针对由麦克风502a至502e捕获的信号的增益和延迟提供针对头戴式装置100的佩戴者的鼻子和嘴的音频波束成形。与单声道或双声道模式相比,消息收发客户端还可以选择或启用附加的或不同的麦克风,诸如麦克风502e/110_5。
然后,在操作806处,由波束成形器402从麦克风502a至502e接收音频信号并对其进行处理以生成输出信号,在所述输出信号中从用户的嘴和鼻子发出的声音被增强。然后由噪声抑制器406针对该信号执行由音频处理器400提供的任何噪声抑制,并且所得到的信号被传递至呼吸信号分析模块410。
然后,在操作808中,由噪声抑制器406针对在操作806中从波束成形器402接收的波束成形音频信号执行噪声抑制(如果有的话)。
然后,在操作810处,呼吸信号分析模块410根据所得到的信号确定或生成呼吸参数或特征。如上所述,呼吸参数表征用户的呼吸,并且可以包括呼吸速率或周期、用于标识呼气与吸气的峰值振幅值、吸气和呼气的频率特征、呼吸速率或周期的变化等。呼吸参数也可以从接收自加速度计信号处理器412的信号得出。
在操作812处,将在操作810中确定的呼吸参数与各种度量进行比较。度量可以例如是期望的呼吸速率、不期望的呼吸速率(例如,呼吸速率高于某个阈值)、频率特征(例如,指示喘息的高频分量的存在性)或上述任何特征。比较可以是与标准/平均/参考度量的比较,该标准/平均/参考度量可以通过年龄、性别等进行细化,也可以不通过年龄、性别等进行细化。
另外,比较可以是与针对特定用户捕获的历史信息的比较,这对于提供用于比较的基线可能是有益的。例如,如果用户的呼吸的频率特征已经相对于其历史频率特征发生改变,则这可以是应该引起用户注意的问题的指示。
在操作814处,消息收发客户端304向客户端设备302提供呼吸相关输出。这可以是例如一个或更多个基本参数诸如呼吸速率,或者是从这些基本参数得出的参数或通知,或者是作为在操作814中执行的任何比较的结果。例如,如果用户呼吸的频率特征不同于通常或历史度量,则消息收发客户端可以经由听觉提示或其他方法诸如在客户端设备302的显示屏上提供适当的通知。在另一示例中,消息收发客户端304可以提供与用户的呼吸相关的听觉或视觉提示。例如,如果呼吸信号分析模块410或消息收发客户端304确定人正在快速呼吸,则可以提供更慢且更深地呼吸的视觉或听觉提示。如果呼吸信号分析模块410或消息收发客户端304确定人正在适当地缓慢且深深地呼吸,则可以提供鼓励性提示以向用户给出正反馈。
由消息收发客户端304提供给用户的输出还可以包括以期望的呼吸速率变化的视觉或听觉输出。例如,可以提供扩展和收缩可视化(expanding and contractingvisualization),或者可以提供变化的音频输出。可替选地,可以以期望的节奏提供口头呼吸指令。
在操作816中,消息收发客户端304还可以根据呼吸参数及其在整个呼吸时段(session)中的变化来生成呼吸得分。例如,可以基于用户的呼吸与提示的或期望的呼吸速率匹配的接近程度来确定动态准确度得分。可以基于动态准确度得分和消息收发客户端304确定用户已经花费在做呼吸练习或已经达到某个水平或目标的总时间量的组合来生成累积得分。例如,消息收发客户端可以具有期望的或提示的呼吸速率之间的阈值差,并且当用户的呼吸速率与提示的或期望的速率之差的幅度低于该阈值时,消息收发客户端304可以将在该阈值以下花费的时间量作为放松呼吸周期并基于此生成呼吸得分。另一方面,用户在阈值以上花费的时间量可以被记录为紧张性呼吸周期。消息收发客户端304可以基于每日总计、每周总计、月度总计、年度总计向用户报告用户在这样的区域中花费的时间量。
在操作818处,消息收发客户端304可以在客户端设备302的显示器上向用户提供呼吸得分输出,包括动态准确度得分以及每日总计、每周总计、月度总计、年度总计等等。这可以响应于消息收发客户端304在消息收发客户端304的用户界面中接收到对“查看得分”选项的用户选择,并且呼吸得分可以被以文本或图形格式显示在客户端设备302的显示器上。
对呼吸得分的显示可以包括“分享得分”选项,在操作820中,当用户选择该选项时,该选项在消息收发客户端304的用户界面中的现有或新对话(例如,聊天会话)中创建消息,其中用户选择一个或更多个呼吸得分以进行分享。所述对话可以是与从客户端设备302的用户的朋友列表中选择的一个或一组接收者进行的。在一些情况下,该组朋友是用户的朋友,他们也使用包括在消息收发客户端304或外部资源中或经由消息收发客户端304或外部资源访问的呼吸监测功能。
一旦选择了接收者,在操作822中,消息收发客户端304(或外部资源)在通过网络310传送的消息中向所选择的接收者传送呼吸得分。消息可以包括任何呼吸得分,例如放松或紧张性呼吸周期的每日得分。
应当理解,对于所示的许多操作,图8中所示的处理800是连续处理。例如,除非用户提供输入以终止呼吸监测方法,或者音频的路径由于传入呼叫而被客户端设备302转移至单声道音频处理器404,或者音频的路径被转移至双声道音频处理器408以用于例如提供音频以供视频捕获,否则操作806至操作814将持续进行。其他操作则可以自动地或在用户进行输入发生。
图9是示出根据一些示例的用于在呼吸分析中使用的机器学习模型的生成的图解表示。如下面将更详细描述的,在一些示例中,可以使用机器学习模型来代替上述呼吸信号分析模块410或者除了上述呼吸信号分析模块410还可以使用机器学习模型。
在一个或更多个实施方式中,机器学习模型906由一个或更多个软件模块(例如,在消息收发服务器系统110上运行的软件模块)实现。在另一示例中,机器学习模型906由通过定制硬件(例如,一个或更多个协处理器)实现的一个或更多个软件模块来实现。然而,并非所有所描绘的部件均可以用于所有实现方式中,而是一个或更多个实施方式可以包括除附图中所示部件之外的附加部件或与所述部件不同的部件。在不脱离本文所阐述的权利要求书的精神或范围的情况下,可以对部件的布置和类型做出改变。可以设置附加部件、不同部件或更少部件。
如图9所示,机器学习模型生成器904接收呼吸分析训练数据902作为输入。训练数据902将例如包括不同的呼吸相关数据集,诸如由呼吸信号分析模块410生成的呼吸相关数据集,其可以包括呼吸之间的持续时间(即周期)、呼吸深度、频率特征等。呼吸训练数据还将包括关于呼吸的性质和任何相关的情绪或身体状态的信息,例如,人是否在过度换气、是否在进行呼吸性哮喘、是否感到紧张或愤怒等等。通常还将包括人口统计信息,诸如人的年龄、性别、体型、与呼吸相关的急性或慢性医学问题的存在性、健康水平等等。基于训练数据,机器学习模型生成器904生成机器学习模型906并对其进行训练,以基于正从其捕获呼吸信号602的头戴式装置100的用户的呼吸特征和人口统计信息来识别呼吸的性质和任何相关联的情绪状态。
机器学习模型生成器904被配置成使用训练数据902作为输入来生成机器学习模型906。例如,机器学习模型生成器904被配置成基于包括在训练数据902中的呼吸数据集来训练、测试和/或以其他方式调整机器学习模型906。机器学习模型生成器904可以采用的算法或者训练和/或测试机器学习模型生成器904可以采用的算法的示例包括但不限于线性回归、增强树、多层感知器和/或随机森林算法。
图10是示出使用如图9所述生成的机器学习模型来执行呼吸分析的图解表示。在图10中,捕获的呼吸和用户数据1004被作为输入提供给基于M-L(Machine Learning)的呼吸分析模块1002,呼吸分析模块1002包括一个或更多个机器学习模型906。如上所述,在一些示例中,捕获的数据包括由呼吸信号分析模块410生成的数据,其可以包括呼吸之间的持续时间(即周期)、呼吸深度、频率特征等。包括关于用户的人口统计信息诸如人的年龄、性别、体型、与呼吸相关的急性或慢性医学问题的存在性、健康水平等的用户数据是根据在头戴式装置100、客户端设备302或消息收发服务器系统308中维护的用户简档而提供的。基于呼吸和用户数据1004,基于呼吸信号M-L的呼吸分析模块1002提供指示人的呼吸的性质以及任何相关联的情绪状态的结果1006。
如前所述,消息收发客户端304可以经由客户端设备302上的通知或由客户端设备302提供的通知向用户提供呼吸相关分析结果1006,包括对人的呼吸以及任何相关联的情绪状态的评估,以及更基本的参数诸如呼吸速率或者从其得出的参数或通知,或者作为在当前数据与先前数据之间执行的任何比较的结果。由消息收发客户端304提供的通知可以请求(solicit)来自用户的反馈。消息收发客户端304或消息收发服务器系统308可以将用户的反馈和呼吸数据作为正反馈和/或负反馈提供给机器学习模型生成器904,以用于机器学习模型906的连续/更新训练。在一个或更多个实施方式中,可以跨消息收发服务器系统110的多个用户提供正反馈和/或负反馈,使得以众包(crowed-sourced)方式对机器学习模型906进行连续训练。用户的修改和正反馈/负反馈被以匿名、加密的方式提供给消息收发服务器系统110,以便保护用户隐私。
图11示出了根据一些示例的与头戴式装置100一起使用的音频处理器1100的框图。音频处理器1100可以在头戴式装置100中实现或者在相关联的计算设备诸如客户端设备302中实现。客户端设备302的一个实施方式是下面参照图13更详细讨论的机器1300。与图4的音频处理器400一样,一个示例中的音频处理器1100包括如上面参照图4所描述的那样起作用的波束成形器402、单声道音频处理器404、双声道音频处理器408和噪声抑制器406。
音频处理器1100包括如上面参照图10所描述的那样起作用的基于M-L的呼吸分析模块1002。基于M-L的呼吸分析模块1002接收由呼吸信号分析模块410生成的数据,该数据可以包括呼吸之间的持续时间(即周期)、呼吸深度、频率特征等。包括关于用户的人口统计信息诸如人的年龄、性别、体型、与呼吸相关的急性或慢性医学问题的存在性、健康水平等等的用户数据1102是根据在头戴式装置100、客户端设备302或消息收发服务器系统308中维护的用户简档而提供的。
与音频处理器400一样,音频处理器1100能够根据用户输入在不同模式之间切换,或者根据上下文由用户设备自动切换。还将理解,虽然图11中示出了用于处理来自麦克风的音频的三个信号路径,但是音频处理器1100也可以被实现为单个自适应音频路径以提供所需的处理。此外,在音频处理器1100中可以包括多于一个波束成形器402,以提供对多于一个空间位置处的信号的增强,诸如在双声道实现中。
单声道音频处理器404、基于M-L的呼吸信号分析模块1002和双声道音频处理器408的输出通过数据链路328提供给客户端设备302(在音频处理器1100没有被包括在客户端设备302中的情况下)以用于提供给消息收发客户端304或应用306,或者在音频处理器1100被包括在客户端设备302中的情况下,单声道音频处理器404、基于M-L的呼吸信号分析模块1002和双声道音频处理器408的输出被提供给消息收发客户端304或应用306。还将理解,音频处理器1100的各种功能或模块可以分布在头戴式装置100与客户端设备302之间。消息收发客户端304或消息收发服务器系统308还可以将用户的反馈和呼吸数据作为正反馈和/或负反馈提供给机器学习模型生成器904,以用于如上所述的机器学习模型906的连续/更新训练。
图12是根据本公开内容的各个方面的使用图1的头戴式装置100进行的呼吸监测处理1200的示例流程图。尽管流程图可能将操作描述为顺序处理,但是许多操作可以并行或同时执行。此外,可以重新排列操作的顺序。当其操作完成时,处理终止。处理可以与方法、过程等对应。方法的步骤可以被整体或部分地执行,可以结合其他方法中的一些或所有步骤来执行,并且可以由任何数量的不同系统例如本文所描述的任何系统执行。处理1200也可以由包括在图1中的头戴式装置100中的处理器或包括在客户端设备302中的处理器来执行。
处理1200在操作1202处开始,头戴式装置100或客户端设备302接收用户输入以开始在呼吸监测和分析模式下操作。用户输入可以例如通过头戴式装置100或客户端设备302上的按钮按压或触摸输入、语音命令等来提供。在一个实施方式中,呼吸监测模式被提供为在客户端设备302上运行的消息收发客户端304或应用306中的选项。仅为了清楚起见,将结合头戴式装置100关于在客户端设备302上的消息收发客户端304中实现的呼吸监测和分析来描述处理1200。
一旦接收到用户输入,在操作1204中,消息收发客户端304启用音频处理器1100(在其还没有被启用的情况下)并且将音频处理器400中的音频处理路径选择成包括图11中的呼吸信号分析模块410的路径。波束成形器402被设置成使得针对由麦克风502a至502e捕获的信号的增益和延迟提供针对头戴式装置100的佩戴者的鼻子和嘴的音频波束成形。与单声道或双声道模式相比,消息收发客户端还可以选择或启用附加的或不同的麦克风,诸如麦克风502e/110_5。
然后,在操作1206处,由波束成形器402从麦克风502a至502e接收音频信号并对其进行处理以生成输出信号,在所述输出信号中从用户的嘴和鼻子发出的声音被增强。然后由噪声抑制器406针对该信号执行由音频处理器400提供的任何噪声抑制,并且所得到的信号被传递至呼吸信号分析模块410。
然后,在操作1208中,由噪声抑制器406针对在操作1206中从波束成形器402接收的波束成形音频信号执行噪声抑制(如果有的话)。
然后,在操作1210处,呼吸信号分析模块410根据所得到的信号确定或生成呼吸参数或特征。如上所述,呼吸参数表征用户的呼吸,并且可以包括呼吸速率或周期、用于标识呼气与吸气的峰值振幅值、吸气和呼气的频率特征、呼吸速率或周期的变化等。呼吸参数也可以从接收自加速度计信号处理器412的信号得出。
在操作1212处,基于M-L的呼吸分析模块1002使用机器学习模型906对在操作1210中确定的呼吸参数以及用户数据1102诸如人口统计信息进行处理,以确定对呼吸的性质和任何相关联的情绪或身体状态的评估,例如,人是否正过度换气、是否正进行哮喘性呼吸、是否感觉紧张或愤怒等等。
对于图8的处理800,也可以在1212中确定各种呼吸度量。度量可以例如是期望的呼吸速率、不期望的呼吸速率(例如,呼吸速率高于某个阈值)、频率特征(例如,指示喘息的高频分量的存在性)或上述任何特征。实际呼吸度量与期望呼吸度量之间的比较可以是与标准/平均/参考度量的比较,该标准/平均/参考度量可以通过年龄、性别等进行细化,也可以不通过年龄、性别等进行细化。此外,比较可以是与针对特定用户捕获的历史信息的比较,这对于提供比较的基线可能是有益的。例如,如果用户的呼吸的频率特征已经相对于其历史频率特征改变,则这可以是应该引起用户注意的问题的指示。
在操作1214处,消息收发客户端304向客户端设备302提供呼吸相关输出。这可以是例如呼吸的性质以及由基于M-L的呼吸分析模块1002确定的任何相关联的情绪或身体状态。此外,如以上参照图8所描述的,还可以结合通过机器学习得出的输出来提供一个或更多个基本参数诸如呼吸速率,或者从这些基本参数得出的参数或通知,或者作为在操作1212中执行的任何比较的结果。此外,还可以提供历史信息。
在操作1216中,消息收发客户端304接收用户反馈,特别是关于呼吸的性质以及由基于M-L的呼吸分析模块1002使用机器学习模型906确定的任何相关联的情绪或身体状态的反馈。例如,消息收发客户端可能会显示提示:“看起来你处于[情绪状态]。那是正确的吗?”如果消息收发客户端收到肯定回应,可以提供呼吸练习或其他提示来辅助该情绪状态。如果回应是否定的,则消息收发客户端304提供提示以从用户探出关于他们呼吸的性质、他们的情绪状态或他们的身体状态的反馈。例如,“您是否具有或正在处于(选择以下各项中的一项或更多项):惊恐发作、哮喘发作、愤怒、不安、兴奋……”等。
在操作1218中,将用户的反馈和呼吸数据作为正反馈和/或负反馈提供给机器学习模型生成器904,以用于机器学习模型906的连续/更新训练。
应当理解,对于所示的许多操作,图12中所示的处理1200是连续处理。例如,除非用户提供输入以终止呼吸监测方法,或者音频的路径由于传入呼叫而被客户端设备302转移至单声道音频处理器404,或者音频的路径被转移至双声道音频处理器408以用于例如提供音频以供视频捕获,否则操作1206至操作1214将持续进行。其他操作则可以自动地或在用户进行输入时发生。
图13是机器1300的图解表示,在该机器1300中可以执行用于使机器1300执行本文中所讨论的任何一种或更多种方法的指令1310(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1310可以使机器1300执行本文所描述的方法中的任何一种或更多种方法。指令1310将通用的未经编程的机器1300转换成被编程为以所描述的方式执行所描述和示出的功能的特定机器1300。机器1300可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1300可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1300可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1300采取的动作的指令1310的任何机器。此外,虽然仅示出了单个机器1300,但是术语“机器”也应当被视为包括单独地或联合地执行指令1300以执行本文所讨论的方法中的任何一种或更多种的机器的集合。例如,机器1300可以包括客户端设备302或者形成消息收发服务器系统308的一部分的多个服务器设备中的任何一个。在一些示例中,机器1300还可以包括客户端系统和服务器系统两者,其中特定方法或算法的某些操作在服务器侧执行,并且特定方法或算法的某些操作在客户端侧执行。
机器1300可以包括可以被配置成经由总线1340彼此通信的处理器1304、存储器1306和输入/输出(I/O)部件1302。在示例中,处理器1304(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1310的处理器1308和处理器1312。术语“处理器”旨在包括多核处理器,该多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。尽管图13示出了多个处理器1304,但是机器1300可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器、或者其任何组合。
存储器1306包括主存储器1314、静态存储器1316和存储单元1318,其均可由处理器1304经由总线1340访问。主存储器1306、静态存储器1316以及存储单元1318存储实现本文所描述的方法或功能中的任何一种或更多种方法或功能的指令1310。指令1310还可以在其被机器1300执行期间完全地或部分地驻留在主存储器1314内、驻留在静态存储器1316内、驻留在存储单元1318内的机器可读介质1320内、驻留在处理器1304中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或者驻留在其任何合适的组合内。
I/O部件1302可以包括接收输入、提供输出、产生输出、传送信息、交换信息、捕获测量等的各种部件。特定机器中包括的特定I/O部件1302将取决于机器的类型。例如,诸如移动电话的便携式机器可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当理解,I/O部件1302可以包括图13中未示出的许多其他部件。在各种示例中,I/O部件1302可以包括用户输出部件1326和用户输入部件1328。用户输出部件1326可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示装置)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1328可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的定位和力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1302可以包括生物计量部件1330、运动部件1332、环境部件1334、或位置部件1336以及广泛的一系列其他部件。例如,生物计量部件1330包括用于检测表达(例如,手表达、面部表达、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1332包括加速度传感器部件(例如,加速计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1334包括例如一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近度传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或者用于测量大气中的污染物的气体检测传感器)、或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备302可以具有摄像装置系统,该摄像装置系统包括例如在客户端设备302的前表面上的前置摄像装置和客户端设备302的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备302的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。后置摄像装置可以例如用于以更传统的摄像装置模式捕获静止图像和视频,类似地使用增强数据对这些图像进行增强。除了前摄像装置和后摄像装置之外,客户端设备302还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备302的摄像装置系统可以包括双后摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备302的前后侧上包括三重、四重或五重后摄像装置配置。例如,这些多个摄像装置系统可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
位置部件1336包括定位传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1302还包括通信部件1338,通信部件1338可操作以经由相应的耦接或连接将机器1300耦接至网络1322或设备1324。例如,通信部件1338可以包括与网络1322对接的网络接口部件或另一合适的设备。在其他示例中,通信部件1338可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能耗)、/>部件以及经由其他形式提供通信的其他通信部件。设备1324可以是另一机器或各种外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1338可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1338可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码,诸如快速响应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(UltraCode)、UCC RSS-2D条形码的多维条形码以及其他光学码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1338得到各种信息,例如经由因特网协议(IP)地理定位得到定位、经由信号三角测量得到定位、经由检测可以指示特定定位的NFC信标信号得到定位等。
各种存储器(例如,主存储器1314、静态存储器1316以及处理器1304的存储器)以及存储单元1318可以存储由本文所描述的方法或功能中的任何一个或更多个方法或功能实施或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1310)在由处理器1304执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1338中包括的网络接口部件),使用传输介质并且使用若干公知的传输协议中的任何一种传输协议(例如,超文本传输协议(HTTP)),通过网络1322来发送或接收指令1310。类似地,可以使用传输介质经由与设备1324的耦接(例如,对等耦接)来发送或接收指令1310。
图14是示出可以安装在本文所描述的设备中的任何一个或更多个设备上的软件架构1404的框图1400。软件架构1404由硬件诸如包括处理器1420、存储器1426和I/O部件1438的机器1402支持。在该示例中,软件架构1404可以被概念化为层的堆栈,其中每个层提供特定功能。软件架构1404包括诸如操作系统1412、库1410、框架1408和应用1406的层。在操作上,应用1406通过软件堆栈来激活API调用1450并且响应于API调用1450而接收消息1452。
操作系统1412管理硬件资源并且提供公共服务。操作系统1412包括例如核1414、服务1416以及驱动器1422。核1414充当硬件层与其他软件层之间的抽象层。例如,核1414提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1416可以为其他软件层提供其他公共服务。驱动器1422负责控制底层硬件或与底层硬件接口。例如,驱动器1422可以包括显示驱动器、摄像装置驱动器、或低能耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、驱动器、音频驱动器、电力管理驱动器等。
库1410提供由应用1406使用的公共低级基础设施。库1410可以包括系统库1418(例如,C标准库),该系统库1418提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1410可以包括API库1424,诸如媒体库(例如,用于支持各种媒体格式的呈现和操作的库,该各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)进行呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供网页浏览功能的WebKit)等。库1410还可以包括各种其他库1428,以向应用1406提供许多其他API。
框架1408提供由应用1406使用的公共高级基础设施。例如,框架1408提供各种图形用户接口(GUI)功能、高级资源管理和高级定位服务。框架1408可以提供可以由应用1406使用的广泛的其他API,其中一些API可以特定于特定操作系统或平台。
在示例中,应用1406可以包括家庭应用1436、联系人应用1430、浏览器应用1432、书籍阅读器应用1434、定位应用1442、媒体应用1444、消息收发应用1446、游戏应用1448和诸如第三方应用1440的各种各样的其他应用。应用1406是执行程序中限定的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1406中的一个或更多个,该编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如C或汇编语言)。在特定示例中,第三方应用1440(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTM、Phone的移动操作系统或其他移动操作系统上运行的移动软件。在该示例中,第三方应用1440可以激活由操作系统1412提供的API调用1450以有助于本文所描述的功能。
在使用类似于“A、B或C中的至少一个”、“A、B和C中的至少一个”、“一个或更多个A、B或C”或“A、B和C中的一个或更多个”的短语时,旨在将该短语解释为意指A可以单独存在于实施方式中,B可以单独存在于实施方式中,C可以单独存在于实施方式中,或元素A、B和C的任何组合可以存在于单个实施方式中;例如,A和B、A和C、B和C、或A和B以及C。
在不脱离本公开内容的范围的情况下,可以对所公开的实施方式进行改变和修改。这些以及其他改变或修改旨在包括在如所附权利要求书中所表达的本公开内容的范围内。
术语表
“载波信号”是指能够存储、编码或携载由机器执行的指令的任何无形介质并且包括数字或模拟通信信号或其他无形介质以有助于这样的指令的通信。可以经由网络接口设备使用传输介质通过网络发送或接收指令。
“客户端设备”是指与通信网络接口以从一个或更多个服务器系统或其他客户端设备获得资源的任何机器。客户端设备可以是但不限于移动电话、桌上型计算机、膝上型计算机、便携式数字助理(PDA)、智能电话、平板计算机、超级本、上网本、膝上型计算机、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问网络的任何其他通信设备。
“通信网络”是指网络的一个或更多个部分,该网络可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络或网络的一部分可以包括无线网络或蜂窝网络,并且耦接可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或其他类型的蜂窝或无线耦接。在该示例中,耦接可以实现各种类型的数据传输技术中的任何数据传输技术,诸如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线电服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通信系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
“部件”是指具有通过功能或子例程调用、分支点、API或对特定处理或控制功能提供分区或模块化的其他技术定义的边界的逻辑、设备或物理实体。部件可以经由其接口与其他部件组合以执行机器处理。部件可以是被设计用于与其他部件一起使用的经封装的功能硬件单元并且可以是通常执行相关功能中的特定功能的程序的一部分。部件可以构成软件部件(例如,体现在机器可读介质上的代码)或硬件部件。“硬件部件”是能够执行某些操作的有形单元,并且可以以某种物理方式来配置或布置。在各种示例中,可以通过软件(例如,应用或应用部分)将一个或更多个计算机系统(例如,独立计算机系统、客户端计算机系统或服务器计算机系统)或者计算机系统的一个或更多个硬件部件(例如,处理器或处理器组)配置成进行操作以执行如本文所描述的某些操作的硬件部件。也可以机械地、电子地或以其任何合适的组合来实现硬件部件。例如,硬件部件可以包括被永久地配置成执行某些操作的专用电路系统或逻辑。硬件部件可以是专用处理器,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。硬件部件还可以包括通过软件临时配置成执行某些操作的可编程逻辑或电路系统。例如,硬件部件可以包括由通用处理器或其他可编程处理器执行的软件。一旦通过这样的软件被配置,则硬件部件成为被唯一地定制成执行所配置的功能的特定机器(或机器的特定部件)并且不再是通用处理器。应当认识到,可以出于成本和时间考虑来决定是机械地在专用并且永久配置的电路系统中实现硬件部件还是在临时配置(例如,通过软件配置)的电路系统中实现硬件部件。因此,短语“硬件部件”(或“硬件实现的部件”)应当被理解成包含有形实体,即被物理构造、永久配置(例如,硬连线)或临时配置(例如,编程)成以某种方式操作或者执行本文所描述的某些操作的实体。考虑硬件部件被临时配置(例如,被编程)的示例,无需在任一时刻对硬件部件中的每个硬件部件进行配置或实例化。例如,在硬件部件包括通过软件配置而成为专用处理器的通用处理器的情况下,该通用处理器可以在不同时间处被配置成各自不同的专用处理器(例如,包括不同的硬件部件)。软件相应地将一个或多个特定处理器配置成例如在一个时刻处构成特定硬件部件并且在不同的时刻处构成不同的硬件部件。硬件部件可以向其他硬件部件提供信息以及从其他硬件部件接收信息。因此,所描述的硬件部件可以被认为通信地耦接。在同时存在多个硬件部件的情况下,可以通过(例如,通过适当的电路和总线)在这些硬件部件中的两个或更多个硬件部件之间或之中进行信号传输来实现通信。在多个硬件部件在不同时间被配置或实例化的示例中,可以例如通过将信息存储在多个硬件部件可以访问的存储器结构中并且在存储器结构中检索信息来实现这样的硬件部件之间的通信。例如,一个硬件部件可以执行操作,并且将该操作的输出存储在与其通信地耦接的存储器设备中。然后,另外的硬件部件可以在随后的时间访问存储器设备,以检索所存储的输出并对其进行处理。硬件部件还可以发起与输入设备或输出设备的通信,并且可以对资源(例如,信息的集合)进行操作。本文所描述的示例方法的各种操作可以至少部分地由临时地配置(例如,通过软件)或永久地配置成执行相关操作的一个或更多个处理器来执行。无论是被临时地配置还是永久地配置,这样的处理器可以构成进行操作以执行本文所描述的一个或更多个操作或功能的处理器实现的部件。如本文所使用的,“处理器实现的部件”是指使用一个或更多个处理器实现的硬件部件。类似地,本文所描述的方法可以至少部分地由处理器实现,其中,特定的一个或多个处理器是硬件的示例。例如,方法的至少一些操作可以由一个或更多个处理器1304或者处理器实现的部件执行。此外,该一个或更多个处理器还可以进行操作以支持“云计算”环境中的相关操作的执行或作为“软件即服务”(SaaS)操作。例如,操作中的至少一些操作可以由一组计算机(作为包括处理器的机器的示例)执行,其中这些操作可经由网络(例如,因特网)并且经由一个或更多个适当的接口(例如,API)来访问。某些操作的执行可以分布在处理器之间,不是仅驻留在单个机器内,而是跨多个机器部署。在一些示例中,处理器或处理器实现的部件可以位于单个地理定位中(例如,在家庭环境、办公室环境或服务器群内)。在其他示例中,处理器或处理器实现的部件可以跨多个地理定位分布。
“计算机可读存储介质”是指机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物并且可以在本公开内容中互换地使用。
“短暂消息”是指可以在时间有限的持续时间内访问的消息。短暂消息可以是文本、图像、视频等。短暂消息的访问时间可以由消息发送者设置。可替选地,访问时间可以是默认设置或者由接收者指定的设置。无论设置技术如何,该消息都是暂时的。
“机器存储介质”是指存储可执行指令、例程和数据的单个或多个存储设备和介质(例如,集中式或分布式数据库,以及相关联的高速缓存和服务器)。因此,该术语应当被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、FPGA和闪存设备;磁盘,诸如内部硬盘和可移除盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“设备存储介质”、“计算机存储介质”意指相同的事物并且可以在本公开内容中互换地使用。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在术语“信号介质”中。
“非暂态计算机可读存储介质”是指能够存储、编码或携载由机器执行的指令的有形介质。
“信号介质”是指能够存储、编码或携载由机器执行的指令并且包括数字或模拟通信信号的任何无形介质或者有助于软件或数据的通信的其他无形介质。术语“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其特征中的一个或更多个特征被以将信息编码在信号中的方式设置或改变的信号。术语“传输介质”和“信号介质”意指相同的事物并且可以在本公开内容中互换使用。
Claims (20)
1.一种监测用户的呼吸的方法,包括:
从多个麦克风接收多个音频信号;
将所述多个音频信号波束成形为波束成形音频信号;
根据所述波束成形音频信号确定观察到的呼吸相关参数;以及
提供所述观察到的呼吸相关参数的输出或提供从所述观察到的呼吸相关参数得出的输出。
2.根据权利要求1所述的方法,还包括:
根据所述观察到的呼吸相关参数确定呼吸度量,其中,所述输出包括所述呼吸度量。
3.根据权利要求2所述的方法,其中,所述呼吸度量是通过将所述观察到的呼吸相关参数与参考呼吸相关参数进行比较来确定的。
4.根据权利要求3所述的方法,其中,所述参考呼吸相关参数是所述用户的历史呼吸相关参数。
5.根据权利要求3所述的方法,其中,所述观察到的呼吸相关参数包括吸气或呼气的频率特征。
6.根据权利要求3所述的方法,还包括:
从所述呼吸度量得出呼吸得分。
7.根据权利要求6所述的方法,其中,所述呼吸得分是基于所述用户的观察到的呼吸与提示的或期望的呼吸速率匹配的接近程度的准确度得分。
8.根据权利要求6所述的方法,其中,所述呼吸得分是基于所述用户的观察到的呼吸速率与提示的或期望的呼吸速率匹配的接近程度以及观察到的时间量的组合的准确度得分。
9.根据权利要求1所述的方法,其中,确定所述呼吸相关参数包括使用机器学习模型来确定所述呼吸的性质或所述用户的状态。
10.根据权利要求9所述的方法,还包括:
接收关于所述呼吸的性质或所述用户的状态的用户反馈;以及
使用所述呼吸相关参数和所述用户反馈来更新所述机器学习模型。
11.一种包括指令的非暂态机器可读存储介质,所述指令在由机器的一个或更多个处理器执行时,使所述机器执行用于监测用户的呼吸的操作,所述操作包括:
从多个麦克风接收多个音频信号;
将所述多个音频信号波束成形为波束成形音频信号;
根据所述波束成形音频信号确定观察到的呼吸相关参数;以及
提供所述观察到的呼吸相关参数的输出或提供从所述观察到的呼吸相关参数得出的输出。
12.根据权利要求11所述的非暂态机器可读存储介质,其中,所述操作还包括:
根据所述观察到的呼吸相关参数确定呼吸度量,其中,所述输出包括所述呼吸度量。
13.根据权利要求12所述的非暂态机器可读存储介质,其中,所述呼吸度量是通过将所述观察到的呼吸相关参数与参考呼吸相关参数进行比较来确定的。
14.根据权利要求13所述的非暂态机器可读存储介质,其中,所述操作还包括:
从所述呼吸度量得出呼吸得分,其中,所述呼吸得分是基于所述用户的观察到的呼吸速率与提示的或期望的呼吸速率匹配的接近程度的准确度得分。
15.根据权利要求14所述的非暂态机器可读存储介质,其中,所述呼吸得分还基于观察到的时间量,所述观察到的时间量是所述观察到的呼吸速率在所述提示的或期望的呼吸速率的阈值内的时间量。
16.一种系统,包括:
一个或更多个处理器;以及
存储指令的一个或更多个机器可读介质,所述指令在由所述一个或更多个处理器执行时,使所述系统执行用于监测用户的呼吸的操作,所述操作包括:
从多个麦克风接收多个音频信号;
将所述多个音频信号波束成形为波束成形音频信号;
根据所述波束成形音频信号确定观察到的呼吸相关参数;以及
提供所述观察到的呼吸相关参数的输出或提供从所述观察到的呼吸相关参数得出的输出。
17.根据权利要求16所述的系统,其中,所述操作还包括:
通过将所述观察到的呼吸相关参数与参考呼吸相关参数进行比较,来根据所述观察到的呼吸相关参数确定呼吸度量,并且其中,所述输出包括所述呼吸度量。
18.根据权利要求17所述的系统,其中,所述观察到的呼吸相关参数包括吸气或呼气的频率特征。
19.根据权利要求17所述的系统,其中,所述操作还包括:
从所述呼吸度量得出呼吸得分,所述呼吸得分基于所述用户的观察到的呼吸与提示的或期望的呼吸速率匹配的接近程度以及观察到的时间量的组合,所述观察到的时间量是所述观察到的呼吸速率在所述提示的或期望的呼吸速率的阈值内的时间量。
20.根据权利要求19所述的系统,其中,确定所述呼吸相关参数包括使用机器学习模型来确定所述呼吸的性质或所述用户的状态,所述操作还包括:
接收关于所述呼吸的性质或所述用户的状态的用户反馈;以及
使用所述呼吸相关参数和所述用户反馈来更新所述机器学习模型。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US63/127,855 | 2020-12-18 | ||
US17/456,096 | 2021-11-22 | ||
US17/456,096 US20220192622A1 (en) | 2020-12-18 | 2021-11-22 | Head-wearable apparatus for breathing analysis |
PCT/US2021/072861 WO2022133410A1 (en) | 2020-12-18 | 2021-12-10 | Head-wearable apparatus for breathing analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116685263A true CN116685263A (zh) | 2023-09-01 |
Family
ID=87784134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180084819.9A Pending CN116685263A (zh) | 2020-12-18 | 2021-12-10 | 头戴式呼吸分析装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116685263A (zh) |
-
2021
- 2021-12-10 CN CN202180084819.9A patent/CN116685263A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220206581A1 (en) | Communication interface with haptic feedback response | |
CN110945459A (zh) | 基于情绪的体验反馈 | |
US11997422B2 (en) | Real-time video communication interface with haptic feedback response | |
CN116648687B (zh) | 具有触觉反馈响应的电子通信界面 | |
US20220317775A1 (en) | Virtual reality communication interface with haptic feedback response | |
US20220317774A1 (en) | Real-time communication interface with haptic and audio feedback response | |
US20220317773A1 (en) | Real-time communication interface with haptic and audio feedback response | |
CN117120959A (zh) | 具有触觉反馈响应和音频反馈响应的界面 | |
CN117157609A (zh) | 具有触觉反馈响应的虚拟现实界面 | |
US20220319061A1 (en) | Transmitting metadata via invisible light | |
KR20230161516A (ko) | 햅틱 피드백 응답을 갖는 가상 현실 인터페이스 | |
CN116710885A (zh) | 具有触觉反馈响应的通信界面 | |
WO2022212174A1 (en) | Interface with haptic and audio feedback response | |
KR20230156953A (ko) | 실시간에서의 실제 크기 안경류 경험 | |
KR20230157494A (ko) | 실시간에서의 실제 크기 안경류 | |
US20240143073A1 (en) | Pausing device operation based on facial movement | |
US20220192622A1 (en) | Head-wearable apparatus for breathing analysis | |
KR20230118964A (ko) | 호흡 분석을 위한 헤드 웨어러블 장치 | |
US12072930B2 (en) | Transmitting metadata via inaudible frequencies | |
CN116685263A (zh) | 头戴式呼吸分析装置 | |
US12118148B1 (en) | EMG-based speech detection and communication | |
US11922587B2 (en) | Dynamic augmented reality experience | |
US20220210551A1 (en) | Selector input device to transmit audio signals | |
US20240078762A1 (en) | Selecting a tilt angle of an ar display | |
KR20240009484A (ko) | 바이오메트릭 센서 데이터를 이용한 자동 미디어 캡처 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |