JP2023525691A - 個人の身体的特徴を分析するためのシステム及び方法 - Google Patents

個人の身体的特徴を分析するためのシステム及び方法 Download PDF

Info

Publication number
JP2023525691A
JP2023525691A JP2022566505A JP2022566505A JP2023525691A JP 2023525691 A JP2023525691 A JP 2023525691A JP 2022566505 A JP2022566505 A JP 2022566505A JP 2022566505 A JP2022566505 A JP 2022566505A JP 2023525691 A JP2023525691 A JP 2023525691A
Authority
JP
Japan
Prior art keywords
individual
mouth
user
handheld device
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022566505A
Other languages
English (en)
Other versions
JPWO2021220230A5 (ja
Inventor
ショルディス、レドモンド
マクマホン、スティーヴン
Original Assignee
レズメド センサー テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レズメド センサー テクノロジーズ リミテッド filed Critical レズメド センサー テクノロジーズ リミテッド
Publication of JP2023525691A publication Critical patent/JP2023525691A/ja
Publication of JPWO2021220230A5 publication Critical patent/JPWO2021220230A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1076Measuring physical dimensions, e.g. size of the entire body or parts thereof for measuring dimensions inside body cavities, e.g. using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4455Features of the external shape of the probe, e.g. ergonomic aspects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

個人の身体的特徴を分析する方法は、音響信号を個人の口に向けることと、個人の口の内部から反射音響信号を受信することと、反射音響信号に少なくとも部分的に基づいて、少なくとも個人の口の内部の構造プロファイルを生成することと、構造プロファイルの生成に応答してアクションを実行させることと、を含む。音響信号は、個人の口の内部の少なくとも一部から反射するように構成される。反射音響信号は、個人の口の構造的特質を示す。構造プロファイルは、個人の頭と首の外部に関連する画像データ、及び個人の口の内部に関連する画像データにも基づき得る。

Description

(関連出願の相互参照)
本出願は、2020年4月30日に出願された米国仮特許出願第63/018,449号に対する利益及び優先権を主張し、その全体を本明細書中に参考のため援用する。
本開示は、一般に、ユーザの身体的特徴を分析するためのシステム及び方法、より具体的には、睡眠呼吸障害の発症に関連する危険因子を決定するために、ユーザの頭、首、及び口の構造プロファイルを生成するためのシステム及び方法に関する。
多くの個人が、例えば、周期性四肢運動障害(PLMD)、下肢静止不能症候群(RLS)、睡眠呼吸障害(SDB)、閉塞性睡眠時無呼吸(OSA)、呼吸努力関連覚醒(RERA)、中枢性睡眠時無呼吸(CSA)、チェーンストークス呼吸(CSR)、呼吸不全、肥満低換気症候群(OHS)、慢性閉塞性肺疾患(COPD)、神経筋疾患(NMD)、急速眼球運動(REM)行動障害(RBDともいう)、夢体験の行動化(DEB)、不眠症、及び胸壁障害などの睡眠関連障害及び/又は呼吸障害を患っている。頭頸部に関する特定の身体的特徴を有する個人は、SBD及びOSAを含むこれらの障害を発症するリスクが高いことがよくある。しかしながら、これらの機能を長期間にわたって測定及び追跡することは困難な場合があり、ほとんどの個人にとって、これらの身体的特徴がこれらの障害を発症するリスクとどのように関連しているかを判断することは困難な場合がある。そのため、個人の身体的特徴を正確に監視し、これらの障害のいずれかを発症する個人のリスクを判断するのが可能であることは有利である。
本開示は、個人の身体的特徴をより容易に追跡し、身体的特徴に基づいてこれらの障害又はその他のいずれかを発症するリスクを決定するのを可能にするシステム、デバイス、及び方法を対象とする。
本開示のいくつかの実装形態によれば、個人の身体的特徴を分析する方法は、音響センサを使用して、個人の口の内部の少なくとも一部から反射するように構成された音響信号を個人の口に向けることと、音響センサを使用して、個人の口の内部から、個人の口の構造的特質を示す反射音響信号を受信することと、反射音響信号に少なくとも部分的に基づいて、少なくとも個人の口の内部の構造プロファイルを生成することと、構造プロファイルの生成に応答して、アクションを実行させることと、を含む。
本開示のいくつかの実装形態によれば、ハンドヘルドデバイスを個人の口に隣接して位置決めするためのデバイスは、個人の口に少なくとも部分的に挿入されるように構成された口部と、口部が個人の口に少なくとも部分的に挿入されたときに、ハンドヘルドデバイスの音響センサが個人の口の内部と流体連通するように、その中にハンドヘルドデバイスの少なくとも一部を確実に受け入れるように構成されたハンドヘルドデバイス部と、を備える。
本開示のいくつかの実装形態によれば、個人の身体的特徴を分析するためのシステムは、音響センサを含むハンドヘルドデバイスと、ユーザの口に挿入されるように構成されたデバイスと、を備える。このデバイスは、口部とハンドヘルドデバイス部とを含む。口部は、個人の口に少なくとも部分的に挿入されるように構成される。ハンドヘルドデバイス部は、デバイスの口部が個人の口に少なくとも部分的に挿入されたときに、ハンドヘルドデバイスの音響センサが個人の口の内部と流体連通するように、ハンドヘルドデバイスを確実に受け入れるように構成される。ハンドヘルドデバイスは、方法を実装するように構成される。この方法は、音響センサを使用して、音響信号を個人の口に向けることを含む。音響信号は、個人の口の内部の少なくとも一部から反射するように構成される。この方法はさらに、音響センサを使用して、個人の口の内部から反射音響信号を受信することを含む。反射音響信号は、個人の口の構造的特質を示す。この方法は、反射音響信号に少なくとも部分的に基づいて、個人の口の少なくとも内部の構造プロファイルを生成することをさらに含む。この方法は、構造プロファイルの生成に応答して、アクションを実行させることをさらに含む。
上記の概要は、本開示の各実装形態又は全ての態様を表すことを意図していない。本開示の追加の特徴及び利点は、以下に示す詳細な記載及び図から明らかである。
本開示のいくつかの実装形態による、睡眠セッションを監視するためのシステムの機能ブロック図。 本開示のいくつかの実装形態による、図1のシステム、システムのユーザ、及びユーザの同床者の斜視図。 本開示のいくつかの実装形態による、睡眠セッションの例示的なタイムライン。 本開示のいくつかの実装形態による、図3の睡眠セッションに関連する例示的なヒプノグラム。 本開示のいくつかの実装形態による、個人の身体的特徴を分析する方法のプロセスフロー図。 ユーザの頭及び/又は首に関連する画像データを生成するためにスマートフォンを保持しているユーザの斜視図。 ユーザがスマートフォンを図6Aに示す位置に保持したときの、図6Aのスマートフォンのディスプレイの図。 ユーザの口の内部に関連する画像データを生成するためにスマートフォンを保持しているユーザの斜視図。 ユーザがスマートフォンを図7Aに示す位置に保持したときの、図7Aのスマートフォンのディスプレイの図。 第1のデバイスを使用してスマートフォンを保持し、ユーザの口の内部に関連する音響データを生成するユーザの側面図。 図8のデバイスの正面斜視図。 図8のデバイスの背面斜視図。 図8のデバイス、スマートフォン、及びユーザの口の分解図。 図8のデバイスの上視断面図。 スマートフォンを保持する図8のデバイスの上視断面図。 第2のデバイスを使用してスマートフォンを保持し、ユーザの頭及び/又は首の外部に関連する画像データと、ユーザの口の内部に関連する音響データと、を生成するユーザの側面図。 スマートフォンがユーザの口に音響信号を放出するときの第3のデバイスを噛んでスマートフォンを保持するユーザの斜視断面図。 スマートフォンがユーザの口に音響信号を放出するときの図12Aのデバイスを噛んでいるユーザの側視断面図。 スマートフォンがユーザの口から反射音響信号を受信するときの図12Aのデバイスを噛んでいるユーザの斜視断面図。 スマートフォンがユーザの口から反射音響信号を受信するときの図12Aのデバイスを噛んでいるユーザの側視断面図。
本開示は、様々な修正及び代替形態を許容するものであるが、その特定の実装形態及び実施形態が、図面に例として示され、本明細書で詳細に説明される。しかしながら、開示された特定の形態に本開示を限定することを意図するものではなく、逆に、本開示は、添付の特許請求の範囲によって定義されるような本開示の精神及び範囲内にある全ての修正、均等物、及び代替を包含するものであることを理解されたい。
多くの個人が、例えば、周期性四肢運動障害(PLMD)、下肢静止不能症候群(RLS)、睡眠呼吸障害(SDB)、閉塞性睡眠時無呼吸(OSA)、呼吸努力関連覚醒(RERA)、中枢性睡眠時無呼吸(CSA)、チェーンストークス呼吸(CSR)、呼吸不全、肥満低換気症候群(OHS)、慢性閉塞性肺疾患(COPD)、神経筋疾患(NMD)、急速眼球運動(REM)行動障害(RBDともいう)、夢体験の行動化(DEB)、不眠症、及び胸壁障害などの睡眠関連障害及び/又は呼吸障害を患っている。
閉塞性睡眠時無呼吸(OSA)は、睡眠呼吸障害(SDB)の一形態であり、異常に小さい上気道と、舌、軟口蓋、後口咽頭壁の領域における正常な筋緊張の喪失との組み合わせに起因する、睡眠中の上気路の閉塞又は障害を含む事象を特徴とする。
中枢性睡眠時無呼吸(CSA)は、脳が、呼吸を制御する筋肉への信号の送信を一時的に停止したときに結果として生じるSDBの別の形態である。より一般には、無呼吸は普通、空気の遮断又は呼吸機能の停止によって引き起こされる呼吸の中断をいう。通常、個人は、閉塞性睡眠時無呼吸事象中、約15秒~約30秒の間、呼吸を停止する。混合型睡眠時無呼吸は、OSAとCSAの組み合わせであるSDBの別の形態である。
他のタイプの無呼吸として、低呼吸、過呼吸、及び過炭酸症が含まれる。低呼吸は一般に、気道の閉塞ではなく、気道の狭窄によって引き起こされる遅い又は浅い呼吸を特徴とする。過呼吸は一般に、呼吸の深さ及び/又は速度の増加を特徴とする。過炭酸症は一般に、血流中の上昇した又は過剰な二酸化炭素を特徴とし、通常、不十分な呼吸によって引き起こされる。
チェーンストークス呼吸(CSR)は、睡眠呼吸障害の別の形態である。CSRは、CSRサイクルとして知られる換気量の増加と減少がリズミカルに交替する周期が存在する、患者の呼吸調節系の障害である。CSRは、動脈血の脱酸素化と再酸素化の繰り返しを特徴とする。
肥満低換気症候群(OHS)は、低換気の他の既知の原因がない場合に、重度の肥満と覚醒下の慢性過炭酸症の組み合わせとして定義される。症状として、呼吸困難、朝の頭痛、及び日中の過剰な眠気が含まれる。
慢性閉塞性肺疾患(COPD)は、空気移動に対する抵抗の増加、呼吸の呼気相の延長、及び肺の正常な弾力性の喪失など、特定の特質を共通に有する下気道疾患群のいずれかを包含する。
神経筋疾患(NMD)は、内在筋病理を介して直接的に、又は神経病理を介して間接的に、筋肉の機能を損なう多くの疾患及び病気を包含する。胸壁障害は、呼吸筋と胸郭の間の非効率的な結合をもたらす胸部奇形の群である。
呼吸努力関連覚醒(RERA)事象は通常、睡眠からの覚醒につながる10秒以上の呼吸努力の増加を特徴とし、無呼吸又は低呼吸事象の基準を満たしていないものである。RERAは、睡眠からの覚醒につながる呼吸努力の増加を特徴とする一連の呼吸として定義されるが、無呼吸又は低呼吸の基準を満たしていない。これらの事象は、以下の基準両方を満たさなければならない。(1)より小さい負のレベルへの突然の圧力の変化及び覚醒によって終了する、徐々により大きい負になる食道内圧のパターン、及び(2)事象は、10秒以上続く。いくつかの実装形態において、鼻腔カニューレ/圧力トランスデューサシステムは、RERAの検出に適切であり、かつ、信頼できる。RERA検出器は、呼吸治療デバイス由来の現実の流れ信号に基づき得る。例えば、流れ制限基準は、流れ信号に基づいて決定され得る。したがって、覚醒の基準は、流れ制限基準の関数、及び換気の急激な増加の基準の関数として導出され得る。このような方法の1つは、ResMed Ltd.に譲渡された、国際公開第2008/138040号に記載されており、その開示は、その全体を本明細書中に参考のため援用する。
RBDは、REM睡眠段階中の筋弛緩の欠如を特徴とし、より深刻な場合には、REM睡眠段階中に個人によってなされる動き及び発話を特徴とする障害である。RBDは、個人が見ている夢を実行に移すDEBが付随する場合があり、自分自身やそのパートナに損傷を与えてしまう場合がある。
これら及び他の障害は、個人の睡眠中に発生する、特定の事象(例えば、いびき、無呼吸、低呼吸、下肢静止不能、睡眠障害、窒息、心拍数の増加、呼吸困難、喘息発作、てんかん性事象、発作、又はそれらの組み合わせ)を特徴とする。
無呼吸低呼吸指数(AHI)は、睡眠セッション中の睡眠時無呼吸の重症度を示すために使用される指数である。AHIは、睡眠セッション中にユーザが経験した無呼吸及び/又は低呼吸の事象の数を、睡眠セッション中の総睡眠時間数で割ることによって算出される。事象は、例えば、少なくとも10秒間続く、呼吸の休止であり得る。AHIが5未満であると、正常とみなされる。AHIが5以上15未満であると、軽度の睡眠時無呼吸を示すとみなされる。AHIが15以上30未満であると、中等度の睡眠時無呼吸を示すとみなされる。AHIが30以上であると、重度の睡眠時無呼吸を示すとみなされる。小児において、1を超えるAHIは、異常とみなされる。睡眠時無呼吸は、AHIが正常である場合、又はAHIが正常又は軽度の場合には「制御されている」とみなされ得る。AHIはまた、閉塞性睡眠時無呼吸の重症度を示すために、酸素脱飽和レベルと組み合わせて使用され得る。
上記のタイプの睡眠関連障害及び/又は呼吸障害(又は他の障害)のいずれかを有する個人の健康を監視するために、多種多様なタイプのデータが使用され得る。しかしながら、ユーザの睡眠を中断したり妨害したりせず、又はユーザが睡眠中に受けているかもしれないいずれの治療に干渉しないやり方で正確なデータを収集することは、困難なことが多い。そのため、ユーザ、ユーザの睡眠、又はユーザの治療を妨害することなく、データを生成及び収集するための様々なセンサを備える治療用システムを利用することは有利である。
図1を参照すると、本開示のいくつかの実装形態によるシステム100が示されている。システム100は、本明細書に記載のものを含む、睡眠関連障害及び/又は呼吸関連障害を発症する個人のリスクを決定するために、ユーザの身体的特徴を分析するために使用され得る。システム100は、制御システム110、メモリデバイス114、電子インターフェース119、1つ以上のセンサ130、及び1つ以上のユーザデバイス170を備える。いくつかの実装形態において、システム100は、呼吸治療システム120(呼吸治療デバイス122を含む)、血圧デバイス180、活動トラッカ182、又はそれらの任意の組み合わせをさらに任意選択で備える。
制御システム110は、1つ以上のプロセッサ112(以下、プロセッサ112)を備える。制御システム110は、一般に、システム100の様々な構成要素を制御(例えば、作動)する、及び/又はシステム100の構成要素によって得られた及び/又は生成されたデータを分析するために使用される。プロセッサ112は、汎用若しくは専用のプロセッサ又はマイクロプロセッサであり得る。図1には1つのプロセッサ112が示されているが、制御システム110は、単一のハウジング内、又は互いに離れて位置され得る、任意の適切な数のプロセッサ(例えば、1つのプロセッサ、2つのプロセッサ、5つのプロセッサ、10のプロセッサなど)を備え得る。制御システム110(又は任意の他の制御システム)、又はプロセッサ112(又は任意の他のプロセッサ(単数又は複数)若しくは任意の他の制御システムの部分(単数又は複数))などの制御システム110の一部は、本明細書に記載及び/又は特許請求されるいずれかの方法の1つ以上のステップを行うために使用され得る。制御システム110は、例えば、ユーザデバイス170のハウジング内、及び/又は1つ以上のセンサ130のハウジング内に結合及び/又は位置決めされ得る。制御システム110は、集中型(1つのそのようなハウジング内)又は分散型(物理的に別個である、2つ以上のそのようなハウジング内)であり得る。制御システム110を含む2つ以上のハウジングを備えるこのような実装形態において、そのようなハウジングは、互いに近接して、及び/又は離れて位置され得る。
メモリデバイス114は、制御システム110のプロセッサ112によって実行可能である機械可読命令を格納する。メモリデバイス114は、例えば、ランダム又はシリアルアクセスメモリデバイス、ハードドライブ、ソリッドステートドライブ、フラッシュメモリデバイスなどのような、任意の適切なコンピュータ可読記憶デバイス又は媒体であり得る。図1には1つのメモリデバイス114が示されているが、システム100は、任意の適切な数のメモリデバイス114(例えば、1つのメモリデバイス、2つのメモリデバイス、5つのメモリデバイス、10のメモリデバイスなど)を備え得る。メモリデバイス114は、呼吸治療デバイス122のハウジング内、ユーザデバイス170のハウジング内、1つ以上のセンサ130のハウジング内、又はそれらの任意の組み合わせに結合及び/又は位置決めされ得る。制御システム110と同様に、メモリデバイス114は、集中型(1つのそのようなハウジング内)又は分散型(物理的に別個である、2つ以上のそのようなハウジング内)であり得る。
いくつかの実装形態において、メモリデバイス114は、ユーザに関連したユーザプロファイルを格納する。ユーザプロファイルは、例えば、ユーザに関連した人口統計情報、ユーザに関連したバイオメトリック情報、ユーザに関連した医療情報、自己申告性のユーザフィードバック、ユーザに関連した睡眠パラメータ(例えば、1つ以上の初期の睡眠セッションから記録された睡眠関連パラメータ)、又はそれらの任意の組み合わせを含み得る。人口統計情報は、例えば、ユーザの年齢、ユーザの性別、ユーザの人種、ユーザの地理的位置、関係性ステータス、家族歴(睡眠関連障害及び/又は呼吸関連障害の家族の病歴など)、ユーザの雇用状況、ユーザの教育的地位、ユーザの社会経済的地位、又はそれらの任意の組み合わせを示す情報を含み得る。医療情報は、例えば、ユーザに関連した1つ以上の病状、ユーザによる薬物使用、又はその両方を示す情報を含み得る。医療情報データはさらに、反復睡眠潜時検査(MSLT)の結果若しくはスコア、及び/又はピッツバーグ睡眠質問票(PSQI)のスコア若しくは値を含み得る。自己申告性のユーザフィードバックは、自己申告性の主観的睡眠スコア(例えば、悪い、普通、良好)、自己申告性のユーザの主観的ストレスレベル、自己申告性のユーザの主観的疲労レベル、自己申告性のユーザの主観的健康状態、ユーザが経験した最近のライフ事象、又はそれらの任意の組み合わせを示す情報を含み得る。
電子インターフェース119は、データがメモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得るように、1つ以上のセンサ130からデータ(例えば、生理学的データ及び/又は音響データ)を受信するように構成される。電子インターフェース119は、有線接続又は無線接続を使用して(例えば、RF通信プロトコル、WiFi通信プロトコル、Bluetooth通信プロトコル、IR通信プロトコルを使用して、セルラーネットワークを介して、任意の他の光通信プロトコルを介してなど)、1つ以上のセンサ130と通信し得る。電子インターフェース119は、アンテナ、受信機(例えば、RF受信機)、送信機(例えば、RF送信機)、送受信機、又はそれらの任意の組み合わせを備え得る。電子インターフェース119はまた、本明細書に記載のプロセッサ112及びメモリデバイス114と同一又は類似である、もう1つのプロセッサ及び/又はもう1つのメモリデバイスを備え得る。いくつかの実装形態において、電子インターフェース119は、ユーザデバイス170に結合される、又は統合される。他の実装形態において、電子インターフェース119は、制御システム110及び/又はメモリデバイス114に結合又は統合される(例えば、ハウジングに)。
上述のように、いくつかの実装形態において、システム100は、任意選択で、呼吸治療システム120(呼吸圧力治療システムともいう)を備える。呼吸治療システム120は、呼吸治療デバイス122(呼吸圧力治療デバイスともいう)、ユーザインターフェース124、導管126(チューブ又は空気回路ともいう)、表示デバイス128、加湿タンク129、又はそれらの任意の組み合わせを備え得る。いくつかの実装形態において、制御システム110、メモリデバイス114、表示デバイス128、1つ以上のセンサ130、及び加湿タンク129は、呼吸治療デバイス122の一部である。呼吸圧力治療とは、ユーザの呼吸サイクル全体に亘って、大気圧に対して名目上陽圧である制御された目標圧力で、ユーザの気道の入口に空気の供給を適用することを指す(例えば、タンクベンチレータ又はキュイラスなどの陰圧治療とは対照的)。呼吸治療システム120は、一般に、睡眠中又は覚醒中に現れることがある、1つ以上の睡眠関連呼吸障害(例えば、閉塞性睡眠時無呼吸、中枢性睡眠時無呼吸、又は混合型睡眠時無呼吸)、COPDなどの他の呼吸障害、又は呼吸不全に至る他の障害に苦しむ個人を治療するために使用される。
呼吸治療デバイス122は、ユーザに送達される加圧空気を(例えば、1つ以上のコンプレッサを駆動する1つ以上のモータを使用して)生成するために一般に使用されるブロワモータ(図示せず)を有する。いくつかの実装形態において、呼吸治療デバイス122は、ユーザに送達される連続した一定の空気圧を生成する。他の実装形態において、呼吸治療デバイス122は、2つ以上の所定の圧力(例えば、第1の所定の空気圧及び第2の所定の空気圧)を生成する。さらに他の実装形態において、呼吸治療デバイス122は、所定の範囲内で様々な異なる空気圧を生成するように構成される。例えば、呼吸治療デバイス122は、少なくとも約6cmHO、少なくとも約10cmHO、少なくとも約20cmHO、約6cmHO~約10cmHOの間、約7cmHO~約12cmHOの間などで送達し得る。呼吸治療デバイス122はまた、(周囲圧力に対して)陽圧を維持しながら、例えば、約-20L/分~約150L/分の間の所定の流量で加圧空気を送達し得る。いくつかの実装形態において、制御システム110、メモリデバイス114、電子インターフェース119、又はそれらの任意の組み合わせは、呼吸治療デバイス122のハウジング内に結合及び/又は位置決めされ得る。
ユーザインターフェース124は、ユーザの顔の一部に係合し、呼吸治療デバイス122からユーザの気道に加圧空気を送達して、睡眠中における気道の狭窄及び/又は虚脱を防止するのを補助する。これにより、睡眠中のユーザの酸素摂取量が増加することもある。一般に、ユーザインターフェース124は、加圧空気がユーザの口、ユーザの鼻、又はユーザの口と鼻の両方を介してユーザの気道に送達されるように、ユーザの顔に係合する。呼吸治療デバイス122、ユーザインターフェース124、及び導管126は共に、ユーザの気道と流体結合された空気経路を形成する。 加圧空気は、睡眠中のユーザの酸素摂取量も増加させる。 適用される治療に応じて、ユーザインターフェース124は、例えば、ユーザの顔の一領域又は一部とのシールを形成して、治療を遂げるために周囲圧力と十分に異なる圧力で、例えば、周囲圧力に対して約10cmHOの陽圧で空気の送達を促進してよい。酸素の送達などの他の形態の治療では、ユーザインターフェースは、約10cmHOの陽圧での気体供給の気道への送達を促進するのに十分なシールを含まなくてよい。
図2に示すように、いくつかの実装形態において、ユーザインターフェース124は、ユーザ210の鼻と口を覆うフェイシャルマスク(例えば、フルフェイシャルマスク)である、又はそれを含む。或いは、ユーザインターフェース124は、ユーザ210の鼻に空気を提供する鼻マスク、若しくはユーザ210の鼻孔に空気を直接送達する鼻ピローマスクである、又はそれを含む。ユーザインターフェース124は、ユーザ210(例えば、顔)の一部で、ユーザインターフェース124の位置決め及び/又は安定を補助するための複数のストラップ(例えば、面ファスナを含む)を有するストラップアセンブリと、ユーザインターフェース124とユーザ210の間の気密シールの提供を補助するコンフォーマルクッション(例えば、シリコーン、プラスチック、発泡体など)を備え得る。いくつかの実装形態において、ユーザインターフェース124は、コネクタ127及び1つ以上のベント125を含み得る。1つ以上のベント125は、ユーザが吐き出す二酸化炭素及び他の気体を逃がすのを可能にするために使用され得る。他の実装形態において、ユーザインターフェース124は、マウスピース(例えば、ユーザの歯に適合するように成形されたナイトガードマウスピース、下顎再位置決めデバイスなど)を備える。いくつかの実装形態において、コネクタ127は、ユーザインターフェース124(及び/又は導管126)とは別個であるが結合可能である。
導管126(空気回路又はチューブともいう)は、呼吸治療デバイス122及びユーザインターフェース124などの呼吸治療システム120の2つの構成要素の間での空気の流れを可能にする。いくつかの実装形態において、吸気用及び呼気用の別個の導管126のリムが存在し得る。他の実装形態において、吸気と呼気の両方に単一のリム導管が使用される。
呼吸治療デバイス122、ユーザインターフェース124、導管126、表示デバイス128、及び加湿タンク129のうちの1つ以上は、1つ以上のセンサ(例えば、圧力センサ、流量センサ、又はより一般的には本明細書に記載の他のセンサ130のいずれか)を含み得る。これらの1つ以上のセンサは、例えば、呼吸治療デバイス122によって供給される加圧空気の空気圧及び/又は流量を測定するために使用され得る。
表示デバイス128は、一般に、静止画像、ビデオ画像、又は両方を含む画像(単数又は複数)、及び/又は呼吸治療デバイス122に関する情報を表示するために使用される。例えば、表示デバイス128は、呼吸治療デバイス122の状態に関する情報(例えば、呼吸治療デバイス122のオン/オフ、呼吸治療デバイス122によって送達される空気の圧力、呼吸治療デバイス122によって送達される空気の温度など)及び/又は他の情報(例えば、睡眠スコア及び/又は治療スコア、myAir(登録商標)スコアともいう、国際公開第2016/061629号明細書に記載されたものなどであり、その開示全体を本明細書に参照として援用する;現在の日時;ユーザ210の個人情報など)を提供し得る。いくつかの実装形態において、表示デバイス128は、画像(単数又は複数)を入力インターフェースとして表示するように構成されたグラフィックユーザインターフェース(GUI)を含むヒューマンマシンインターフェース(HMI)として機能を果たす。表示デバイス128は、LEDディスプレイ、OLEDディスプレイ、LCDディスプレイなどであり得る。入力インターフェースは、例えば、タッチスクリーン若しくはタッチセンシティブ基板、マウス、キーボード、又は呼吸治療デバイス122と対話する人間のユーザによってなされた入力を感知するように構成された任意のセンサシステムであり得る。
加湿タンク129は、呼吸治療デバイス122に結合又は統合され、呼吸治療デバイス122から送達される加圧空気を加湿するために使用され得る水のリザーバを含む。呼吸治療デバイス122は、ユーザ210に提供される加圧空気を加湿するために、1つ以上のベント(図示せず)と、加湿タンク129の水を加熱するヒータとを備え得る。さらに、いくつかの実装形態において、導管126は、ユーザ210に送達される加圧空気を加熱する(例えば、導管126に結合及び/又は埋設された)加熱素子も含み得る。加湿タンク129は、空気経路の水蒸気入口に流体結合され、水蒸気入口を介して空気経路に水蒸気を送達し得る、又は空気経路自体の一部として空気経路と一列に形成され得る。いくつかの実装形態において、呼吸治療デバイス122及び/又は導管126は、無水加湿器を備え得る。無水加湿器は、システム100の他の場所に位置決めされた他のセンサと連動するセンサを組み込み得る。
呼吸治療システム120は、例えば、ベンチレータとして、又は、持続的気道陽圧(CPAP)システム、自動的気道陽圧(APAP)システム、二相性若しくは変動気道陽圧(BPAP又はVPAP)システム、又はそれらの任意の組み合わせなどの気道陽圧(PAP)システムとして使用され得る。CPAPシステムは、所定の圧力(例えば、睡眠医によって決定された)で空気をユーザ210に送達する。APAPシステムは、例えば、ユーザ210に関連する呼吸データの少なくとも部分的に基づいて、ユーザ210に送達される空気圧を自動的に変化させる。BPAP又はVPAPシステムは、第1の所定の圧力(例えば、吸気気道陽圧又はIPAP)及び第1の所定の圧力よりも低い第2の所定の圧力(例えば、呼気気道陽圧又はEPAP)を送達するように構成される。
図2を再び参照すると、いくつかの実装形態による、システム100(図1)の一部が示されている。呼吸治療システム120のユーザ210及び同床者212は、ベッド230に位置し、マットレス232に横たわっている。ユーザインターフェース124(本明細書ではマスク、例えばフルフェイシャルマスクともいう)は、睡眠セッション中にユーザ210によって着用され得る。ユーザインターフェース124は、導管126を介して呼吸治療デバイス122に流体結合及び/又は接続される。次に、呼吸治療デバイス122は、導管126及びユーザインターフェース124を介して加圧空気をユーザ210に送達し、ユーザ210の喉の空気圧を上昇させて、睡眠中における気道の閉鎖及び/又は狭窄の防止を補助する。呼吸治療デバイス122は、ユーザが呼吸治療デバイス122と対話するのを可能にする、表示デバイス128を備え得る。呼吸治療デバイス122は、加圧空気を加湿するために使用される水を貯蔵する加湿タンク129も備え得る。呼吸治療デバイス122は、図2に示すように、ベッド230に直接隣接するナイトスタンド234上に、より一般的には、ベッド230及び/又はユーザ210に一般的に隣接する任意の表面又は構造上に、位置決めされ得る。ユーザは、ベッド230のマットレス232に横たわりながら、血圧デバイス180及び活動トラッカ182も着用し得る。
図1に戻って参照すると、システム100の1つ以上のセンサ130は、圧力センサ132、流量センサ134、温度センサ136、運動センサ138、マイクロフォン140、スピーカ142、無線周波数(RF)受信機146、RF送信機148、カメラ150、赤外線(IR)センサ152、フォトプレチスモグラム(PPG)センサ154、心電図(ECG)センサ156、脳波(EEG)センサ158、静電容量センサ160、力センサ162、歪みゲージセンサ164、筋電図(EMG)センサ166、酸素センサ168、検体センサ174、水分センサ176、光検出及び測距(LiDAR)センサ178、又はそれらの任意の組み合わせを含む。一般に、1つ以上のセンサ130の各々は、メモリデバイス114又は1つ以上の他のメモリデバイスに受信されて格納されるセンサデータを出力するように構成される。センサ130は、眼電図(EOG)センサ、末梢酸素飽和度(SpO)センサ、ガルバニック皮膚反応(GSR)センサ、二酸化炭素(CO)センサ、又はそれらの任意の組み合わせも含み得る。
1つ以上のセンサ130が、圧力センサ132、流量センサ134、温度センサ136、運動センサ138、マイクロフォン140、スピーカ142、RF受信機146、RF送信機148、カメラ150、IRセンサ152、PPGセンサ154、ECGセンサ156、EEGセンサ158、静電容量センサ160、力センサ162、歪みゲージセンサ164、EMGセンサ166、酸素センサ168、検体センサ174、水分センサ176、及びLiDARセンサ178の各々を含むとして示され、記載されているが、より一般的には、1つ以上のセンサ130は、本明細書に記載及び/又は示された各センサの任意の組み合わせ及び任意の数を含み得る。
1つ以上のセンサ130は、例えば、呼吸治療システム120のユーザ(図2のユーザ210など)、呼吸治療システム120、ユーザと呼吸治療システム120の両方、又は他の実在物、対象物、活動などに関連する、生理学的データ、音響データ、又はその両方を生成するために使用され得る。1つ以上のセンサ130によって生成された生理学的データは、睡眠セッション中のユーザ210に関連する睡眠-覚醒信号及び1つ以上の睡眠関連パラメータを決定するために制御システム110によって使用され得る。睡眠-覚醒信号は、覚醒、リラックスした覚醒、微小覚醒、又は、例えば、急速眼球運動(REM)段階(典型的なREM段階と非典型的なREM段階の両方を含み得る)、第1の非REM段階(「N1」とよくいう)、第2の非REM段階(「N2」とよくいう)、第3の非REM段階(「N3」とよくいう)、若しくはそれらの任意の組み合わせなどの別個の睡眠段階を含む、1つ以上の睡眠段階及び/又は睡眠状態(本明細書において互換的に使用され得る)を示し得る。1つ以上のセンサ130のような1つ以上のセンサによって生成された生理学的データから睡眠段階及び/又は睡眠段階を決定する方法は、例えば、国際公開第2014/047310号明細書、米国特許出願公開第2014/0088373号明細書、国際公開第2017/132726号明細書、国際公開第2019/122413号明細書、及び国際公開第2019/122414号明細書に記載されており、各々はその開示全体を本明細書に参照として援用する。
いくつかの実装形態において、本明細書に記載の睡眠-覚醒信号は、ユーザがベッドに入る時間、ユーザがベッドを出る時間、ユーザが入眠しようとする時間などを示すためにタイムスタンプを押され得る。睡眠-覚醒信号は、例えば、毎秒1サンプル、30秒毎に1サンプル、毎分1サンプルなどのように、所定のサンプリングレートで、睡眠セッション中に1つ以上のセンサ130によって測定され得る。いくつかの実装形態において、睡眠-覚醒信号はまた、睡眠セッション中の、呼吸信号、呼吸速度、吸気振幅、呼気振幅、吸気-呼気比、1時間当たりの事象数、事象のパターン、呼吸治療デバイス122の圧力設定、又はそれらの任意の組み合わせを示し得る。事象(単数又は複数)は、いびき、無呼吸、中枢性無呼吸、閉塞性無呼吸、混合型無呼吸、低呼吸、(例えば、ユーザインターフェース124からの)マスク漏れ、下肢静止不能、睡眠障害、窒息、心拍数の増加、呼吸困難、喘息発作、てんかん性事象、発作、発熱、咳、くしゃみ、いびき、息切れ、通常の風邪やインフルエンザなどの病気の存在、ストレスレベルの上昇、又はそれらの任意の組み合わせを含み得る。睡眠-覚醒信号に基づいて睡眠セッション中のユーザについて決定され得る1つ以上の睡眠関連パラメータは、例えば、総就寝時間、総睡眠時間、入眠潜時、入眠後覚醒パラメータ、睡眠効率、断片化指数、又はそれらの任意の組み合わせを含む。本明細書にさらに詳細に記載されるように、生理学的データ及び/又は睡眠関連パラメータは、1つ以上の睡眠関連スコアを決定するために分析され得る。
1つ以上のセンサ130によって生成される生理学的データ及び/又は音響データはまた、睡眠セッション中にユーザに関連する呼吸信号を決定するために使用され得る。呼吸信号は一般に、睡眠セッション中のユーザの呼吸又は息遣いを示す。他の睡眠関連パラメータ(又は他のパラメータ又は一般の測定値)は、生理学的データ及び/又は音響データから決定され得、いくつかの実装形態において、呼吸信号自体から決定され得る。睡眠セッション中にユーザ210について決定され得る睡眠関連パラメータは、例えば、呼吸信号、無呼吸低呼吸指数(AHI)スコア、睡眠スコア、流れ信号、呼吸数、呼吸数変動、吸気振幅、呼気振幅、吸気呼気比、1つ以上の事象の発生、1時間当たりの事象数、事象のパターン、睡眠段階(睡眠状態ともいう)、呼吸治療デバイス122の圧力設定、心拍数、心拍数変動、ユーザ210の動き、温度、EEG活動、EMG活動、覚醒、いびき、窒息、咳、口笛、喘鳴、又はそれらの任意の組み合わせを含み得る。1つ以上の事象は、いびき、無呼吸、中枢性無呼吸、閉塞性無呼吸、混合型無呼吸、低呼吸、故意のマスク漏れ(例えば、ユーザインターフェース124から)、故意でないマスク漏れ、口漏れ、咳、下肢静止不能、睡眠障害、窒息、心拍数の増加、呼吸困難、喘息発作、てんかん性事象、発作、血圧の上昇、又はそれらの任意の組み合わせを含み得る。記載の睡眠関連パラメータの多くは生理学的パラメータであるが、睡眠関連パラメータの一部は、非生理学的パラメータであるとみなされ得る。1つ以上のセンサ130からのデータから、又は他のタイプのデータから、他のタイプの生理学的パラメータ及び/又は非生理学的パラメータも決定され得る。
圧力センサ132は、メモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得る圧力データを出力する。いくつかの実装形態において、圧力センサ132は、呼吸治療システム120のユーザの呼吸(例えば、吸入及び/又は呼気)及び/又は周囲圧力を示すセンサデータを生成する空気圧センサ(例えば、気圧センサ)である。このような実装形態において、圧力センサ132は、呼吸治療デバイス122に結合又は統合され得る。圧力センサ132は、例えば、静電容量センサ、誘導性センサ、抵抗性センサ、電磁気センサ、圧電センサ、歪みゲージセンサ、光学センサ、電位差センサ、又はそれらの任意の組み合わせであり得る。いくつかの実装形態において、圧力センサ132は、ユーザの血圧を測定するために使用され得る。
流量センサ134は、メモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得る流量データを出力する。流量センサ(例えば、流量センサ134など)の例は、国際公開第2012/012835号に記載されており、その開示全体を本明細書に参照として援用する。いくつかの実装形態において、流量センサ134は、呼吸治療デバイス122からの空気流量、導管126を通る空気流量、ユーザインターフェース124を通る空気流量、又はそれらの任意の組み合わせを測定するために使用される。このような実装形態において、流量センサ134は、呼吸治療デバイス122、ユーザインターフェース124、又は導管126に結合又は統合され得る。流量センサ134は、例えば、回転流量計(例えば、ホール効果流量計)、タービン流量計、オリフィス流量計、超音波流量計、熱線センサ、渦流センサ、膜センサ、又はそれらの任意の組み合わせなどの質量流量センサであり得る。いくつかの実装形態において、流量センサ134は、ベント流れ(例えば、故意の「漏れ」)、故意でない漏れ(例えば、口漏れ及び/又はマスク漏れ)、患者の流れ(例えば、空気の肺への流入及び/又は肺からの流出)、又はそれらの任意の組み合わせを測定するように構成される。いくつかの実装形態において、流量データは、ユーザの心原性振動を決定するために分析され得る。一例において、圧力センサ132は、ユーザの血圧を測定するために使用され得る。
温度センサ136は、メモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得る温度データを出力する。いくつかの実装形態において、温度センサ136は、ユーザ210(図2)のコア体温、ユーザ210の皮膚温度、呼吸治療デバイス122から及び/又は導管126を通って流れる空気の温度、ユーザインターフェース124の温度、周囲温度、又はそれらの任意の組み合わせを示す温度データを生成する。温度センサ136は、例えば、熱電対センサ、サーミスタセンサ、シリコンバンドギャップ温度センサ若しくは半導体ベースのセンサ、抵抗温度検出器、又はそれらの任意の組み合わせであり得る。
運動センサ138は、メモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得る運動データを出力する。運動センサ138は、睡眠セッション中のユーザ210の動きを検出する、及び/又は呼吸治療デバイス122、ユーザインターフェース124、又は導管126などの呼吸治療システム120の任意の構成要素の動きを検出するために使用され得る。運動センサ138は、加速度計、ジャイロスコープ、及び磁力計などの1つ以上の慣性センサを含み得る。いくつかの実装形態において、運動センサ138は、代替的又は追加的に、例えば、ユーザの呼吸運動を介してユーザの睡眠状態を表す信号をそれから得られる場合がある、ユーザの身体運動を表す1つ以上の信号を生成する。いくつかの実装形態において、運動センサ138からの運動データは、ユーザの睡眠段階を決定するために別のセンサ130からの追加データと併せて使用され得る。運動センサ138は、ユーザの顔又はその周り、及びユーザインターフェース124の近接の脈拍などの動脈脈拍に関連する運動又は加速度を検出するために使用され得、脈拍の形状、速度、振幅、又は量の特徴を検出するように構成され得る。
マイクロフォン140は、メモリデバイス114に格納され得る、及び/又は制御システム110のプロセッサ112によって分析され得る音響データを出力する。本明細書でさらに詳細に記載されるように、マイクロフォン140によって生成された音響データは、(例えば、制御システム110を使用して)1つ以上の睡眠関連パラメータを決定するために、睡眠セッション中の1つ以上の音(例えば、ユーザからの音)として再生可能である。本明細書でさらに詳細に記載されるように、マイクロフォン140からの音響データはまた、睡眠セッション中にユーザが体験した事象を(例えば、制御システム110を使用して)識別するために使用され得る。他の実装形態において、マイクロフォン140からの音響データは、呼吸治療システム120に関連するノイズを表すものである。いくつかの実装形態において、システム100は、複数のマイクロフォンの各々によって生成された音声データが、他の複数のマイクロフォンによって生成された音声データを識別するために使用され得るように、複数のマイクロフォン(例えば、2つ以上のマイクロフォン及び/又はビームフォーミングを備えたマイクロフォンのアレイ)を含む。マイクロフォン140は、呼吸治療システム120(又はシステム100)に、一般に任意の構成で結合又は統合され得る。例えば、マイクロフォン140は、呼吸治療デバイス122、ユーザインターフェース124、導管126、又は他の構成要素の内部に配置され得る。マイクロフォン140はまた、呼吸治療デバイス122の外側、ユーザインターフェース124の外側、導管126の外側、又は任意の他の構成要素の外側に隣接して位置決めされ得る、又は結合され得る。マイクロフォン140は、ユーザデバイス170の構成要素であってもよい(例えば、マイクロフォン140はスマートフォンのマイクロフォンである)。マイクロフォン140は、ユーザインターフェース124、導管126、呼吸治療デバイス122、又はそれらの任意の組み合わせに統合され得る。一般に、マイクロフォン140は、少なくとも呼吸治療デバイス122のモータ、ユーザインターフェース124、及び導管126を含む呼吸治療システム120の空気経路内又はそれに隣接する任意の点に位置され得る。そのため、空気経路は、音響経路ともいえる。
スピーカ142は、システム100のユーザ(例えば、図2のユーザ210)に可聴である音波を出力する。スピーカ142は、例えば、目覚まし時計として、又はユーザ210への警告又はメッセージを再生するために(例えば、事象に応じて)使用され得る。いくつかの実装形態において、スピーカ142は、マイクロフォン140によって生成された音響データをユーザに通信するために使用され得る。スピーカ142は、呼吸治療デバイス122、ユーザインターフェース124、導管126、又はユーザデバイス170に結合又は統合され得る。いくつかの実装形態において、スピーカ142は骨伝導スピーカである。
マイクロフォン140とスピーカ142とは、別個のデバイスとして使用され得る。いくつかの実装形態において、マイクロフォン140とスピーカ142とは、例えば、国際公開第2018/050913号明細書及び国際公開第2020/104465号明細書に、各々がその開示全体を本明細書に参照として援用して記載されるように、音響センサ141(例えば、SONARセンサ)に組み合わされ得る。このような実装形態において、スピーカ142は、所定の間隔及び/又は周波数で音波を生成又は放射し、マイクロフォン140は、スピーカ142から放出された音波の反射を検出する。スピーカ142によって生成又は放射される音波は、ユーザ210又は同床者212(図2)の睡眠を妨害しないように、人間の耳に聞き取り不可能な周波数(例えば、20Hz未満又は約18kHz超)を有する。マイクロフォン140及び/又はスピーカ142からのデータに少なくとも部分的に基づいて、制御システム110は、ユーザ210(図2)の位置、及び/又は、例えば、呼吸信号、呼吸数、吸気振幅、呼気振幅、吸気-呼気比、1時間当たりの事象数、事象のパターン、睡眠状態、睡眠段階、呼吸治療デバイス122の圧力設定、又はそれらの任意の組み合わせなど本明細書に記載された1つ以上の睡眠関連パラメータを決定し得る。この文脈において、SONARセンサは、空気を通じて、(例えば、約17~23kHz、18~22kHz、又は17~18kHzなどの周波数範囲の)超音波及び/又は低周波超音波の感知信号を生成及び/又は送信することなどによる、能動音響感知に関係すると理解されてよい。このようなシステムは、上述の国際公開第2018/050913号及び国際公開第2020/104465号に関連して考慮されてよく、各々はその開示全体を本明細書に参照として援用する。
いくつかの実装形態において、1つ以上のセンサ130は、(i)マイクロフォン140と同一又は類似であり、音響センサ141に統合された第1のマイクロフォン、及び(ii)マイクロフォン140と同一又は類似であるが、音響センサ141に統合された第1のマイクロフォンとは別個で異なる第2のマイクロフォンを含む。
RF送信機148は、所定の周波数及び/又は所定の振幅(例えば、高周波帯域内、低周波帯域内、長波長信号、短波長信号など)を有する電波を生成及び/又は放射する。RF受信機146は、RF送信機148から放射された電波の反射を検出し、このデータは、ユーザ210(図2)の位置及び/又は本明細書に記載の1つ以上の睡眠関連パラメータを決定するために、制御システム110によって分析され得る。RF受信機(RF受信機146及びRF送信機148、又は他のRFの一対)は、制御システム110、呼吸治療デバイス122、1つ以上のセンサ130、ユーザデバイス170、又はそれらの任意の組み合わせの間の無線通信にも使用され得る。RF受信機146及びRF送信機148は、図1では別個で異なる要素として示されているが、いくつかの実装形態において、RF受信機146及びRF送信機148は、RFセンサ147(例えば、RADARセンサ)の一部として組み合わされる。いくつかのこのような実装形態において、RFセンサ147は制御回路を備える。RF通信の特定の形式は、Wi-Fi、Bluetoothなどであり得る。
いくつかの実装形態において、RFセンサ147はメッシュシステムの一部である。メッシュシステムの一例は、メッシュノード、メッシュルータ(単数又は複数)、及びメッシュゲートウェイ(単数又は複数)を備えたWi-Fiメッシュシステムであり、各々が移動可能/可動又は固定であり得る。このような実装形態において、Wi-Fiメッシュシステムは、Wi-Fiルータ及び/又はWi-Fiコントローラと、1つ以上のサテライト(例えば、アクセスポイント)とを備え、各々のサテライトは、RFセンサ147と同一又は類似のRFセンサを備える。Wi-Fiルータとサテライトは、Wi-Fi信号を使用して相互に連続的に通信する。Wi-Fiメッシュシステムは、信号を部分的に遮断する対象物又は人が動くことによる、ルータとサテライト(単数又は複数)との間のWi-Fi信号の変化(例えば、受信信号強度の差)に少なくとも部分的に基づいて、運動データを生成するために使用され得る。運動データは、運動、呼吸、心拍数、足どり、転倒、行動など、又はそれらの任意の組み合わせを示し得る。
カメラ150は、メモリデバイス114に格納され得る1つ以上の画像(例えば、静止画像、ビデオ画像、熱画像、又はそれらの任意の組み合わせ)として再生可能な画像データを出力する。カメラ150からの画像データは、例えば、1つ以上の事象(例えば、周期性四肢運動又は下肢静止不能症候群)、呼吸信号、呼吸数、吸気振幅、呼気振幅、吸気-呼気比、1時間当たりの事象数、事象のパターン、睡眠状態、睡眠段階、又はそれらの任意の組み合わせなど本明細書に記載される1つ以上の睡眠関連パラメータを決定するために、制御システム110によって使用され得る。さらに、カメラ150からの画像データは、例えば、ユーザの位置を識別する、ユーザ210(図2)の胸の動きを判別する、ユーザ210の口及び/又は鼻の気流を判別する、ユーザ210がベッド230(図2)に入る時間を判別する、及びユーザ210がベッド230を出る時間を判別するために使用され得る。いくつかの実装形態において、カメラ150は、広角レンズ又は魚眼レンズを含む。カメラ150は、眼球運動、瞳孔拡張(ユーザの片眼又は両眼が開いている場合)、まばたき速度、又はREM睡眠中の任意の変化を追跡するためにも使用され得る。カメラ150は、ユーザの位置を追跡するためにも使用され得、これは、閉塞性睡眠時無呼吸を有するユーザの無呼吸事象の持続期間及び/又は重症度に影響を与え得る。いくつかの実装形態において、カメラ150は、ユーザ210の扁桃腺及び/又は歯茎の腫れ及び/又は発赤により放射され得る可視放射線を検出し得る。
IRセンサ152は、メモリデバイス114に格納され得る1つ以上の赤外線画像(例えば、静止画像、ビデオ画像、又は両方)として再生可能な赤外線画像データを出力する。IRセンサ152は、受動センサ又は能動センサであり得る。受動IRセンサ152は、表面から放射するIRエネルギーを測定して表面の温度を決定するなど、離れた表面からの自然の赤外線放射又は反射を測定し得る。能動IRセンサ152は、IR信号を生成するIRエミッタを含み得、IR信号はその後、IR受信機によって受信される。 このような能動IRセンサ152は、対象物からのIR反射及び/又は透過を測定するために使用され得る。 例えば、ドットプロジェクタであるIRエミッタは、IR光を使用して認識可能なドットの配列をユーザの顔に投影し得、その反射はその後、測距データ(例えば、IRセンサ152とユーザの顔の一部などの離れた表面との間の距離に関連するデータ)及び、ユーザの顔に関連する輪郭データ(例えば、表面の公称高さに対する表面の相対的な高さ特徴に関連するデータ)を決定するためにIR受信機によって検出され得る。
IRセンサ152からの赤外線データは、ユーザ210の体温及び/又はユーザ210の動きを含む、睡眠セッション中の1つ以上の生理学的パラメータ及び/又は睡眠関連パラメータを決定するために使用され得る。IRセンサ152はまた、RBD又はDEBに関連する動きを含む、ユーザ210の存在、位置、及び/又は動きを測定するときに、カメラ150と併せて使用され得る。例えば、カメラ150は、約380nmから約740nmの間の波長を有する可視光を検出し得るが、IRセンサ152は、約700nmから約1mmの間の波長を有する赤外光を検出し得る。いくつかの実装形態において、IRセンサ152は、ユーザの頭、口、及び/又は首の位置、その近く、又はその内部の局所温度を検出するために使用され得る。例えば、ユーザの口の炎症(ユーザの扁桃腺及び/又は歯茎の腫れ及び/又は発赤など)は熱を放射し得、これはIRセンサ152によって検出され得る。IRセンサ152はまた、IRデータ(例えば、温度データ又は測距データ)をカメラデータ(例えば、局所の特徴又は色)と相関させるために、カメラ150と共に使用され得る。そのため、IRセンサ152は、熱センサ及び測距センサの両方として使用され得る。
PPGセンサ154は、例えば、心拍数、心拍数パターン、心拍数変動、心周期、呼吸数、吸気振幅、呼気振幅、吸気-呼気比、推定血圧パラメータ(単数又は複数)、又はそれらの任意の組み合わせなどの1つ以上の睡眠関連パラメータを決定するために使用され得る、ユーザ210(図2)に関連した生理学的データを出力する。PPGセンサ154は、ユーザ210により着用され得る、ユーザ210により着用される衣服及び/又は布地に埋め込まれ得る、ユーザインターフェース124及び/又はそれに関連するヘッドギア(例えば、ストラップなど)に埋め込まれ得る及び/又は結合され得る。
ECGセンサ156は、ユーザ210の心臓の電気的活動に関連した生理学的データを出力する。いくつかの実装形態において、ECGセンサ156は、睡眠セッション中のユーザ210の一部の上又はその周りに位置決めされる1つ以上の電極を備える。ECGセンサ156からの生理学的データは、例えば、本明細書に記載された1つ以上の睡眠関連パラメータを決定するために使用され得る。
EEGセンサ158は、ユーザの脳の電気的活動に関連する生理学的データを出力する。いくつかの実装形態において、EEGセンサ158は、睡眠セッション中のユーザの頭皮上又はその周りに位置決めされる1つ以上の電極を備える。EEGセンサ158からの生理学的データは、例えば、睡眠セッション中の任意の所与の時間におけるユーザの睡眠段階を決定するために使用され得る。いくつかの実装形態において、EEGセンサ158は、ユーザインターフェース124及び/又は関連するヘッドギア(例えば、ストラップなど)に統合され得る。
静電容量センサ160、力センサ162、及び歪みゲージセンサ164は、メモリデバイス114に格納され、制御システム110によって使用され得るデータを出力して、本明細書に記載された1つ以上の睡眠関連パラメータを決定する。EMGセンサ166は、1つ以上の筋肉によって引き起こされる電気活動に関連する生理学的データを出力する。酸素センサ168は、(例えば、導管126中又はユーザインターフェース124での)気体の酸素濃度を示す酸素データを出力する。酸素センサ168は、例えば、超音波酸素センサ、電気酸素センサ、化学酸素センサ、光学酸素センサ、パルスオキシメータ(例えば、SpOセンサ)、又はそれらの任意の組み合わせであり得る。いくつかの実装形態において、1つ以上のセンサ130は、ガルバニック皮膚反応(GSR)センサ、血流センサ、呼吸センサ、脈拍センサ、血圧計センサ、酸素測定センサ、又はそれらの任意の組み合わせも含み得る。
検体センサ174は、ユーザ210の呼気中の検体の存在を検出するために使用され得る。検体センサ174によって出力されたデータは、メモリデバイス114に格納され、ユーザの息の任意の検体の同一性及び濃度を決定するために制御システム110によって使用され得る。いくつかの実装形態において、検体センサ174は、ユーザ210の口から吐き出された息の検体を検出するために、ユーザ210の口の近くに位置決めされる。例えば、ユーザインターフェース124がユーザ210の鼻と口を覆うフェイシャルマスクであるとき、検体センサ174は、フェイシャルマスク内に位置決めされて、ユーザ210の口呼吸を監視し得る。ユーザインターフェース124が鼻マスク又は鼻ピローマスクである場合などの他の実装形態において、検体センサ174は、ユーザの鼻から吐き出された息の検体を検出するためにユーザ210の鼻の近くに位置決めされ得る。さらに他の実装形態において、検体センサ174は、ユーザインターフェース124が鼻マスク又は鼻ピローマスクである場合、ユーザ210の口の近くに位置決めされ得る。この実装形態において、検体センサ174は、空気がユーザ210の口から不注意に漏れているかを検出するために使用され得る。いくつかの実装形態において、検体センサ174は、二酸化炭素などの炭素系の化学物質又は化合物を検出するために使用され得る揮発性有機化合物(VOC)センサである。いくつかの実装形態において、検体センサ174は、ユーザ210が鼻で呼吸しているか口で呼吸しているかを検出するためにも使用され得る。例えば、ユーザ210の口の近く又はフェイシャルマスク内に位置決めされた検体センサ174によるデータ出力(ユーザインターフェース124がフェイシャルマスクである実装形態において)が検体の存在を検出する場合、制御システム110は、このデータを、ユーザ210が口から呼吸していることを示すものとして使用し得る。
水分センサ176は、メモリデバイス114に格納され、制御システム110によって使用され得るデータを出力する。水分センサ176は、ユーザを取り囲む様々な領域(例えば、導管126又はユーザインターフェース124の内側、ユーザ210の顔の近く、導管126とユーザインターフェース124との間の接続箇所の近く、導管126と呼吸治療デバイス122との間の接続箇所の近くなど)の水分を検出するために使用され得る。このため、いくつかの実装形態において、水分センサ176は、呼吸治療デバイス122からの加圧空気の湿度を監視するために、ユーザインターフェース124又は導管126に結合又は統合され得る。他の実装形態において、水分センサ176は、水分レベルが監視される必要のある任意の領域の近くに配置される。水分センサ176は、ユーザ210を囲む周囲環境、例えば、寝室の内部の空気の湿度を監視するためにも使用され得る。水分センサ176は、環境変化に対するユーザのバイオメトリック応答を追跡するためにも使用され得る。
LiDARセンサ178は、深さ及び距離の検知に使用され得、次に、ユーザ210の頭、口、及び/又は首の構造プロファイルを生成するために使用され得る。このタイプの光学センサ(例えば、レーザセンサなど)は、対象物を検出し、生活空間などの周囲の三次元(3D)マップを作製するために使用され得る。 LiDARは、一般に、パルスレーザを利用して飛行時間測定が可能である。LiDARは、3Dレーザスキャンともいう。このようなセンサの使用例において、LiDARセンサ178を有する固定デバイス又は移動デバイス(スマートフォンなど)は、センサから5メートル以上離れる方向に延在する領域の測定及びマッピングが可能である。LiDARデータは、例えば、電磁気RADARセンサによって推定されたポイントクラウドデータと融合され得る。LiDARセンサ178(単数又は複数)は、(RADARに対して高度に反射し得る)ガラス窓のような、RADARシステムに支障をきたし得る空間内の特徴を検出及び分類することによるRADARシステムの自動的なジオフェンスのために、人工知能(AI)を使用し得る。LiDARは、例えば、人の身長の推定はもちろん、人が座ったり倒れたりした時の身長の変化を提供するためにも使用され得る。LiDARは、環境の3Dメッシュ表現を形成するために使用されてよい。電波が通過する固体表面(例えば、放射線透過性材料)についてのさらなる用途において、LiDARはこのような表面で反射してよく、そのため、様々なタイプの障害物の分類が可能になる。さらに、LiDARセンサ178が本明細書に記載されているが、場合によっては、LiDARセンサ178の代わりに、又はそれに加えて、超音波測距センサ、電磁RADARセンサ、IRセンサ152などのような1つ以上の他の測距センサが使用され得る。
いくつかの実装形態において、1つ以上のセンサ130はまた、ガルバニック皮膚反応(GSR)センサ、血流センサ、呼吸センサ、脈拍センサ、血圧計センサ、酸素測定センサ、ソナーセンサ、RADARセンサ、血糖センサ、カラーセンサ、pHセンサ、空質センサ、傾斜センサ、雨センサ、土壌水分センサ、水流センサ、アルコールセンサ、又はそれらの任意の組み合わせを含む。
図1では別個に示されているが、1つ以上のセンサ130の任意の組み合わせは、呼吸治療デバイス122、ユーザインターフェース124、導管126、加湿タンク129、制御システム110、ユーザデバイス170、活動トラッカ182、又はそれらの任意の組み合わせを含む、システム100の任意の1つ以上の構成要素に統合及び/又は結合され得る。例えば、マイクロフォン140及びスピーカ142は、ユーザデバイス170に統合及び/又は結合され得、圧力センサ130及び/又は流量センサ134は、呼吸治療デバイス122に統合及び/又は結合される。別の例において、音響センサ141及び/又はRFセンサ147は、ユーザデバイス170に統合及び/又は結合され得る。このような実装形態において、ユーザデバイス170は、本開示のいくつかの態様によるシステム100(例えば、制御システム110)による使用のための追加又は二次データを生成する二次デバイスとみなされ得る。
いくつかの実装形態において、1つ以上のセンサ130のうちの少なくとも1つは、呼吸治療デバイス122、制御システム110、又はユーザデバイス170に結合されておらず、睡眠セッション中のユーザ210に概ね隣接して位置決めされる(例えば、ユーザ210の一部の上、又は接触して位置決めされる、ユーザ210によって着用される、ナイトスタンドに結合又はその上に位置決めされる、マットレスに結合される、天井に結合されるなど)。より一般的には、1つ以上のセンサ130は、1つ以上のセンサ130が1つ以上の睡眠セッション中のユーザ及び/又は同床者212に関連する生理学的データを生成し得るように、ユーザに対して任意の適切な位置に位置決めされ得る。
ユーザデバイス170(図1)は、表示デバイス172を含み得る。ユーザデバイス170は、例えば、スマートフォン、タブレット、ゲーム機、スマートウォッチ、ノートパソコンなどの移動デバイスであり得る。或いは、ユーザデバイス170は、外部感知システム、テレビ(例えば、スマートテレビ)、又は別のスマートホームデバイス(例えば、Google Home、Amazon Echo、Alexaなどのスマートスピーカ(単数又は複数))であり得る。いくつかの実装形態において、ユーザデバイス170は、ウェアラブルデバイス(例えば、スマートウォッチ)である。表示デバイス172は、一般に、静止画像、ビデオ画像、又はその両方を含む画像(単数又は複数)を表示するために使用される。いくつかの実装形態において、表示デバイス172は、画像(単数又は複数)を表示するように構成されたグラフィックユーザインターフェース(GUI)及び入力インターフェースを含むヒューマンマシンインターフェース(HMI)として機能を果たす。表示デバイス172は、LEDディスプレイ、OLEDディスプレイ、LCDディスプレイなどであり得る。入力インターフェースは、例えば、タッチスクリーン又はタッチセンシティブ基板、マウス、キーボード、又はユーザデバイス170と対話する人間のユーザによって行われた入力を感知するように構成された任意のセンサシステムであり得る。いくつかの実装形態において、1つ以上のユーザデバイス170は、システム100によって使用され得る、及び/又はシステム100に備えられ得る。
血圧デバイス180は、一般に、ユーザ210に関連する1つ以上の血圧測定値を決定するための生理学的データ(心血管データなど)の生成を補助するために使用される。血圧デバイス180は、例えば、収縮期血圧成分及び/又は拡張期血圧成分を測定するために、1つ以上のセンサ130のうちの少なくとも1つを備え得る。
いくつかの実装形態において、血圧デバイス180は、ユーザ210によって着用され得る膨張可能なカフと圧力センサ(例えば、本明細書に記載された圧力センサ132)とを含む血圧計である。例えば、図2の例に示すように、血圧デバイス180は、ユーザ210の上腕に着用され得る。血圧デバイス180が血圧計であるこのような実装形態において、血圧デバイス180は、カフを膨張させるためのポンプ(例えば、手動操作バルブ)も備える。いくつかの実装形態において、血圧デバイス180は、呼吸治療システム120の呼吸治療デバイス122に結合され、次いで加圧空気を送達してカフを膨張させる。より一般的には、血圧デバイス180は、呼吸治療システム120と通信可能に結合され、及び/又は任意選択で物理的に(例えば、ハウジング内で)統合され得る。追加的又は代替的に、血圧デバイス180は、制御システム110、メモリデバイス114、ユーザデバイス170、及び/又は活動トラッカ182に通信可能に結合され得、これらは次に、呼吸治療システム120に通信可能に結合される。
いくつかの実装形態において、血圧デバイス180は、ユーザ210の動脈血圧を連続的に監視し得、動脈血の気体含有量を分析するための要求に応じて動脈血サンプルを採取し得る侵襲的デバイスである。他の実装形態において、血圧デバイス180は、無線周波数(RF)センサ、無線検出及び測距(RADAR)センサ、音響ナビゲーション及び測距(SONAR)センサ、赤外線(IR)センサ、圧力センサ、変位センサ、又はそれらの組み合わせを使用する、非侵襲的連続血圧モニタである。RFセンサは、ユーザ210の血圧を、1回をごく数秒(例えば、3秒、5秒、7秒など)で測定が可能である。 RFセンサは、連続波;ランプ(チャープ)、三角波、正弦波、及び、位相シフトキーイング(PSK)、周波数シフトキーイング(FSK)などの他の変調方式を有する周波数変調連続波(FMCW);パルス連続波;及び/又は超広帯域(UWB)範囲に広がった波(拡散、疑似ランダムノイズ(PRN)コード、又はインパルスシステムを含み得る)を使用し得る。
RADARセンサ又はSONARセンサを使用したとき、ベッド230のマットレスは、心弾動(BCG)を算出し得、ユーザ210の体に位置した光学センサ(例えば、スマートウォッチ、スマートパッチなど)又は遠隔して位置した光学センサ(例えば、ビデオカメラ)は、いくつかの実装形態において、フォトプレチスモグラフィ(PPG)を算出し得る。BCG値及びPPG値は、したがって、収縮期血圧と拡張期血圧の両方を算出するために、これら2つの信号間の時間遅延の測定に使用され得る。
いくつかの実装形態において、自動ゲイン及び信号対雑音比(SNR)管理を備えたPPGは、パルス通過時間(PTT)を計算するために使用され得、適切な較正パラメータ(人口統計学的又は個別化されたもののどちらか)を使用した脈波分析は、ユーザ210の血圧を推定するために使用され得る。例えば、光学センサは、コヒーレント光をユーザ210の皮膚に放射した後、光センサの下の皮膚の血管中の赤血球からの反射光を集めて捕捉し得る。したがって、光学センサ及び関連ソフトウェアは、脈波を検出して、ユーザ210の血圧の測定値を決定することができる。他の技術では、経皮光学撮像を(例えば、カスタマイズされたカメラシステム又はスマートフォンを介して)使用して、ユーザの顔のビデオから(周辺光、又はLED若しくは赤外線源などの光を使用してなど)血圧を測定するなど、ビデオが直接使用され得る。さらに、他のセンサは超音波センサを含み得、それによってパルス及び戻りエコーは、動脈の前壁及び後壁をマッピングするために使用される。
さらに他の実装形態において、血圧デバイス180は、呼吸治療システム120に通信可能に結合された歩行用血圧モニターである。歩行用血圧モニタは、ユーザ210によって着用されたベルト又はストラップに取り付けられた携帯型記録デバイスと、携帯型記録デバイスに取り付けられ、ユーザ210の腕の周りに着用される膨張可能なカフとを含む。歩行用血圧モニタは、24時間又は48時間にわたって約15分~約30分の間ごとに血圧を測定するように構成される。歩行用血圧モニタは、同時にユーザ210の心拍数を測定してよい。これらの複数の読み取り値は、24時間にわたって平均化される。歩行用血圧モニタは、ユーザ210の測定された血圧及び心拍数での任意の変化、並びにユーザ210の睡眠期間及び覚醒期間中の血圧及び心拍数データの任意の分布及び/又は傾向パターンを決定する。次いで、測定されたデータ及び統計は、呼吸治療システム120に伝達され得る。
活動トラッカ182は、一般に、ユーザ210に関連する活動測定値を決定するための生理学的データの生成を補助するために使用される。活動トラッカ182は、例えば、運動センサ138(例えば、1つ以上の加速度計及び/又はジャイロスコープ)、PPGセンサ154、及び/又はECGセンサ156など、本明細書に記載された1つ以上のセンサ130を含み得る。活動トラッカ182からの生理学的データは、例えば、歩数、移動距離、登った歩数、身体活動の持続時間、身体活動のタイプ、身体活動の強度、立っていた時間、呼吸数、平均呼吸数、安静時呼吸数、最大呼吸数、呼吸数変動、心拍数、平均心拍数、安静時心拍数、最大心拍数、心拍数変動、消費カロリー数、血中酸素飽和度、皮膚電気活動(皮膚コンダクタンス又はガルバニック皮膚反応としても知られる)、又はそれらの任意の組み合わせを決定するために使用され得る。いくつかの実装形態において、活動トラッカ182は、ユーザデバイス170に(例えば、電子的に又は物理的に)結合される。
いくつかの実装形態において、活動トラッカ182は、スマートウォッチ、リストバンド、リング、又はパッチなど、ユーザ210によって着用され得るウェアラブルデバイスである。例えば、図2を参照すると、活動トラッカ182は、ユーザ210の手首に着用されている。活動トラッカ182はまた、ユーザ210によって着用される衣類又は衣服に結合又は統合され得る。或いは、さらに、活動トラッカ182はまた、ユーザデバイス170に(例えば、同じハウジング内で)結合又は統合され得る。より一般的には、活動トラッカ182は、制御システム110、メモリデバイス114、呼吸治療システム120、ユーザデバイス170、及び/又は血圧デバイス180に通信可能に結合され得る、又は(例えば、ハウジング内に)物理的に統合され得る。
制御システム110及びメモリデバイス114が、システム100の別個で異なる構成要素として図1に記載され示されているが、いくつかの実装形態において、制御システム110及び/又はメモリデバイス114は、ユーザデバイス170及び/又は呼吸治療デバイス122に統合される。或いは、いくつかの実装形態において、制御システム110又はその一部(例えば、プロセッサ112)は、クラウドに位置され得る(例えば、サーバに統合される、モノのインターネット(IoT)デバイスに統合される、クラウドに接続される、エッジクラウド処理などの対象となるなど)、1つ以上のサーバ(例えば、リモートサーバ、ローカルサーバなど)に位置され得る、又はそれらの任意の組み合わせである。
システム100は、上記の構成要素のすべてを含むものとして示されているが、本開示の実装形態によるシステムには、より多くの又はより少ない構成要素が含まれ得る。例えば、第1の代替システムは、制御システム110と、メモリデバイス114と、1つ以上のセンサ130のうちの少なくとも1つとを備え、呼吸治療システム120を備えない。別の例として、第2の代替システムは、制御システム110と、メモリデバイス114と、1つ以上のセンサ130のうちの少なくとも1つと、ユーザデバイス170とを備える。さらに別の例として、第3の代替システムは、制御システム110と、メモリデバイス114と、呼吸治療システム120と、1つ以上のセンサ130のうちの少なくとも1つと、ユーザデバイス170とを備える。さらなる例として、第4の代替システムは、制御システム110と、メモリデバイス114と、呼吸治療システム120と、1つ以上のセンサ130のうちの少なくとも1つと、ユーザデバイス170と、血圧デバイス180及び/又は活動トラッカ182とを備える。したがって、本明細書に示され、記載された構成要素の任意の部分又は複数の部分を使用して、及び/又は1つ以上の他の構成要素と組み合わせて、様々なシステムが形成され得る。
本明細書で使用されるように、睡眠セッションは、例えば、初期開始時間及び終了時間に基づいて、いくつかの方法で定義され得る。図3を参照すると、睡眠セッションの例示的なタイムライン240が示されている。タイムライン240は、入床時刻(tbed)、就寝時刻(tGTS)、最初の睡眠時刻(tsleep)、第1の微小覚醒MA及び第2の微小覚醒MA、覚醒時刻(twake)、並びに起床時刻(trise)を含む。
本明細書で使用されるように、睡眠セッションは、複数の方法で定義され得る。例えば、睡眠セッションは、初期開始時間及び終了時間によって定義され得る。いくつかの実装形態において、睡眠セッションは、ユーザが眠っている持続期間である、すなわち、睡眠セッションは開始時刻及び終了時刻を有し、睡眠セッション中に、ユーザは終了時刻まで覚醒しない。すなわち、ユーザが覚醒している期間は睡眠セッションに含まれない。睡眠セッションのこの第1の定義から、ユーザが同じ夜に何度も起きて眠りについた場合、覚醒間隔で区切られた各睡眠間隔が睡眠セッションである。
或いは、いくつかの実装形態において、睡眠セッションは開始時刻及び終了時刻を有し、睡眠セッション中のユーザが覚醒している連続した持続時間が覚醒持続期間のしきい値未満である限り、睡眠セッションが終了することなく、ユーザは覚醒し得る。覚醒持続時間のしきい値は、睡眠セッションの割合として定義され得る。覚醒持続時間のしきい値は、例えば、睡眠セッションの約20パーセント、睡眠セッション持続時間の約15パーセント、睡眠セッション持続時間の約10パーセント、睡眠セッション持続時間の約5パーセント、睡眠セッション持続時間の約2パーセントなど、又は任意の他のしきい値割合であり得る。いくつかの実装形態において、覚醒持続時間のしきい値は、例えば、約1時間、約30分、約15分、約10分、約5分、約2分などの定量の時間、又は任意の他の量の時間として定義される。
いくつかの実装形態において、睡眠セッションは、ユーザが最初にベッドに入った晩の時刻と、ユーザが最後にベッドを離れた翌朝の時刻の間の全時間として定義される。別の言い方をすれば、睡眠セッションは、ユーザが寝るつもりで最初にベッドに入った時(例えば、ユーザが寝る前に、最初にテレビを見たり、スマートフォンで遊んだりするつもりではない場合など)、今晩と参照され得る第1の日付(例えば、2020年1月6日の月曜日)及び第1の時刻(例えば、午後10時)で始まり、ユーザが翌朝に再び眠りにつかないつもりで最初にベッドから出た時、翌朝と参照され得る第2の日付(例えば、2020年1月7日の火曜日)及び第2の時刻(例えば、午前7時)に終了する時間として定義され得る。
いくつかの実装形態において、ユーザは、睡眠セッションの開始を手動で定義し得る、及び/又は睡眠セッションを手動で終了し得る。例えば、ユーザは、ユーザデバイス170(図1)の表示デバイス172上に表示される1つ以上のユーザが選択可能な要素を(例えば、クリック又はタップすることによって)選択して、睡眠セッションを手動で開始又は終了し得る。
一般に、睡眠セッションは、ユーザ210がベッド230(又は、ユーザが眠るつもりの別の領域又は対象物)に横たわる又は座り、呼吸治療デバイス122の電源を入れ、ユーザインターフェース124を着用した後の任意の時点を含む。このため、睡眠セッションは、(i)ユーザ210がCPAPシステムを使用しているが、ユーザ210は入眠しようとする前(例えば、ユーザ210が本を読みながらベッド230に横たわっている時)の時、(ii)ユーザ210が眠りに付こうとし始めたが、まだ覚醒している時、(iii)ユーザ210が浅い睡眠(非急速眼球運動(NREM)睡眠の第1の段階及び第2の段階ともいう)にある時、(iv)ユーザ210が深い睡眠(徐波睡眠、SWS、又はNREM睡眠の第3の段階ともいう)にある時、(v)ユーザ210が急速眼球運動(REM)睡眠にある時、(vi)ユーザ210が、浅い睡眠、深い睡眠、又はREM睡眠の間で定期的に覚醒している時、又は(vii)ユーザ210が覚醒し、再び眠り戻らない時の期間を含み得る。
睡眠セッションは、一般に、ユーザ210がユーザインターフェース124を取り外し、呼吸治療デバイス122の電源を切り、ベッド230から出ると終了するものとして定義される。いくつかの実装形態において、睡眠セッションは、追加の期間を含み得る、又は上記に開示した期間の一部のみに限定され得る。例えば、睡眠セッションは、呼吸治療デバイス122が加圧空気を気道又はユーザ210に供給し始めた時に始まり、呼吸治療デバイス122が加圧空気をユーザ210の気道に供給するのを停止した時に終わり、ユーザ210が眠っている又は覚醒している時の間での一部又は全ての時点を含む期間を包含するように定義され得る。
図3のタイムライン240を参照すると、入床時刻tbedは、ユーザが、眠りにつく前に(例えば、ユーザがベッドに横になる、又はベッドに座る時)最初にベッド(例えば、図2のベッド230)に入る時刻に関連する。入床時刻tbedは、ユーザが睡眠のためにベッドに入る時刻と、ユーザが他の理由(例えば、テレビを見るため)でベッドに入る時刻とを区別するために、ベッドしきい値持続時間に基づいて識別され得る。例えば、ベッドしきい値持続時間は、少なくとも約10分、少なくとも約20分、少なくとも約30分、少なくとも約45分、少なくとも約1時間、少なくとも約2時間などであり得る。入床時刻tbedは、ベッドを参照として本明細書に記載されるが、より一般的には、入床時刻tbedは、ユーザが就寝のため任意の場所(例えば、ソファ、椅子、寝袋など)に最初に入った時刻を指し得る。
就寝時刻(GTS)は、ユーザが、入床(tbed)後、最初に入眠を試みる時刻に関連する。例えば、入床後、ユーザは、眠ろうとする前に、休息するために1つ以上の活動に従事してよい(例えば、読書、テレビを見る、音楽を聴く、ユーザデバイス170を使用するなど)。初期睡眠時刻(tsleep)は、ユーザが最初に入眠する時刻である。例えば、初期睡眠時刻(tsleep)は、ユーザが最初に第1の非REM睡眠段階に入る時刻であり得る。
覚醒時刻twakeは、ユーザが再び眠りにつくことなく(例えば、ユーザが真夜中に目覚めて再び眠りにつくのとは違って)目覚めた時の時刻に関連する時刻である。ユーザは、最初に入眠した後、短い持続時間(例えば、5秒、10秒、30秒、1分など)を有する1つ以上の無意識の微小覚醒(例えば、微小覚醒MA及びMA)を経験してよい。覚醒時刻twakeとは対照的に、ユーザは、微小覚醒MA及びMAのそれぞれの後に再び眠りにつく。同様に、ユーザは、最初に入眠した後、1つ以上の意識的な覚醒(例えば、覚醒A)を有してよい(例えば、トイレに行くために起き上がる、子供やペットの世話をする、睡眠中に歩くなど)。しかしながら、ユーザは、覚醒Aの後に眠りに戻る。そのため、覚醒時刻twakeは、例えば、覚醒しきい値持続時間に基づいて定義され得る(例えば、ユーザは少なくとも15分間、少なくとも20分間、少なくとも30分間、少なくとも1時間覚醒しているなど)。
同様に、起床時刻triseは、ユーザがベッドから出て、睡眠セッションを終了する意図で(例えば、ユーザが夜中にトイレに行くために起き上がる、子供やペットの世話をする、睡眠中に歩くなどとは違い)ベッドから離れている時間に関連する。言い換えると、起床時刻triseは、ユーザが、次の睡眠セッション(例えば、次の晩)までベッドに戻らずに最後にベッドを離れた時刻である。そのため、起床時刻triseは、例えば、起床しきい値持続時間に基づいて定義され得る(例えば、ユーザが少なくとも15分間、少なくとも20分間、少なくとも30分間、少なくとも1時間離床したなど)。第2の、その後の睡眠セッションの入床時刻tbedもまた、起床しきい値持続時間(例えば、ユーザが少なくとも4時間、少なくとも6時間、少なくとも8時間、少なくとも12時間離床したなど)に基づいて定義され得る。
上述のように、ユーザは、最初のtbedと最後のtriseの間の夜間にもう一度覚醒してベッドから出てもよい。いくつかの実装形態において、最終覚醒時刻twake及び/又は最終起床時間triseは、事象(例えば、入眠又は離床)に続く所定のしきい値持続時間に基づいて識別又は決定される。このようなしきい値持続時間は、ユーザ向けにカスタマイズされ得る。晩に就寝した後、朝に目覚めてベッドを出る標準的なユーザの場合、約12から約18時間の間の任意の時間(ユーザが覚醒(twake)又は起床(trise)から、ユーザが入床(tbed)、就寝(tGTS)又は入眠(tsleep)の間が使用され得る。より長い時間をベッドで過ごすユーザの場合、より短いしきい値期間が使用されてよい(例えば、約8時間から約14時間の間)。しきい値期間は、ユーザの睡眠行動を監視するシステムに基づいて、最初に選択され、及び/又は後で調整されてよい。
総就寝時間(TIB)は、入床時刻tbedから起床時刻triseの間の持続時間である。総睡眠時間(TST)は、意識的又は無意識的な覚醒及び/又は微小覚醒は除外して、初期睡眠時刻から覚醒時刻の間の持続時間に関連する。一般に、総睡眠時間(TST)は総就寝時間(TIB)よりも短くなる(例えば、1分短い、10分短い、1時間短いなど)。例えば、図3のタイムライン240を参照すると、総睡眠時間(TST)は、初期睡眠時刻tsleepから覚醒時刻twakeの間に及ぶが、第1の微小覚醒MA、第2の微小覚醒MA、覚醒Aの持続時間を除外する。この例で示されるように、総睡眠時間(TST)は総就寝時間(TIB)よりも短い。
いくつかの実装形態において、総睡眠時間(TST)は、持続性総睡眠時間(PTST)として定義され得る。このような実装形態において、持続性総睡眠時間は、所定の初期部分又は第1の非REM段階(例えば、浅い睡眠段階)の期間を除外する。例えば、所定の初期部分は、約30秒から約20分の間、約1分から約10分の間、約3分から約5分の間などであり得る。持続性総睡眠時間は、持続的な睡眠の尺度であり、睡眠-覚醒ヒプノグラムを平坦にする。例えば、ユーザが最初に入眠する時、ユーザは非常に短い時間(例えば約30秒)第1の非REM段階にあり、その後短い期間(例えば、1分間)覚醒段階に戻り、その後再び第1の非REM段階に戻り得る。この例では、持続性総睡眠時間は、第1の非REM段階の最初の段階(例えば、約30秒)を除外する。
いくつかの実装形態において、睡眠セッションは、入床時刻(tbed)で開始し、起床時刻(trise)で終了するものとして定義される、すなわち、睡眠セッションは、総就寝時間(TIB)として定義される。いくつかの実装形態において、睡眠セッションは、初期睡眠時刻(tsleep)で開始し、覚醒時刻(twake)で終了するものとして定義される。いくつかの実装形態において、睡眠セッションは、総睡眠時間(TST)として定義される。いくつかの実装形態において、睡眠セッションは、就寝時刻(tGTS)で開始し、覚醒時刻(twake)で終了するものとして定義される。いくつかの実装形態において、睡眠セッションは、就寝時刻(tGTS)で開始し、起床時刻(trise)で終了するものとして定義される。いくつかの実装形態において、睡眠セッションは、入床時刻(tbed)に開始し、覚醒時刻(twake)で終了するものとして定義される。いくつかの実装形態において、睡眠セッションは、初期睡眠時刻(tsleep)で開始し、起床時刻(trise)で終了するものとして定義される。
図4を参照すると、いくつかの実装形態による、タイムライン240(図3)に対応する例示的なヒプノグラム250が示されている。示されるように、ヒプノグラム250は、睡眠-覚醒信号251、覚醒段階軸260、REM段階軸270、浅い睡眠段階軸280、及び深い睡眠段階軸290を含む。睡眠-覚醒信号251と軸260~290の1つとの交点は、睡眠セッション中の任意の所与の時間における睡眠段階を示す。
睡眠-覚醒信号251は、ユーザに関連する生理学的データに基づいて生成され得る(例えば、本明細書に記載された1つ以上のセンサ130によって生成される)。睡眠-覚醒信号は、覚醒、リラックスした覚醒、微小覚醒、REM段階、第1の非REM段階、第2の非REM段階、第3の非REM段階、又はそれらの任意の組み合わせを含む、1つ以上の睡眠状態を示し得る。いくつかの実装形態において、第1の非REM段階、第2の非REM段階、及び第3の非REM段階のうちの1つ以上は、一緒にグループ化され、浅い睡眠段階又は深い睡眠段階として分類され得る。例えば、浅い睡眠段階は第1の非REM段階を含み得、深い睡眠段階は第2の非REM段階及び第3の非REM段階を含み得る。ヒプノグラム250が、浅い睡眠段階軸280及び深い睡眠段階軸290を含むとして図4に示されているが、いくつかの実装形態において、ヒプノグラム250は、第1の非REM段階、第2の非REM段階、及び第3の非REM段階の各々の軸を含み得る。他の実装形態において、睡眠-覚醒信号は、呼吸信号、呼吸速度、吸気振幅、呼気振幅、吸気-呼気振幅比、吸気-呼気持続時間比、時間当たりの事象数、事象のパターン、又はそれらの任意の組み合わせも示し得る。睡眠-覚醒信号を記載する情報は、メモリデバイス114に格納され得る。
ヒプノグラム250は、例えば、入眠潜時(SOL)、入眠後覚醒(WASO)、睡眠効率(SE)、睡眠断片化指数、睡眠ブロック、又はそれらの任意の組み合わせなどの1つ以上の睡眠関連パラメータを決定するために使用され得る。
入眠潜時(SOL)は、就寝時刻(tGTS)から初期睡眠時刻(tsleep)の間の時間として定義される。言い換えると、入眠潜時は、ユーザが最初に入眠を試みてから実際に入眠するまでにかかった時間を示す。いくつかの実装形態において、入眠潜時は、持続性入眠潜時(PSOL)として定義される。持続性入眠潜時は、持続性入眠潜時が就寝時刻から所定量の持続的な睡眠との間の持続時間として定義されるという点で、入眠潜時とは異なる。いくつかの実装形態において、所定量の持続的な睡眠は、例えば、第2の非REM段階内、第3の非REM段階内、及び/又は2分以下の覚醒を有するREM段階内での少なくとも10分間の睡眠、第1の非REM段階、及び/又はその間での動きを含み得る。言い換えると、持続的な入眠潜時は、例えば、第2の非REM段階内、第3の非REM段階内、及び/又はREM段階内で最大8分間の持続的な睡眠を必要とする。他の実装形態において、所定量の持続的な睡眠は、第1の非REM段階内、第2の非REM段階内、第3の非REM段階内、及び/又は初期睡眠時刻に続くREM段階内での少なくとも10分間の睡眠を含み得る。このような実装形態において、所定量の持続的な睡眠は、微小覚醒を排除し得る(例えば、10秒の微小覚醒は、10分間を再開しない)。
入眠後覚醒(WASO)は、ユーザが初期睡眠時刻と覚醒時刻の間で覚醒している総持続時間に関連する。このため、入眠後覚醒は、意識的か無意識かに関わらず、睡眠セッション中の短い微小覚醒(例えば、図4に示される微小覚醒MA及びMA)を含む。いくつかの実装形態において、入眠後覚醒(WASO)は、所定の長さ(例えば、10秒超、30秒超、60秒超、約5分超、約10分超など)を有する覚醒の総持続時間のみを含む持続性入眠後覚醒(PWASO)として定義される。
睡眠効率(SE)は、総就寝時間(TIB)と総睡眠時間(TST)の比として決定される。例えば、ベッドでの総時間が8時間で、総睡眠時間が7.5時間の場合、その睡眠セッションの睡眠効率は93.75%である。睡眠効率は、ユーザの睡眠衛生を示す。例えば、ユーザがベッドに入り、寝る前に他の活動(例えば、テレビを見る)に従事して時間を費やした場合、睡眠効率が低下する(例えば、ユーザはペナルティを受ける)。いくつかの実装形態において、睡眠効率(SE)は、総就寝時間(TIB)及びユーザが睡眠を試みている総時間に基づいて算出され得る。このような実装形態において、ユーザが睡眠を試みている総時間は、本明細書に記載された就寝(GTS)時刻から起床時刻の間の持続時間として定義される。例えば、総睡眠時間が8時間(例えば、午後11時から午前7時まで)、就寝時刻が午後10時45分で、起床時刻が午前7時15分の場合、このような実装形態において、睡眠効率パラメータは約94%と算出される。
断片化指数は、睡眠セッション中の覚醒回数に少なくとも部分的に基づいて決定される。例えば、ユーザが2つの微小覚醒(例えば、図4に示される微小覚醒MA及び微小覚醒MA)を有する場合、断片化指数は2として表され得る。いくつかの実装形態において、断片化指数は、整数の所定の範囲の間(例えば、0から10の間)の尺度とされる。
睡眠ブロックは、睡眠の任意の段階(例えば、第1の非REM段階、第2の非REM段階、第3の非REM段階、及び/又はREM)と覚醒段階との間での変遷に関連する。睡眠ブロックは、例えば、30秒の分解能で算出され得る。
いくつかの実装形態において、本明細書に記載のシステム及び方法は、入床時刻(tbed)、就寝時刻(tGTS)、初期睡眠時刻(tsleep)、1つ以上の第1の微小覚醒(例えば、MA及びMA)、覚醒時刻(twake)、起床時刻(trise)、又はそれらの任意の組み合わせを、ヒプノグラムの睡眠-覚醒信号に少なくとも部分的に基づいて決定又は識別するために、睡眠-覚醒信号を含むヒプノグラムを生成又は分析することを含み得る。ヒプノグラムは、睡眠セッション中にリアルタイムで生成され得る、又は睡眠セッションの完了後に生成され得る。
他の実装形態において、1つ以上のセンサ130は、順に睡眠セッションを定義する、入床時刻(tbed)、就寝時刻(tGTS)、初期睡眠時刻(tsleep)、1つ以上の第1の微小覚醒(例えば、MA及びMA)、覚醒時刻(twake)、起床時刻(trise)、又はそれらの任意の組み合わせを決定又は識別するために使用され得る。例えば、入床時刻tbedは、例えば、運動センサ138、マイクロフォン140、カメラ150、又はそれらの任意の組み合わせによって生成されたデータに基づいて決定され得る。就寝時刻は、例えば、運動センサ138からのデータ(例えば、ユーザによる動きがないことを示すデータ)、カメラ150からのデータ(例えば、ユーザによる動きがないことを示すデータ、及び/又はユーザが消灯したことを示すデータ)、マイクロフォン140からのデータ(例えば、ユーザがTVの電源をオフにしたことを示すデータ)、ユーザデバイス170からのデータ(例えば、ユーザデバイス170をもはや使用していないユーザを示すデータ)、圧力センサ132及び/又は流量センサ134からのデータ(例えば、ユーザが呼吸治療デバイス122の電源をオンにしたことを示すデータ、ユーザがユーザインターフェース124を着用していることを示すデータなど)、又はそれらの任意の組み合わせに基づいて決定され得る。
ここで図5を参照すると、ユーザ(ユーザ210など)の身体的特徴を分析するための方法500が示されている。一般に、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するユーザに関連する、ユーザの特定の身体的特徴、特性、又は特質が存在する。これらの身体的特徴は、ユーザの首及び/又は襟のサイズ;ユーザの顎の構造;ユーザの口蓋、ユーザの舌、ユーザの扁桃腺、ユーザの歯、及びユーザの口蓋垂を含む、様々な内部構造の形状及びサイズ;ユーザの口の全体的な形状;並びに他の特質を含み得る。
(過剰な体脂肪の指標であり得る)しきい値より大きい首/襟のサイズ;ユーザの上顎に対するユーザの下顎の後退;気道の虚脱を引き起こす可能性のあるユーザの口の形状;ユーザの年齢及び性別の基準サイズを超えたユーザの舌のサイズ;一般的に時間の経過とともに変化するユーザの口の形;ユーザの頭蓋骨の形状における予想された形状からのずれ(例えば、頭蓋骨の前部及び/又は後部の測定値の減少は、短頭症の存在を示し得る);及びその他を含む、特定のサイズ、形状などのような、これらの特徴の特定の値は、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するリスクの増加と相関し得る。ユーザの口の形状に関して、上気道の制限又は虚脱は、軟口蓋、喉頭、咽頭側壁、及び舌でよく見られる。ユーザの喉が狭い場合、睡眠中に喉の上部の筋肉が弛緩したとき、これらの組織が互いに「閉じて」気道を遮断するリスクが高くなる。さらに、扁桃腺が大きいと、睡眠中に弛緩して巻き戻る巨舌症であり得るように、気道の虚脱に至り得る。
ユーザの頭、首、及び口の外部と内部の両方の特徴は、したがって、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症する1つ以上の危険因子を決定及び更新するために、これらの時間の身体的特質を追跡するために分析され得る。
方法500は、制御システム(システム100の制御システム110など)及び任意の数のセンサ(任意のセンサ130など)を使用して実装され得る。メモリデバイス(システム100のメモリデバイス114など)は、方法500のステップで利用される任意のタイプのデータを格納するために使用され得る。いくつかの実装形態において、方法500は、少なくともハンドヘルドデバイス(ユーザデバイス170であり得るユーザのスマートフォンなど)を使用して実装され得る。
方法500のステップ502は、1つ以上の画像センサを介して、ユーザの頭の外部の画像として再生可能な第1の画像データを生成することを含む。第1の画像データは、口、下顎輪郭、頭蓋骨、目、鼻などを含む、ユーザの頭の外部の様々な側面に関連し得る。そのため、ステップ502は、ユーザの襟のサイズ、ユーザ210の顎のサイズ及び形状、ユーザ210の頭蓋骨のサイズ及び形状、その他など、ユーザ210の頭214の外部の様々な身体的特徴を、少なくとも識別するために使用され得るデータを生成することを含む。本明細書で使用されるように、ユーザの頭は、ユーザの口、目、鼻、頭蓋骨、顔などを含み得る。
画像センサは、システム100のカメラ150など、任意の適切な画像センサであり得る。いくつかの実装形態において、カメラ150はハンドヘルドデバイス、ユーザの移動デバイスに統合される。例えば、画像センサはユーザのスマートフォンのカメラである。画像センサは、スマートフォンのディスプレイ(ユーザデバイス170の表示デバイス172であり得る)がユーザのリアルタイムビューを示すように、ユーザのスマートフォンの前面カメラであり得る。ユーザは、第1の画像データを生成するための画像センサを適正に位置決めするためにリアルタイムビューを利用し得る。他の実装形態において、画像センサは、ユーザのスマートフォンの背面カメラであり、ユーザは、スマートフォンのディスプレイを、例えば、鏡を使用して見ることができる。
図6A及び図6Bは、カメラ404を備えたスマートフォン402を使用して、ユーザ210の頭214及び/又は首216の外部の第1の画像データを生成するユーザ210を示している。図示の実装形態において、画像センサは、ユーザ210のスマートフォン402のカメラ404である。他の実装形態において、画像センサは、異なるハンドヘルドデバイス(タブレットコンピュータなど)のカメラであり得る。さらに他の実装形態において、画像センサは、ハンドヘルドデバイスの構成要素でなくてもよい。したがって、画像センサは、ハンドヘルドデバイスに組み込まれ得、又は他のデバイスの一部であり得る。
スマートフォン402のディスプレイは、ユーザ210の少なくとも一部のリアルタイムビデオ画像211を表示し、ユーザ210の少なくとも一部を照明するために使用され得る。例えば、図6A及び図6Bにおいて、スマートフォン402のディスプレイの第1の部分406Aは、ユーザ210のリアルタイムビデオ画像211を表示する。ユーザの首216、目218、口220、及び鼻222を含む、ユーザ210の頭部214の様々な特徴が、リアルタイムビデオ画像211で見える。第1の部分406Aは、カメラ404及びユーザ210の目218に最も近いディスプレイの一部である。ユーザ210は、スマートフォン402を適正に位置決めして、頭214及び/又は首216の外部の第1の画像データを取得するために、リアルタイムビデオ画像211を見ることができる。スマートフォン402のディスプレイの第2の部分406Bは、ユーザ210の頭214及び/又は首216の一部を照明するために使用される。ディスプレイの第2の部分406Bは、カメラ404及びユーザ210の目218から最も離れた部分であり、ユーザ210の首216及び口220により近い部分である。一般に、第2の部分406Bは、ユーザ210の一部を照明するために、任意の適切な画面、画像、対象物などを表示し得る。一例において、ディスプレイの第2の部分406Bは、白又は別の色であり得る空白の画面を示す。
図5に戻って参照すると、方法500のステップ504は、1つ以上の画像センサを介して、ユーザ210の口220の内部の画像として再生可能な第2の画像データを生成することを含む。そのため、ステップ502は、ユーザ210の舌、扁桃腺、歯、顎、口蓋垂などのサイズ及び形状など、ユーザ210の口220の内部の様々な特性又は特質を、少なくとも識別するために使用され得るデータを生成することを含む。
図7A及び図7Bは、スマートフォン402を使用して、ユーザ210の口220の内部の第2の画像データを生成するユーザ210を示している。図7Aに示すように、ユーザ210は、スマートフォン402を口220まで保持して、スマートフォン402のカメラ404で第2の画像データを生成する。ユーザ210の口220のリアルタイムビデオ画像219は、スマートフォン402によって表示され得る。図示の実装形態において、スマートフォン402は裏返されており、ディスプレイの第1の部分406Aとディスプレイの第2の部分406Bとが逆になっている。この向きでは、第1の部分406Aは依然としてカメラ404に近く、第2の部分406Bは依然としてカメラ404からさらに離れている。しかしながら、第1の部分406A及びカメラ404は、ここで、ユーザ210の目218よりもユーザ210の口220に近い、第2の部分406Bの下に位置決めされる。次に、第2の部分406Bは、ここで、ユーザ210の口220よりもユーザ210の目218に近い、第1の部分406A及びカメラ404の下に位置決めされる。ユーザ210の口220のリアルタイムビデオ画像219は、ディスプレイの第2の部分406Bに表示されるが、ディスプレイの第1の部分406Aは、照明に使用される。
スマートフォン402の向きを反転させることにより、カメラ404は、回転してユーザ210の視線から外れることなく、ユーザ210の口220に焦点を合わせ得る。スマートフォン402が裏返されていない場合、ユーザ210がスマートフォン402を口220に近づけるにつれて、カメラ404がユーザ210の口220に焦点を合わせたままになるように、スマートフォン402を下向きに回転させる必要がある。しかしながら、この回転はまた、ディスプレイの第1の部分406A及び表示されたリアルタイムビデオ画像211を下向きに回転させ、ユーザ210の視線から外す。そのため、ユーザは、スマートフォン402の配置を適正にガイドするために、リアルタイムビデオ画像211を見ることができない。スマートフォン402は裏返されているので、カメラ404は、ディスプレイの第2の部分406B及び表示されたユーザ210のリアルタイムビデオ画像211をユーザ210の視線から外して回転させることなく、ユーザ210の口220に焦点を合わせられ得る。スマートフォン402は、ユーザ210の頭214及び/又は首216の外部の第1の画像データを得るために裏返しにされてもよく、又は図6A及び図6Bに示すように適正な向きのままでもよい。
ディスプレイの第2の部分406Bは、ユーザ210がスマートフォン402を所望の位置に移動するのを補助するために、1つ以上の拡張現実証印を表示し得る。一般に、スマートフォン402が所望の位置にあるとき、カメラ404は、ユーザ210の口220の内部の第2の画像データを生成するために、ユーザ210の口220の内部に適正に焦点を合わせる。いくつかの実装形態において、拡張現実証印は、スマートフォン402を動かす必要がある方向、又はユーザ210が頭214及び/又は口220を動かす必要がある方向を示すマーカを含み得る。
いくつかの実装形態において、スマートフォン402は、スマートフォン402の背面に(例えば、スマートフォン42のディスプレイ部分406A及び406Bとは反対側の側面に)配置された背面画像センサ(例えば、背面カメラ)を含み得る。背面画像センサを利用したとき、ユーザは、ディスプレイの第2の部分406Bに拡張現実証印を、向きが外れているため見ることができず、第2の部分406Bを見る他の手段を代わりに使用しなければならない。一例において、ユーザは鏡に面しながらスマートフォン402を使用し得るので、ユーザは鏡に映った拡張現実証印の反射を見ることができる。スマートフォン402は、ディスプレイの第2の部分406B上の拡張現実証印を反転させるので、拡張現実証印が鏡に正しい向きで現れる。第2の例において、ディスプレイの第2の部分406Bのコンテンツ(画像、ビデオ、拡張現実証印など)は、タブレット、ベッドサイドディスプレイ、スマートウォッチなどのユーザが容易に見ることができる外部デバイス(ユーザデバイス170など)に送信され得る。
図7Bに示される実装形態において、リアルタイムビデオ画像219は、ディスプレイの第2の部分406Bの左上象限に位置決めされる。マーカは、左上象限を指す矢印408であり、スマートフォン402のカメラ404を適正に位置決めするために、ユーザ210がスマートフォン402を上向き及び左向きに移動する必要があることを示している。したがって、矢印408は、ユーザ210がスマートフォン402を動かす必要がある方向を指している。他の実装形態において、矢印408は、ユーザ210が口220を下及び左に移動する必要があることを示した下及び左を指し得るので、口220がカメラ404に対して適正に位置決めされる。
拡張現実証印はまた、ユーザ210の様々な身体的特徴の1つ以上の輪郭を含み得る。これらの輪郭は、一般に、身体的特徴の形状に対応する形状を有して、スマートフォン402とカメラ404との位置合わせを補助する。例えば、図7Bにおいて、ディスプレイの第2の部分406Bは、ユーザの唇の輪郭410を表示する。ディスプレイの第2の部分406Bは、ユーザ210の唇を含む、ユーザ210のリアルタイムビデオ画像211も表示するので、輪郭410は、スマートフォン402とカメラ404のための位置合わせガイドを提供する。輪郭410をリアルタイムビデオ画像211内の対応する特徴と位置合わせすることによって、ユーザ210は、カメラ404がユーザ210の口220の内部に焦点を合わせるように位置決めされることを確実にする。輪郭410はユーザの唇の輪郭であるが、輪郭は、ユーザ210の目218、舌、歯、口蓋垂、扁桃腺、若しくは任意の他の特徴、又は複数の特徴の組み合わせなど、ユーザ210のいずれかの特徴の輪郭であり得る。
いくつかの実装形態において、スマートフォン402は、スマートフォン402及びカメラ404が、ユーザ210の口220の内部の第2の画像データを捕捉するために所望の位置にあるときをユーザ210に示すように構成される。いくつかの実装形態において、スマートフォン402は、ディスプレイの第1の部分406A又はディスプレイの第2の部分406Bのいずれかに指標を表示することができる。この指標は、画像、記号、テキストなどを含み得る。指標は、継続的に表示されてよく、又は点滅する方式で表示されてもよい。スマートフォン402及びカメラ404が正しく位置決めされると、矢印408又は輪郭410などの拡張現実証印も変更され得る。例えば、スマートフォン402は、拡張現実証印に色の変更、形の変更、サイズの変更、又はそれらの任意の組み合わせを生じさせ得る。さらに別の実装形態において、スマートフォン402及びカメラ404が正しい位置にあることを示す可聴音が(例えば、スマートフォン402のスピーカーを介して)生成され得る。一般に、スマートフォン402は、スマートフォン402及びカメラ404が正しい位置にあることを任意の適切な仕方でユーザ210に示すために、任意の適切なアクションを取り得る。
スマートフォン402はまた、ユーザ210がスマートフォン402及びカメラ404を正しく位置決めするのを補助するために可聴音を発生させ得る。例えば、スマートフォン402は、スマートフォン402が適所にないときに最初に音を再生し、その後、ユーザがスマートフォン402を正しい位置に近づけるにつれて、音の特質を徐々に変更し得る。例えば、ユーザ210がスマートフォン402及びカメラ404を動かすと、音量又は音のピッチが増加又は減少され得る。別の例において、可聴音はいくつかの繰り返し率で継続的に繰り返される。ユーザ210がスマートフォン402及びカメラ404を動かすと、可聴音の繰り返し率が増加又は減少され得る(例えば、音がより速く又はより遅く再生され得る)。
図5に戻って参照すると、方法500のステップ506は、音響信号をユーザ210の口220の内部に向けることを含み、方法500のステップ508は、ユーザ210の口220の内部から反射音響信号を受信することを含む。ステップ506及び506の結果は、ユーザ210の口220の内部の構造特性又は特質に関連する音響データを取得することである。一般に、スマートフォン402は、1つ以上のスピーカ及び1つ以上のマイクロフォンから構成される音響センサを含む。スマートフォン402は、スピーカに、ユーザ210の口220の内部に向けられる音響信号(例えば、音波)を放出させるように構成される。音響信号は、ユーザ210の口220の内部の様々な構造から反射し、スマートフォン402に向かって伝播して戻る。次に、1つ以上のマイクロフォンが反射音響信号を検出することで、音響データを生成し得る。
音響信号は、ユーザ210の口220の構造的特質を示しており、ユーザの舌、歯、顎、扁桃腺、口蓋垂などのユーザの口220の内部、ユーザの口220の口蓋、ユーザの喉の奥などの様々な構造のサイズ及び/又は位置を決定するために分析され得る。スマートフォン402は、音響信号がスピーカによって放出させられてから、反射音響信号がマイクロフォンによって検出されるまでの間の時間量を監視するように構成される。経過時間に基づいて、スマートフォン402と、音響信号が反射した構造との間の距離が決定され得る。
音響信号を分析するために、様々な異なる技術が使用され得る。周波数ホッピングレンジゲーテッド(FHRG)実装において、フレーム/音色ペアフレーム変調器は、プロセッサによって制御される(フレームなどを使用した暗黙の多周波数動作を伴って)。適応FHRG(AFHRG)又は適応飛行時間(AToF)などの適応実装において、システムは、FHRG実装には存在しないフェージング検出及び明示的な周波数シフト動作のためのモジュールをさらに含む。フェージング検出器モジュールは、様々なチャネル状態において、口をマッピングするための動きや詳細な距離情報を最適に検出するために、システムのパラメータ(周波数シフトと、変調タイプと、音色数、時間及び周波数の間隔などのフレームパラメータとを含む)を調整するためのフィードバックメカニズムを提供する。
フェージングは、反射音響信号の振幅変調(エンベロープ検出を介して抽出される)の変動から、及び/又は特定の音色ペアの変化を介して直接検出され得る。フェージング検出器は、後続のベースバンド信号処理から二次情報を受信してもよいが、これにより処理の遅延が発生し得る。これは、実際に抽出された呼吸信号品質/形態を現在のチャネル状態に関連付けて、有用な信号を最大化するようにより良い適応を提供するために使用され得る。フェージング検出器はまた、I/Qペア(ベースバンド前呼吸/心拍数分析)を処理し得る。非フェードTx(送信)波形(単数又は複数)の構成を使用することにより、スピーカーの有限の放射信号出力も最適化されて/最良に利用されて、音響センサ/受信機Rx(受信)によって受信される有用な情報を最大化させ、ベースバンドへ復調/さらに処理され得る。いくつかの場合において、システムが(例えば、所望の復調呼吸数帯域で「ノイズ」/アーチファクトを引き起こし得る、呼吸数に類似する時間的尺度におけるフェージングの多経路変動を回避するために)より長期間にわたってより安定であることが判明した場合、システムは、(短期SNRに関して)若干最適以下のTxのための周波数のセットを選択し得る。
スマートフォンのスピーカーによって生成された送信音圧信号は、目標物で反射され、スマートフォンのマイクロフォンで感知されるように戻る。無指向性音源の場合、音圧(P(x))レベルは、以下のように距離xと共に減少する。
Figure 2023525691000002

スマートフォン402のスピーカーは18kHzにおいて指向性であるため、
Figure 2023525691000003

となり、γはスピーカーのゲインであり、0~2の間の値を有し、典型的に1より大きい。
目標物(例えば、ユーザ210)は、特定の断面及び反射係数を有する。ユーザ210からの反射も指向性である。
Figure 2023525691000004

αは、反射器の減衰であり、0~1の間の値を有し、典型的には0.1より大きい。βは、反射器のゲインであり、0~2の間の値を有し、典型的には1より大きい。σは、ソナー断面である。
その結果、音圧Pの送信信号は、距離dで反射されると、以下の減衰出力レベルでスマートフォン402に戻る。
Figure 2023525691000005

スマートフォン402のマイクロフォンは、反射音圧信号の一部のみを受信する。割合は、マイクロフォンの影響範囲Aに依存する。
Figure 2023525691000006

このように、送信音響信号のごく一部は、ユーザ210によって反射され、スマートフォン402のマイクロフォンによって受信されるように戻る。
音響センサから距離dにおいてFHRGシステムの範囲内にいるユーザは、音響信号を反射する。任意の周波数fnmのモデル信号のためスマートフォン402によって生成される音は以下である。
Figure 2023525691000007

任意の個々の周波数について、距離dで目標物に到達する音響信号は、以下のようになる。
Figure 2023525691000008
スマートフォン402のマイクロフォンに戻ってくる反射音響信号は、以下のようなる。
Figure 2023525691000009

しかしながら、目標物の距離が正弦波変動で移動している場合、距離dは、d(x,t,w,A)=d+ASin(2πft+θ)のようになり、W=2πfが周波数、Aが呼吸振幅、θが位相、dが公称目標物距離である。
このような状況において、最大呼吸変位Aは目標物距離dに比べて小さく、反射音響信号への影響は無視され得る。結果として、マイクロフォンによって受信される音響信号は、以下のようになる。
Figure 2023525691000010
周波数と変位が異なっていても心臓運動信号に類似し得る、理想化された呼吸運動信号は、正弦関数の正弦関数とみなされ得るので、同じ変位ピークツーピーク振幅に対して最大感度及び最小感度の領域を有する。この信号を正しく回復させるためには、感度ヌルが軽減されるように直交位相受信機などを利用することが効果的である。
次に、Iベースバンド信号及びQベースバンド信号は、(i)呼吸信号のRMS及び位相を回復し、(ii)動きの方向(フェーザ方向)を回復し、(iii)フェーザの方向変化を検出することによって、フォールドオーバー情報を回復するために、フェーザI+jQとして利用され得る。反射音響信号の分析、例えば、ソナー技術は、当技術分野で知られており、反射音響信号に関連する追加の詳細は、少なくとも国際公開第2018/050913号及び国際公開第2020/104465号において確認され得、各々はその開示全体を本明細書に参照として援用する。
他の実装形態において、音色ペアの代わりに1つ以上の個々の音色が使用される場合、類似のアーキテクチャが、適応連続波(ACW)システムを実現するために利用され得る。
いくつかの実装形態において、スマートフォン402は、音響センサを使用して、ユーザ210の口220のスキャンを実行する。例えば、音響センサは、ユーザ210の口220内の様々な構造の位置を決定するために、音響信号を繰り返し放出し、それらの反射を複数の異なる方向で測定し得る。そのため、音響センサは、ユーザ210の口220内の様々な構造を識別し、各構造間の距離を決定し、各構造と音響センサの間の距離を決定するために使用され得る。したがって、音響センサは、一般に、ユーザ210の口220の内部をマッピングするために使用される。
音響センサによって放出される音響信号は、主に単一の周波数又は狭い帯域幅内の周波数を有し得る、又はより広い帯域幅に広がる周波数を有し得る。いくつかの実装形態において、音響信号は「ホワイトノイズ」の形を取る。 これらの実装形態において、音響信号は、特定の周波数帯域に広がる周波数を有する多数の音波から形成される。音響信号のスペクトル出力密度は一定であるので、音響信号は異なる周波数で概して等しい強度を有し、そのためホワイトノイズを形成する。
さらに他の実装形態において、音響信号の周波数は、周波数帯域内で前後に掃引され得る。例えば、音響センサが音響信号をユーザ210の口220の内部に継続的に向けているとき、周波数は、第1の周波数と第2の周波数との間で変調され得る。そのため、1回目には、音響信号の周波数は第1の周波数に等しい。1回目の後の2回目には、音響信号の周波数は増加又は減少され、第2の周波数に等しくなる。2回目の後の3回目に、音響信号の周波数は増加又は減少され、第1の周波数に再び等しくなる。
いくつかの実装形態において、音響センサは使用前に較正され得る。例えば、ユーザ210は、スマートフォン402を、壁、テーブルなどの平らな面の前に置けばよい。スマートフォン402は、音響センサに平坦な表面で音響信号を放出させた後、反射音響信号を測定させ得る。一般に、平坦な表面は、実際に受信された反射音響信号を予想される反射音響信号と比較し得るように、既知の又は推定された反射特性を有する。次に、この比較は、ユーザ210の口220内で測定された反射音響信号を調整するための較正係数を決定するために使用され得る。
方法500のステップ510は、(i)ユーザ210の頭214及び/又は首216の外部の画像データ、(ii)ユーザの口220の内部の画像データ、(iii)ユーザ210の口220の内部からの反射音響信号、又は(iv)(i)~(iii)の任意の組み合わせに少なくとも部分的に基づいて、ユーザの構造プロファイルを生成することを含む。画像データ及び反射音響信号は、首のサイズ、顎の位置、口の形状、舌の形状など、本明細書で説明されるように、ユーザ210の様々な身体的特徴を識別するために分析され得る。次いで、ユーザ210に関する情報を含む構造プロファイルを生成し得る。構造プロファイルは、第1の画像データ、第2の画像データ、及び反射音響信号の任意の組み合わせから決定される、ユーザ210の身体的特徴に関する情報の全てを含む。
構造プロファイルを生成するために、スマートフォン402は、目の検出、耳の検出、鼻の検出などと共に、第1の画像データを使用して、ユーザの頭、顔、及び口220の位置を特定し得る。頭214及び首216の寸法は、スマートフォン402が頭214及び首216の周りを移動するにつれて推定され得る。スマートフォン402はまた、ユーザの口220が開いているかどうかを検出し得、画像及び音響センサが口220の明確な「視野」を有し、スマートフォン402は、口220の内部に関する情報を得るために、利用可能なセンサデータ/信号を処理し得る。スマートフォン402はまた、例えば、舌の位置をマッピングし、舌のサイズを推定し(例えば、ユーザがコマンド又は命令に応じて舌を動かすことに基づいて)、第2の画像データ及び音響データを使用して口220の奥の「視野」を提供し得る。
いくつかの実装形態において、構造プロファイルは、ユーザ210の口220の内部からの反射音響信号のみに基づく。そのため、これらの実装形態において、方法500のステップ502及びステップ504は実行される必要がない。他の実装形態において、構造プロファイルは、追加的又は代替的に、第1の画像データ及び/又は第2の画像データに基づき得る。これらの実装形態において、残りのステップに加えて、ステップ502及びステップ504の一方又は両方は、実行され得る。そのため、図5に示される方法500のステップは、第1の画像データ、第2の画像データ、及び反射音響信号を得ることを含むが、第1の画像データ、第2の画像データ、及び反射音響信号のうちの1つ又は2つだけを利用する、方法500の様々な実装形態が実施され得る。
いくつかの実装形態において、構造プロファイルは、追加的又は代替的に、カメラ404(システム100のカメラ150であり得る)、及び/又は、IRセンサ(これは、システム100のIRセンサ152であり得る)などのスマートフォン402のセンサによって生成される熱データに基づき得る。例えば、ユーザの口の炎症は、熱センサ(能動又は受動)を使用して検出され得る。この炎症は、感染、(呼吸治療デバイス122及び/又はユーザインターフェース124の使用からの)刺激などの結果であり得る。炎症は、ユーザの扁桃腺及び/又は歯茎(例えば、扁桃腺及び/又は歯茎の腫れ又は発赤)、及び/又は他の場所に位置し得る。炎症によって発生した熱は、赤外線及び/又は可視範囲の電磁放射の放出量として現れ得る。カメラ404及び/又はIRセンサは、この放出された電磁放射を検出し、ユーザの口の局所温度及び/又は任意の温度差を測定するために、熱センサとして使用され得る。次に、カメラ404及び/又はIRセンサによって生成されたデータは、ユーザの構造プロファイルを形成するために使用され得る。これらの技術は、ユーザの口の炎症を経時的に監視するためにも使用され得る。
さらに他の実装形態において、構造プロファイルは、追加的又は代替的に、LiDARセンサ(例えば、LiDARセンサ178)、RADARセンサ(RFセンサ147を形成するためにRF受信機146及びRF送信機148を使用して実装され得る)、超音波測距センサ、その他などの1つ以上の測距センサによって生成された測距データに基づき得る。測距センサからの測距データは、任意の身体的特徴の位置、サイズ、向きなどを含む、ユーザの頭、口、及び/又は首に関する構造データを生成するために使用され得る。いくつかの実装形態において、IRセンサ152は、測距センサとして使用され得る。測距センサは、ユーザの頭、口、及び/又は首の様々な特徴を経時的に追跡するためにも使用され得る。
構造プロファイルは、画像センサからの画像データ、音響センサからの音響データ、熱センサからの熱データ、及び測距センサからの測距データの任意の組み合わせに基づき得る。構造プロファイルは、ユーザの口及び/又は喉の特徴を含む、ユーザの頭の特徴を識別し得る。構造プロファイルは、特徴の任意の組み合わせ間の測定距離も含み得る。構造プロファイルは、二次元、三次元、又は両方の組み合わせであり得る。いくつかの実装形態において、熱センサ及び/又は測距センサは、スマートフォン404のカメラ404及び/又はスピーカーの代替として使用され得る。他の実装形態において、熱センサ及び/又は測距センサは、画像データ及び/又は音響データを強化するために、スマートフォン404のカメラ404及び/又はスピーカに加えて、使用され得る。
方法500のステップ512は、構造プロファイルの生成に応答してアクションを実行させることを含む。いくつかの実装形態において、実行されるアクションは、危険因子を決定することを含む。いくつかの実装形態において、危険因子は、ユーザ210が将来のある時点で睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するパーセンテージ尤度、及び/又はユーザ210がすでに睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症しているパーセンテージ尤度を示す。これらの実装形態における危険因子は、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するための推定タイムラインを含み得る。危険因子は、ユーザ210の身体的特徴に少なくとも部分的に基づき得る。
例えば、ユーザ210の分析により、ユーザの首回りが大きく、舌のサイズが大きいことが明らかになった場合(肥満の症状によることもあり得る)、ユーザ210の危険因子は、ユーザ210が平均的な首回り及び舌のサイズであるユーザと比較して、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するリスクがより高いことを示し得る。いくつかの実装形態において、危険プロファイルは、ユーザ210に関する追加情報も同様に考慮に入れ得る。この情報は、年齢、性別、性、民族性、場所などのような人口統計データを含み得る。この情報は、身長、体重、その他の病状などの他の生理学的データも含み得る。いくつかの実装形態において、ユーザ210のシステム100の使用からのデータが使用され得る。例えば、ユーザ210が睡眠セッション中に既に呼吸治療デバイス(呼吸治療デバイス122など)を使用している場合、方法500は、ユーザ210の危険因子が減少しているかどうか、例えば、呼吸治療デバイスを使用した治療が効果的であるかどうか(例えば、睡眠の質が向上すると、体重が減少し得る、及び/又は、呼吸治療デバイスの使用中に必要な圧力が低くなりし得る)を判断するために使用され得る。
いくつかの実装形態において、アクションは、通知又は報告をユーザ210に、及び/又は、医療提供者、保護者、友人、家族などの第三者に送信することを含む。通知又は報告は、ユーザ210が睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症するか、又はすでに発症しているパーセンテージ尤度など、決定された危険因子に関する情報を含み得る。
他の実装形態において、アクションは、ユーザに治療の勧告を提供することを含み得る。治療は、ユーザ210が将来、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸を発症する尤度を低減するように、又は、ユーザ210が睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸をすでに発症している場合、睡眠呼吸障害及び/又は閉塞性睡眠時無呼吸の重症度を低減するように設計された任意のタイプの治療であり得る。治療は、ユーザ210が下顎再位置決めデバイス(ユーザ210の上顎及び下顎の再位置決めを補助するために使用される)を着用すること、ユーザが呼吸治療デバイス(気道陽圧デバイスなど)の使用を開始すること、又は他の提案された治療を勧告することを含み得る。治療の勧告は、ユーザがさらなる分析又は治療のために医師及び/又は歯科医を訪問すること、又はユーザが睡眠研究に参加することという提案も含み得る。
さらに他の実装形態において、アクションは、ユーザ210の頭214の外部の少なくとも一部、ユーザ210の口220の内部の少なくとも一部、又はその両方の三次元(3D)モデルを生成することを含み得る。3Dモデルは、ユーザ210の治療を補助するカスタマイズされたデバイスを作成するためのテンプレートとして使用され得る。いくつかの実装形態において、カスタマイズされたデバイスは、ユーザ210が睡眠セッション中に着用するためのマウスガードであり、睡眠セッション中の事象の防止を補助し得る。他の実装形態において、カスタマイズされたデバイスは、呼吸治療デバイス(気道陽圧デバイスなど)とともに使用されるカスタマーユーザインターフェースである。追加の実装形態において、カスタマイズされたデバイスは、ユーザ210の上顎及び下顎の再位置決めを補助するために使用される下顎再位置決めデバイスである。
方法500のステップのいずれかを通して、方法500の様々なステップ(又は他の方法の他のステップ)を実行するための命令が提供され得る。これらの提供された命令は、ユーザ210の頭214の外部の第1の画像データを生成するため、ユーザ210の口220の内部の第2の画像データを生成するため、又は、音響信号を向けて、ユーザ210の口220の内部からの反射音響信号を受信するために、スマートフォン402を適正に位置決めするための命令を含み得る。例えば、スマートフォン402は、スマートフォン402のスピーカーを通して音声命令を再生し得る、又はスマートフォン402のディスプレイに視覚命令を表示し得る。いくつかの実装形態において、スマートフォン402は、命令を提供する。他の実装形態において、他のデバイス(タブレット、ラップトップコンピュータ、デスクトップコンピュータ、スマートスピーカなど)が命令を提供し得る。
いくつかの実装形態において、命令は、ユーザ210のために特別に設計される。例えば、スマートフォン402がユーザ210に対して左に移動される必要がある場合、ユーザはスマートフォン402を手に持っているので、命令は、スマートフォン402を左に動かす命令を含み得る。さらに他の実装形態において、命令は、方法500のステップを実行する際にユーザ210を支援する第三者を対象とする。そのため、上記の例に戻って参照すると、第三者への命令は、電話機を第三者の右側に移動させ命令を含み得る。第三者はユーザ210に面しているので、命令に従うと、スマートフォン402はユーザ210に対して同じ方向に移動することになる。そのため、命令は、誰を対象とするかによって異なり得るが、命令は、電話を所望の位置に配置、又は、他のステップの実行を補助するように設計されている。
ステップ504に関連して本明細書に記載された拡張現実証印は、一般に、スマートフォン402の位置決めを補助するために任意のステップで利用され得る。例えば、スマートフォン402は、ユーザ210の頭214及び/又は首216の外部の第1の画像データを得るためのスマートフォン402の適切な位置決めを示すために、矢印408又は輪郭410などの拡張現実証印を表示し得る。拡張現実証印は、音響信号をユーザ210の口220の内部に向けるために、スマートフォン402の適切な位置決めを示すためにも使用され得る。いくつかの実装形態において、第1の画像データ(ユーザ210の頭214及び/又は首216の外部)を生成するため、第2の画像データ(ユーザ210の口220の内側)を生成するため、及び、音響信号をユーザ210の口220の内部に向けるための所望の位置は、すべて異なる。他の実装形態において、所望の位置のうちの任意の2つが同じ位置であり得る。さらに他の実装形態において、所望の位置のうちの3つ全てが同じ位置である。
いくつかの実装形態において、追加のセンサは、画像データ及び音響データを増加させるために使用され得る追加のデータを生成するため、構造プロファイルの生成を補助するために使用され得る。これらの追加のセンサは、深度センサ(音響信号又は任意の光信号に適用される飛行時間処理を実行して、ユーザ210の口220の外側又は内側の距離の推定を補助するため)、近接センサ(スマートフォン402がユーザの顔に近づけられているか判断するため)、赤外線(IR)センサ(任意選択でカメラと組み合わせたドットマトリックスIRセンサを含み得る、ユーザ210の顔及び開いた口220をマッピングするため)、顔及び口220を3Dで画像化するための無線周波数(RF)センサ(超広帯域RF(UW-BRF)センサなど)、顔及び口を3Dで画像化するためのミリ波周波数変調連続波(FMCW)RFセンサ、又はそれらの任意の組み合わせを含み得る。これらのセンサは、スマートフォン402又は他のハンドヘルドデバイスに統合され得る、又は別のデバイスの一部であり得る。いくつかの実装形態において、これらの追加のセンサのいくつかは、スマートフォン402又は他のハンドヘルドデバイスに統合され得るが、その他のセンサは、別個のデバイスに実装される。
一般に、方法500は、1つ以上のプロセッサを備えた制御システムと、機械可読命令を格納するメモリとを有するシステムを使用して実装され得る。制御システムは、メモリに結合し得、方法500は、機械可読命令が制御システムのプロセッサの少なくとも1つによって実行されるときに実装され得る。方法500はまた、コンピュータによって実行されるとコンピュータに方法500のステップを実行させる命令を含むコンピュータプログラム製品(非一時的なコンピュータ可読媒体など)を使用して実装され得る。
ここで図8を参照すると、ユーザ210は、音響信号をユーザ210の口220の内部に向けるためにスマートフォン402を正しい位置に配置するためのデバイス600を使用し得る。図8に示すように、スマートフォン402はデバイス600に挿入され得、ユーザはその後にデバイス600を噛み得る。そうすることによって、スマートフォン402の音響センサは、ユーザ210の口220の内側、又はユーザ210の口220のすぐ外側に、概して位置決めされる。この位置において、スマートフォン402は、音響信号をユーザ210の口220に向け、ユーザ210の口220の内側の構造的特徴から反射する反射音響信号を受信するために、音響センサを使用し得る。
ここで図9A、図9B、及び図9Cを参照すると、デバイス600は、ハンドヘルドデバイス部602A及び口部602Bから形成される。ハンドヘルドデバイス部602Aは、スマートフォン402などのハンドヘルドデバイスの一部又は全てを確実に受け入れるように構成される。口部602Bは、スマートフォン402がユーザの口220によって位置決めされるように、ユーザの口220で把持されるように構成される。ユーザは、デバイス600を口220に保持するために、歯で口部602Bを噛み得る。ユーザは、口部によって形成された溝603に歯を挿入し、歯で口部602Bに能動的に圧力をかけるか、溝603に歯を受動的に置くことによって、口部602Bを噛み得る。ユーザは、デバイス600を口220に保持するために、追加的又は代替的に、口部602Bを歯茎及び/又は唇で把持し得る。いくつかの実装形態において、ユーザは、歯茎及び/又は唇を溝603に挿入し、歯茎及び/又は唇で口部602Bに能動的に圧力をかけるか、溝603に歯茎及び/又は唇を受動的に置くことによって、口部602Bを把持し得る。本明細書で使用するように、個人の歯は、単一の歯、複数の歯、単一の歯の一部、又は複数の歯の一部を含み得る。本明細書で使用されるように、個人の歯茎は、上歯茎、下歯茎、上歯茎と下歯茎の両方、上歯茎の一部、下歯茎の一部、又は上歯茎と下歯茎の両方の一部を含み得る。本明細書で使用されるように、個人の唇は、上唇、下唇、上唇と下唇の両方、上唇の一部、下唇の一部、又は上唇と下唇の両方の一部を含み得る。
いくつかの実装形態において、ハンドヘルドデバイス部602Aは、スマートフォン402を受け入れるスロット604を画定する。例えば、図9A、図9B、及び図9Cは、ハンドヘルドデバイス部602Aが、頂壁、底壁、頂壁及び底壁の両方の第1の端部に結合された第1の側壁、及び、頂壁及び底壁の両方の第2の端部に結合された第2の側壁を含むことを示している。4つの壁は一緒に、スマートフォン402を受け入れるスロット604を画定する。他の実装形態において、スロット604は、より少ない壁によって画定され得る。例えば、ハンドヘルドデバイス部602Aは、上壁及び下壁のみ、又は2つの側壁のみを含み得る。これらの実装形態において、スマートフォン402は、スロット604を形成する2つの壁によって適所に保持される。
スマートフォン402がハンドヘルドデバイス部602Aのスロット604によって受け入れられると、音響センサは、スロット604の内側に位置決めされる。一般に、スロット604内の領域は、ハンドヘルドデバイス部602Aとは反対側の口部602Bの他の側に開いている。そのため、口部602Bがユーザの口220に挿入されると、音響センサは、ユーザの口220の内部と流体連通する。そのため、音響センサは、音響信号をユーザの口220の内部に向けることができ、ユーザの口220内の様々な構造から反射した後に反射音響信号を受信することができる。
図10Aは、デバイス600の上面図を示すが、図10Bは、スマートフォン402を保持するデバイス600の上面図を示す。見て分かるように、口部602Bは、ユーザが口部602Bを把持したとき、ユーザの歯、歯茎、唇などに適合し得る概して湾曲形状を有する。口部602Bは、湾曲外壁608A及び湾曲内壁608Bから形成される。ユーザが口の中で口部602Bを把持したとき、湾曲内壁608Bは、一般に、ユーザの歯の後ろ、例えば、ユーザの歯とユーザの口の奥との間にある。湾曲外壁608Aがユーザの歯の前に配置されることで、ユーザの歯は、湾曲外壁608Aと湾曲内壁608Bとの間に位置決めされる。ユーザの歯茎及び/又は唇はまた、湾曲外壁608Aと湾曲内壁608Bとの間(図8に示すように)、又は湾曲外壁608Aの外側に位置決めされ得る。
いくつかの実装形態において、湾曲外壁608A及び湾曲内壁608Bは、2つのチャネル606A、606Bを画定する。チャネル606A、606Bは、スロット604の内部を口部602Bの反対側に開いている。スマートフォン402がハンドヘルドデバイス部602Aに挿入されると、スピーカ412Aは、チャネル606Aに隣接して位置決めされ得るが、マイクロフォンは、チャネル606Bに隣接して位置決めされ得る。チャネル606Aは、スピーカ412Aからの音響信号をユーザの口の内部に向けるのを助けるが、チャネル606Bは、ユーザの口の内部からの反射音響信号をマイクロフォン412Bに向けるのを助ける。いくつかの実装形態において、チャネル606A、606Bは、ハンドヘルドデバイス部602Aから口部602Bまで延在するスロット604の単に部分又は複数の部分である。他の実装形態において、チャネル606A、606Bは、デバイス600に画定された別個の開口部である。そのため、口部の設計は、ユーザの口への音響信号のより効率的な送達、及びユーザの口からの反射音響信号のより効率的な受信を提供する。実装形態において、湾曲外壁608Aの領域は、反射音響信号の収集を補助するように成形され得る。例えば、湾曲外壁608Aは、反射音響信号のより効率的な収集を助ける円錐形の突起を含み得る。
いくつかの実装形態において、デバイス600は、舌圧子610を含む。舌圧子は、湾曲内壁608Bからユーザの口の奥に向かって内向きに延在する。ユーザが口部602Bを口の中に挿入して噛むと、舌圧子610がユーザの舌の上に位置決めされる。舌圧子610は、スピーカ412Aが音響信号を放出し、マイクロフォン412Bが反射音響信号を受信している間、ユーザの舌が上方に動くのを防止する。そのため、舌圧子610は、ユーザの舌がスピーカ412Aによって放出される音響信号を遮断するのを防ぎ、ユーザの舌が反射音響信号を遮断するのを防ぐのを補助する。
チャネル606A、606Bがスロット604によって画定される実装形態において、舌圧子610はまた、スピーカ412Aによって放出された音響信号がマイクロフォン412Bによって直接受信されるのを防ぎ、音響信号がマイクロフォン412Bによって受信される前に、ユーザ210の口220の1つ以上の身体的構造から反射することを確実にする遮断構造として機能し得る。チャネル606A、606Bがデバイス600を通して別個に画定される実装形態において、チャネル606Aと606Bの間に位置決めされたデバイス600の部分(湾曲外壁608A、湾曲内壁608B、又は任意の他の部分からのものであり得る)は、スピーカ412Aによって放出された音響信号がマイクロフォン412Bによって直接受信されるのを防ぎ、音響信号がマイクロフォン412Bによって受信される前に、ユーザ210の口220の1つ以上の身体的構造から反射することを確実にする遮断構造として機能する。
デバイス600はまた、較正マーカ612A、612Bを含み得る。較正マーカ612A、612Bは、ユーザの口内の様々な特徴の位置の決定を補助するように構成される。較正マーカ612A、612Bの両方は、デバイス600から既知の距離だけ離れて延在し、較正マーカ612A、612Bは、互いに既知の距離だけ離れて位置決めされる。そのため、反射音響信号を分析するとき、較正マーカ612A、612Bからの反射に関連する音響信号の任意の部分は、較正マーカ612A、612Bの位置が、互いに対して及び湾曲内壁608に対しての両方で知られているため、他の距離及び位置を決定する際の基準として機能し得る。いくつかの実装形態において、デバイス600は、単一の較正マーカのみを含み得る。他の実装形態において、デバイス600は、3つ以上の較正マーカを含み得る。
図11は、スマートフォン402を保持するためのデバイス900を示している。デバイス900は、デバイス600と類似であり、ハンドヘルドデバイス部902A及び口部902Bを含む。ハンドヘルドデバイス部902Aは、スマートフォン402を確実に受け入れる一方、口部902Bは、ユーザ210の口に挿入される。しかしながら、この実装形態において、ハンドヘルドデバイス部902Aは約90°の角度になっているため、スマートフォン402は、ユーザ210の顔の前で垂直に保持される。そのため、デバイス900は、スマートフォン402がスマートフォンのカメラを使用してユーザ210の頭の外部の第1の画像データを生成し得る位置にスマートフォン402を保持する。しかしながら、スピーカ及びマイクロフォンを備えたスマートフォン402の端部は、ハンドヘルドデバイス部902Aによって画定されるスロットに挿入されるため、スマートフォン402のスピーカ及びマイクロフォンは、この位置でユーザ210の口の内部と流体連通する。そのため、スマートフォン402のカメラが第1の画像データを得るのと同時に、マイクロフォンが反射音響信号を受信している間、スピーカは、音響信号をユーザ210の口に向け得る。
図12A~図13Bは、スマートフォン402の一端に全て配置されたカメラ404、スピーカ412A、及びマイクロフォン412Bを有する、スマートフォン402を保持するためのデバイス1000を示す。デバイス1000は、デバイス900に類似する。しかしながら、デバイス1000は、ユーザの口220の内部がカメラ404の視野内にあり、スピーカ412A及びマイクロフォン412Bの両方がユーザの口220の内部と流体連通するような向きで、スマートフォン402を保持するように構成される。
デバイス1000は、スマートフォン402を受け入れるように構成された開口部を画定する前壁1004A及び後壁1004Bを含む。デバイス1000はまた、ユーザの口220と接触している湾曲外壁1008A及び湾曲内壁1008Bを含む。図示の実装形態において、ユーザの歯224が湾曲外壁1008Aと湾曲内壁1008Bとの間に位置決めされるように、ユーザはデバイス1000を噛む。
前壁1004Aと後壁1004Bとの間に画定されるデバイス1000の開口部は、ユーザの口220の内部に開いている。そのため、図12A及び図12Bに示すように、スピーカ412Aは、ユーザの口220の内部に伝播する音響信号(音波416Aによって表される)を放出し得る。同時に、スマートフォン402のカメラ404は、ユーザの口220の内部の画像として再生可能な画像データを生成し得る。さらに、スマートフォン402は、前壁1004Aと後壁1004Bとの間に画定された開口部に延在するため、スマートフォン402のディスプレイの第1の部分406Aは、ユーザの口220の内部に隣接して位置決めされる。スマートフォン402のディスプレイの第1の部分406Aは、ユーザの口220の内部を照明し、より高品質の画像データを生成するために使用され得る。音響信号(音波416Aによって表される)がスピーカ412Aによって放出されたとき、音響信号は、ユーザの口220内の様々な構造又は特徴から反射する。反射音響信号(音波416Bによって表される)は、スマートフォン402に伝播して戻り、そこでマイクロフォン412Bによって受信される。
本明細書の開示は一般にスマートフォンに言及しているが、任意のデバイス又はデバイスの組み合わせが方法500のステップを実行し、一般にユーザから画像及び音響データを捕捉するために使用され得る。例えば、ユーザ210は、画像データ及び音響データを得て、構造プロファイルを生成するために、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、その他のデバイス、又はそれらの任意の組み合わせを使用し得る。いくつかの実装形態において、ハンドヘルドデバイスは、画像データ及び音響データを得るために使用されるが、外部デバイス(ユーザデバイス170など)は、データの処理の一部又は全てを実行し、構造プロファイルを生成するために使用される。
いくつかの実装形態において、スマートフォン402を保持するために使用されるデバイスは、画像データを生成するためにカメラ404の制御された使用を可能にするように構成される。例えば、デバイスが、カメラ404を選択的に遮断及び遮断解除するように構成されたシャッタを含み得ることにより、カメラ404は、所望する場合でのみ画像データを生成する。デバイスはまた、画像データにおける位置基準を提供するために、カメラ404と共に使用する較正マーカを含み得る。較正マーカは、音響センサと共に使用される同じ較正マーカ612A、612Bであり得る、又は追加又は代替の較正マーカであり得る。いくつかの実装形態において、スロットを画定するデバイスの部分は、カメラ404を含むスマートフォン402の全て又はほぼ全てがスロットに配置されるように、スマートフォン402の長さを伸ばしてよい。シャッタは、スロットを画定するデバイスの部分に組み込まれ得、それによってカメラ404を遮断及び遮断解除し得る。
ハンドヘルドデバイス(スマートフォン402など)及びハンドヘルドデバイスを受け入れるためのデバイス(デバイス600、デバイス900、又はデバイス600など)は、ユーザの口、喉、首、頭などの身体的特徴を分析するために使用されるシステムを形成し得る。ユーザが自分の口に部分的に挿入し得るデバイスを使用することによって、ユーザは、より正確な自分の身体的特徴の測定値、分析などを得ることができる。ユーザの口に部分的に挿入されたデバイスにハンドヘルドデバイスを挿入することによって、ユーザは、ハンドヘルドデバイスの一貫した位置決めを達成し、不正確な測定値及び分析を生み出し得るいかなる不適切な位置決めも回避し得る。
以下の請求項1~80のいずれかの1つ以上からの、1つ以上の要素若しくは態様若しくはステップ、又はそれらの任意の部分(単数又は複数)を、本開示の1つ以上の追加の実装形態及び/又は請求項を形成するために、他の請求項1~80のいずれか又はそれらの組み合わせの1つ以上からの、1つ以上の要素若しくは態様若しくはステップ、又はそれらの任意の部分(単数又は複数)と組み合わせることができる。
本開示は、1つ以上の特定の実施形態又は実装形態を参照して記載されるが、当業者は、本開示の精神及び範囲から逸脱することなく多くの変更がなされ得ることを認識するであろう。これらの実装形態及びその明らかな変形の各々は、本開示の精神及び範囲内にあると考えられる。本開示の態様による追加の実装は、本明細書に記載された実装のいずれかからの任意の数の特徴を組み合わせてよいことも考えられる。

Claims (80)

  1. 個人の身体的特徴を分析する方法であって、
    音響センサを使用して、前記個人の口の内部の少なくとも一部で反射するように構成される音響信号を前記個人の口に向けることと、
    前記音響センサを使用して、前記個人の口の内部から、前記個人の口の構造的特質を示す反射音響信号を受信することと、
    前記反射音響信号に少なくとも部分的に基づいて、少なくとも前記個人の口の内部の構造プロファイルを生成することと、
    前記構造プロファイルの生成に応答して、アクションを実行させることと、を含む方法。
  2. 1つ以上の画像センサを使用して、前記個人の頭、前記個人の首、又は前記個人の頭と首の両方の外部の少なくとも一部の画像として再生可能な第1の画像データを生成することと、
    1つ以上の画像センサを使用して、前記個人の口の内部の少なくとも一部の画像として再生可能な第2の画像データを生成することと、をさらに含み、
    前記構造プロファイルは、前記個人の頭の少なくとも一部、前記個人の首の少なくとも一部、又は、前記個人の頭の少なくとも前記一部及び前記個人の首の少なくとも前記一部をさらに含み、さらに前記第1の画像データ、前記第2の画像データ、又は、前記第1の画像データ及び前記第2の画像データの両方に少なくとも部分的に基づく、請求項1に記載の方法。
  3. 前記1つ以上の画像センサ、及び前記音響センサは、ハンドヘルドデバイスに統合される、請求項2に記載の方法。
  4. 前記ハンドヘルドデバイスはスマートフォンである、請求項3に記載の方法。
  5. ハンドヘルドデバイスのディスプレイの少なくとも第1の部分に、前記1つ以上の画像センサによって生成された画像データに基づいて前記個人のリアルタイムビューを表示することをさらに含む、請求項1~4のいずれか一項に記載の方法。
  6. 前記ハンドヘルドデバイスの前記ディスプレイの少なくとも第2の部分を使用して、前記個人の少なくとも一部を照明することをさらに含む、請求項5に記載の方法。
  7. 前記ハンドヘルドデバイスの前記ディスプレイの前記第1の部分に、前記ハンドヘルドデバイスを所望の位置に向けて、(i)前記第1の画像データを生成すること、(ii)前記第2の画像データを生成すること、(iii)前記音響信号を前記個人の口に向けること、又は(iv)(i)~(iii)の任意の組み合わせを補助するように構成された1つ以上の拡張現実(AR)証印を表示することをさらに含む、請求項5又は請求項6に記載の方法。
  8. 前記1つ以上のAR証印は、前記ハンドヘルドデバイスが前記所望の位置に向かって移動する方向を示すように構成された少なくとも1つのマーカを含む、請求項7に記載の方法。
  9. 前記少なくとも1つのマーカは、前記ハンドヘルドデバイスを前記所望の位置に向かって移動させる方向を指す矢印である、請求項8に記載の方法。
  10. 前記1つ以上のAR証印は、前記ハンドヘルドデバイスが前記所望の位置にあるときに、前記ディスプレイの前記第1の部分上で前記個人の特徴の前記リアルタイムビューと重ね合わされるように構成された少なくとも1つの輪郭を含む、請求項7~9のいずれか一項に記載の方法。
  11. 前記少なくとも1つの輪郭が、前記個人の前記特徴の形状に対応する形状を有する、請求項10に記載の方法。
  12. 前記少なくとも1つの輪郭の前記形状が、(i)前記個人の鼻、(ii)前記個人の片目若しくは両目、(iii)前記個人の舌、(iv)前記個人の1つ以上の歯、(v)前記個人の唇、(vi)前記個人の口蓋垂、(vii)前記個人の片方若しくは両方の扁桃腺、又は(viii)(i)~(vii)の任意の組み合わせの形状に対応する、請求項11に記載の方法。
  13. 前記ハンドヘルドデバイスは、前記ハンドヘルドデバイスが前記所望の位置にあるときを示すように構成された、請求項7~12のいずれか一項に記載の方法。
  14. 前記ハンドヘルドデバイスが前記所望の位置にあることに応答して、前記ハンドヘルドデバイスは、(i)前記ハンドヘルドデバイスの前記ディスプレイ上に指標を表示する、(ii)可聴音を生成する、又は(iii)(i)及び(ii)の両方をなすように構成された、請求項13に記載の方法。
  15. 前記ハンドヘルドデバイスは、前記ハンドヘルドデバイスが前記所望の位置にあることに応答して、前記1つ以上のAR証印を変更するように構成された、請求項13又は請求項14に記載の方法。
  16. 前記ハンドヘルドデバイスが前記所望の位置にあることに応答して、前記ハンドヘルドデバイスは、(i)前記1つ以上のAR証印のうちの少なくとも1つの色を変更する、(ii)前記1つ以上のAR証印のうちの少なくとも1つの形状を変更する、(iii)前記1つ以上のAR証印のうちの少なくとも1つのサイズを変更する、又は(iv)(i)~(iii)の任意の組み合わせをなすように構成された、請求項15に記載の方法。
  17. 前記第1の画像データを生成するための前記所望の位置は、前記第2の画像データを生成し、前記音響信号を前記個人の口に向けるための前記所望の位置とは異なり、前記第2の画像データを生成するための前記所望の位置は、前記音響信号を前記個人の口に向けるための前記所望の位置とは異なる、請求項7~16のいずれか一項に記載の方法。
  18. (i)前記第1の画像データを生成するための前記1つ以上の画像センサ、を位置決めするための命令、(ii)前記第2の画像データを生成するための前記1つ以上の画像センサ、(iii)前記音響信号を前記個人の口に向けるための前記音響センサ、又は(iv)(i)~(iii)の任意の組み合わせを位置決めするための命令を少なくとも含む命令を提供することをさらに含む、請求項1~17のいずれか一項に記載の方法。
  19. 前記1つ以上の画像センサ、及び前記音響センサは、ハンドヘルドデバイスに統合され、前記ハンドヘルドデバイスは、前記命令を提供するように構成された、請求項18に記載の方法。
  20. 前記命令は、前記音響信号を前記個人の口に向けるための前記音響センサを位置決めするために前記ハンドヘルドデバイスを動かす方向を示すように構成された、請求項18又は請求項19に記載の方法。
  21. ハンドヘルドデバイスは、前記ハンドヘルドデバイスを所望の第1の位置に向けて、(i)前記第2の画像データを生成すること、(ii)前記音響信号を前記個人の口に向けること、又は(iii)(i)及び(ii)の任意の組み合わせを補助するように構成された可聴音を生成するように構成された、請求項1~20のいずれか一項に記載の方法。
  22. 前記ハンドヘルドデバイスは、前記第1の位置からの前記ハンドヘルドデバイスの距離に基づいて、前記可聴音の特性を変更するように構成された、請求項21に記載の方法。
  23. 前記可聴音の前記特性は前記可聴音の音量であり、前記ハンドヘルドデバイスは、前記ハンドヘルドデバイスが前記第1の位置に近づいて動くことに応答して、前記可聴音の音量を増加又は減少させるように構成された、請求項22に記載の方法。
  24. 前記可聴音の前記特性は前記可聴音のピッチであり、前記ハンドヘルドデバイスは、前記ハンドヘルドデバイスが前記第1の位置に近づいて動くことに応答して、前記可聴音のピッチを増加又は減少させるように構成された、請求項22又は請求項23に記載の方法。
  25. 前記可聴音は、ある繰り返し率で繰り返され、前記ハンドヘルドデバイスは、前記ハンドヘルドデバイスが前記第1の位置に近づいて動くことに応答して、前記可聴音の繰り返し率を増加又は減少させるように構成された、請求項22~24のいずれか一項に記載の方法。
  26. (i)前記第1の画像データ、(ii)前記第2の画像データ、(iii)前記反射音響信号、又は(iv)(i)~(iii)の任意の組み合わせを分析して、前記個人の身体的特徴のうちの1つ以上を識別することをさらに含む、請求項2~25のいずれか一項に記載の方法。
  27. 前記個人の前記1つ以上の身体的特徴は、前記個人の上顎に対する前記個人の下顎の位置、前記個人の下顎輪郭の形状、前記個人の下顎輪郭のサイズ、前記個人の口蓋の形状、前記個人の口蓋のサイズ、前記個人の首の形状、前記個人の首のサイズ、前記個人の口の内部の形状、前記個人の口の内部のサイズ、前記個人の口の開口の形状、前記個人の口の開口のサイズ、前記個人の舌の形状、前記個人の舌のサイズ、前記個人の頭蓋骨のサイズ、前記個人の頭蓋骨の形状、又はそれらの任意の組み合わせを含む、請求項26に記載の方法。
  28. 前記構造プロファイルは、前記個人の識別された前記1つ以上の身体的特徴に関連する情報を含む、請求項27に記載の方法。
  29. 前記音響センサは、1つ以上のスピーカ及び1つ以上のマイクロフォンを含む、請求項1~28のいずれか一項に記載の方法。
  30. 前記1つ以上のスピーカは、前記音響信号を前記個人の口の内部に向けるように構成された、請求項29に記載の方法。
  31. 前記1つ以上のマイクロフォンが、前記個人の口の内部から反射音響信号を受信するように構成された、請求項29又は請求項30に記載の方法。
  32. 前記音響信号を前記個人の口に向ける前に、前記音響センサを較正することをさらに含む、請求項1~31のいずれか一項に記載の方法。
  33. 前記音響信号は、前記個人の歯、前記個人の舌、前記個人の片方若しくは両方の扁桃腺、前記個人の口蓋垂、前記個人の喉、前記個人の口蓋、又はそれらの任意の組み合わせを含む、前記個人の口の内部の1つ以上の身体的特徴から反射するように構成された、請求項1~32のいずれか一項に記載の方法。
  34. 前記個人の口に向けられた前記音響信号は、周波数帯域に広がる複数の音波を含み、前記音響信号のパワースペクトル密度が一定であるように前記周波数帯域内の異なる周波数で概して等しい強度を有する、請求項1~33のいずれか一項に記載の方法。
  35. ある期間の間、前記音響信号を前記個人の口に連続的に向けることをさらに含む、請求項1~34のいずれか一項に記載の方法。
  36. 前記期間内の第1の時間で、前記音響信号は第1の周波数を有し、前記第1の時間後の前記期間内の第2の時間で、前記音響信号は前記第1の周波数とは異なる第2の周波数を有する、請求項35に記載の方法。
  37. 前記第2の時間後の前記期間内の第3の時間で、前記音響信号は前記第1の周波数を有する、請求項36に記載の方法。
  38. 実行されるアクションは、前記構造プロファイルに少なくとも部分的に基づいて、睡眠呼吸障害に関連する危険因子を決定することを含む、請求項1~37のいずれか一項に記載の方法。
  39. 前記危険因子は、前記個人が将来、睡眠呼吸障害を発症するパーセンテージ尤度を示す、請求項38に記載の方法。
  40. 前記危険因子は、前記個人が睡眠呼吸障害を有するパーセンテージ尤度を示す、請求項38に記載の方法。
  41. 前記アクションは、通知又は報告が前記個人又は第三者に送信又は表示されること、治療の勧告を生成すること、又はそれらの任意の組み合わせを含む、請求項38~40のいずれか一項に記載の方法。
  42. 前記治療の勧告は、下顎再位置決めデバイスを使用するための勧告、呼吸治療デバイスを使用するための勧告、又はその両方を含む、請求項41に記載の方法。
  43. 前記呼吸治療デバイスは気道陽圧デバイスである、請求項42に記載の方法。
  44. 前記治療の勧告は、医師を受診するための勧告、歯科医を受診するための勧告、睡眠研究に参加するための勧告、又はそれらの任意の組み合わせを含む、請求項41~43のいずれか一項に記載の方法。
  45. 前記第三者は、前記個人の医療提供者、前記個人の保護者、前記個人の友人、前記個人の家族、又はそれらの任意の組み合わせである、請求項41~44のいずれか一項に記載の方法。
  46. 前記個人の頭及び首の外部の少なくとも一部の画像として再生可能な第1の画像データと、前記個人の口の内部の少なくとも一部の画像として再生可能な第2の画像データと、を生成することをさらに含み、決定された前記危険因子は、前記第1の画像データ、前記第2の画像データ、又は、前記第1の画像データ及び前記第2の画像データの両方に追加で少なくとも部分的に基づく、請求項38~45のいずれか一項に記載の方法。
  47. 前記アクションは、前記反射音響信号に少なくとも部分的に基づいて、少なくとも前記個人の口の内部の三次元(3D)モデルを生成することを含む、請求項1~46のいずれか一項に記載の方法。
  48. 前記3Dモデルは、前記個人の治療を補助するカスタマイズされたデバイスを作成するためのテンプレートとして使用されるように構成された、請求項47に記載の方法。
  49. 前記カスタマイズされたデバイスは、(i)マウスガード、(ii)下顎再位置決めデバイス、(iii)呼吸治療デバイスと共に使用されるように構成されたユーザインターフェース、又は(iv)(i)~(iii)の任意の組み合わせである、請求項48に記載の方法。
  50. 前記呼吸治療デバイスは気道陽圧デバイスである、請求項49に記載の方法。
  51. 前記個人の頭及び首の外部の少なくとも一部の画像として再生可能な第1の画像データと、前記個人の口の内部の少なくとも一部の画像として再生可能な第2の画像データと、を生成することをさらに含み、前記3Dモデルは、追加で少なくとも前記個人の頭及び首の外部のものであり、前記第1の画像データ、前記第2の画像データ、又は両方に少なくとも部分的に基づく、請求項47~50のいずれか一項に記載の方法。
  52. 前記1つ以上の画像センサ、及び前記音響センサは、ハンドヘルドデバイスに統合され、前記方法は、前記ハンドヘルドデバイスとは別の外部ディスプレイ上に、前記第1の画像データ、前記第2の画像データ、又は前記第1の画像データ及び前記第2の画像データの両方に基づく前記個人のリアルタイムビューを表示することによって、前記ハンドヘルドデバイスを位置決めして、(i)前記第1の画像データを生成すること、(ii)前記第2の画像データを生成すること、(iii)前記音響信号を前記個人の口に向けること、又は(iv)(i)~(iii)の任意の組み合わせを補助することをさらに含む、請求項2~51のいずれか一項に記載の方法。
  53. 1つ以上の追加のセンサを使用して、前記個人の口の内部の特徴を示すセンサデータを生成することをさらに含む、請求項1~52のいずれか一項に記載の方法。
  54. 前記1つ以上の追加のセンサは、深度センサ、近接センサ、赤外線(IR)センサ、超広帯域無線周波数(UWBRF)センサ、周波数変調連続波(FMCW)レーダセンサ、又はそれらの任意の組み合わせを含む、請求項53に記載の方法。
  55. 個人の身体的特徴を分析するためのシステムであって、
    1つ以上のプロセッサを含む制御システムと、
    機械可読命令をそれに格納したメモリと、を備え、
    前記制御システムは前記メモリに結合され、前記メモリ内の機械可読命令が前記制御システムの前記1つ以上のプロセッサの少なくとも1つによって実行されるときに、請求項1~54のいずれか一項に記載の方法が実装される、システム。
  56. 個人の身体的特徴を分析するためのシステムであって、請求項1~54のいずれか一項に記載の方法を実装するように構成された1つ以上のプロセッサを有する制御システムを備えた、システム。
  57. コンピュータによって実行されるとき、前記コンピュータに請求項1~54のいずれか一項に記載の方法を実行させる命令を含む、コンピュータプログラム製品。
  58. 前記コンピュータプログラム製品は、非一時的なコンピュータ可読媒体である、請求項57に記載のコンピュータプログラム製品。
  59. 個人の口に隣接してハンドヘルドデバイスを位置決めするためのデバイスであって、
    前記個人の口に少なくとも部分的に挿入されるように構成された口部と、
    口部が前記個人の口に少なくとも部分的に挿入されたときに、前記ハンドヘルドデバイスの音響センサが前記個人の口の内部と流体連通するように、前記ハンドヘルドデバイスの少なくとも一部をその中に確実に受け入れるように構成されたハンドヘルドデバイス部と、を含むデバイス。
  60. 前記第1の部分は、前記個人の歯、前記個人の歯茎、前記個人の唇、又はそれらの任意の組み合わせによって把持されるように構成されたマウスピースである、請求項59に記載のデバイス。
  61. 前記ハンドヘルドデバイス部は、前記ハンドヘルドデバイスをその中に受け入れるように構成されたスロットを画定する、請求項59又は請求項60に記載のデバイス。
  62. 前記ハンドヘルドデバイス部は、前記スロットを画定する少なくとも2つの壁を含む、請求項61に記載のデバイス。
  63. 前記少なくとも2つの壁が、頂壁、底壁、前記頂壁の第1の端部及び前記底壁の第1の端部に結合された第1の側壁、並びに前記頂壁の第2の端部と前記底壁の第2の端部に結合された第2の側壁を含む、請求項62に記載のデバイス。
  64. 前記頂壁、前記底壁、前記第1の側壁、及び前記第2の側壁は、前記ハンドヘルドデバイスを受け入れるように構成された前記スロットを画定することによって前記ハンドヘルドデバイスを固定する、請求項63に記載のデバイス。
  65. 前記個人の舌を押下位置に維持するのを補助するように構成され、前記第1の部分から延在する舌圧子をさらに備えた、請求項59~64のいずれか一項に記載のデバイス。
  66. 前記ハンドヘルドデバイスの音響センサは、音響信号を生成するように構成され、前記舌が前記押下位置にあるとき、前記舌が、(i)前記音響信号が前記個人の口の内部に入るのを遮断すること、(ii)前記音響信号の反射が前記個人の口の内部から出るのを遮断することを防止する、請求項65に記載のデバイス。
  67. 前記第1の部分は、前記個人の歯、前記個人の歯茎、前記個人の唇、又はそれらの任意の組み合わせに適合するように構成された湾曲形状を有する、請求項59~66のいずれか一項に記載のデバイス。
  68. 前記第1の部分は、湾曲内壁及び湾曲外壁を含み、前記個人の歯、前記個人の歯茎、前記個人の唇、又はそれらの任意の組み合わせは、前記第1の部分が前記個人の口に挿入されたとき、前記湾曲内壁と前記湾曲外壁との間に位置決めされる、請求項67に記載のデバイス。
  69. 前記口部は、少なくとも前記湾曲外壁を通して画定された少なくとも1つのチャネルを含み、前記ハンドヘルドデバイスの前記音響センサは、前記音響センサが前記少なくとも1つのチャネルを通して前記個人の口の内部と流体連通するように、前記ハンドヘルドデバイスが前記ハンドヘルドデバイス部によって固定されるとき、前記チャネルに隣接して位置決めされる、請求項68に記載のデバイス。
  70. 前記少なくとも1つのチャネルはまた、前記湾曲内壁を通して画定される、請求項69に記載のデバイス。
  71. 前記音響センサは、音響信号を前記個人の口の内部に放出するように構成された1つ以上のスピーカ、及び、前記個人の口の内部からの反射音響信号を受信するように構成された1つ以上のマイクロフォンを含む、請求項59~70のいずれか一項に記載のデバイス。
  72. 前記第2の部分は、前記ハンドヘルドデバイスが前記第1の部分によって固定されたときに前記音響センサに隣接して位置決めされ、前記1つ以上のスピーカによって放出された前記音響信号が、前記音響信号が前記個人の口の内部から反射する前に前記1つ以上のマイクロフォンによって受信されることを防止するように構成された、遮断構造を含む、請求項71に記載のデバイス。
  73. 前記音響信号を前記個人の口の内部に向けるのを補助するように構成された1つ以上のチャネルをさらに備えた、請求項71又は請求項72に記載のデバイス。
  74. 前記第2の部分は、前記1つ以上のマイクロフォンに隣接して位置決めされ、前記1つ以上のマイクロフォンが前記反射音響信号を前記個人の口の内部から受信するのを補助するように構成された、円錐形の突起を含む、請求項71~73のいずれか一項に記載のデバイス。
  75. 前記音響センサは、前記ユーザの口の内部の三次元(3D)モデルの作成を補助するために音響データを生成するように構成された、請求項59~74のいずれか一項に記載のデバイス。
  76. 前記第1の部分から既知の距離だけ延在し、前記音響センサに対する前記個人の口の内部の特徴の位置を決定するのを補助するように構成された、較正マーカをさらに備えた、請求項75に記載のデバイス。
  77. 前記第1の部分から延在し、互いに既知の距離だけ離れて位置決めされ、前記音響センサに対する前記個人の口の内部の特徴の位置を決定するのを補助するように構成された、第1の較正マーカ及び第2の較正マーカをさらに備えた、請求項75又は請求項76に記載のデバイス。
  78. 個人の身体的特徴を分析するためのシステムであって、
    音響センサを含むハンドヘルドデバイスと、
    前記ユーザの口に挿入されるように構成されたデバイスであって、
    前記個人の口に少なくとも部分的に挿入されるように構成された口部、及び、
    前記デバイスの前記口部が前記個人の口に少なくとも部分的に挿入されたときに、前記ハンドヘルドデバイスの前記音響センサが前記個人の口の内部と流体連通するように、前記ハンドヘルドデバイスを確実に受け入れるように構成されたハンドヘルドデバイス部を備えたデバイスと、を備え、
    前記ハンドヘルドデバイスは、
    前記音響センサを使用して、前記個人の口の内部の少なくとも一部から反射するように構成された音響信号を前記個人の口に向けることと、
    前記音響センサを使用して、前記個人の口の内部から、前記個人の口の構造的特質を示す反射音響信号を受信することと、
    前記反射音響信号に少なくとも部分的に基づいて、少なくとも前記個人の口の内部の構造プロファイルを生成することと、
    前記構造プロファイルの生成に応答して、アクションを実行させることと、を含む方法を実装するように構成された、システム。
  79. 前記ハンドヘルドデバイスは、請求項2~54のいずれか一項に記載の方法を実装するようにさらに構成された、請求項78に記載のシステム。
  80. 個人の身体的特徴を分析するためのシステムであって、
    請求項1~54のいずれか一項に記載の方法を実装するように構成されたハンドヘルドデバイスと、
    請求項59~77のいずれか一項に記載のデバイスと、を備えたシステム。
JP2022566505A 2020-04-30 2021-04-30 個人の身体的特徴を分析するためのシステム及び方法 Pending JP2023525691A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063018449P 2020-04-30 2020-04-30
US63/018,449 2020-04-30
PCT/IB2021/053603 WO2021220230A1 (en) 2020-04-30 2021-04-30 Systems and methods for analyzing physical features of an individual

Publications (2)

Publication Number Publication Date
JP2023525691A true JP2023525691A (ja) 2023-06-19
JPWO2021220230A5 JPWO2021220230A5 (ja) 2023-07-27

Family

ID=76076378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022566505A Pending JP2023525691A (ja) 2020-04-30 2021-04-30 個人の身体的特徴を分析するためのシステム及び方法

Country Status (5)

Country Link
US (1) US20230172486A1 (ja)
EP (1) EP4142598A1 (ja)
JP (1) JP2023525691A (ja)
CN (1) CN115835821A (ja)
WO (1) WO2021220230A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116115198A (zh) * 2023-04-19 2023-05-16 深圳启脉科技有限公司 一种基于生理体征的低功耗鼾声自动记录方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7285093B2 (en) * 2003-10-10 2007-10-23 Imadent Ltd. systems for ultrasonic imaging of a jaw, methods of use thereof and coupling cushions suited for use in the mouth
AU2008251011B2 (en) 2007-05-11 2015-02-05 ResMed Pty Ltd Automated control for detection of flow limitation
EP3821930B1 (en) 2010-07-30 2024-04-17 ResMed Pty Ltd Methods and devices with leak detection
US20120244489A1 (en) * 2011-03-25 2012-09-27 Carnahan Robert D Ultrasonic orthodontal monitoring system and method
US8926518B2 (en) * 2011-09-02 2015-01-06 Farus, Llc Scanning dental ultrasonography probe
US10492720B2 (en) 2012-09-19 2019-12-03 Resmed Sensor Technologies Limited System and method for determining sleep stage
NZ630602A (en) 2012-09-19 2016-10-28 Resmed Sensor Technologies Ltd System and method for determining sleep stage
FR2997619B1 (fr) * 2012-11-08 2015-04-10 Light N Sonde et dispositif ultrasonore d'imagerie 3d de la machoire
EP4012718A1 (en) 2014-10-24 2022-06-15 ResMed Inc. Respiratory pressure therapy system
EP3410934B1 (en) 2016-02-02 2021-04-07 ResMed Pty Ltd Methods and apparatus for treating respiratory disorders
WO2018050913A1 (en) 2016-09-19 2018-03-22 Resmed Sensor Technologies Limited Apparatus, system, and method for detecting physiological movement from audio and multimodal signals
KR102649497B1 (ko) 2017-12-22 2024-03-20 레스메드 센서 테크놀로지스 리미티드 차량에서의 생리학적 감지를 위한 장치, 시스템, 및 방법
CN111629658B (zh) 2017-12-22 2023-09-15 瑞思迈传感器技术有限公司 用于运动感测的设备、系统和方法
US20200345267A1 (en) * 2018-01-24 2020-11-05 University Of Maryland, Baltimore System and Method for Diagnosis, Monitoring, and Treatment of Obstructive Sleep Apnea
CN113710151A (zh) 2018-11-19 2021-11-26 瑞思迈传感器技术有限公司 用于检测呼吸障碍的方法和设备

Also Published As

Publication number Publication date
WO2021220230A1 (en) 2021-11-04
CN115835821A (zh) 2023-03-21
EP4142598A1 (en) 2023-03-08
US20230172486A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
CN115836358A (zh) 用于促进用户的睡眠阶段的系统和方法
US20230099622A1 (en) Sleep status detection for apnea-hypopnea index calculation
CN116249481A (zh) 用于确定呼吸治疗期间的运动的系统和方法
US20230397880A1 (en) Systems and methods for determining untreated health-related issues
US20230172486A1 (en) Systems and methods for analyzing physical features of an individual
US20240173499A1 (en) Systems and methods for managing blood pressure conditions of a user of a respiratory therapy system
EP4264631A1 (en) Cohort sleep performance evaluation
JP2023513890A (ja) データに対する同意を求めるためのシステムおよび方法
US20240139448A1 (en) Systems and methods for analyzing fit of a user interface
US20240203602A1 (en) Systems and methods for correlating sleep scores and activity indicators
US20240108242A1 (en) Systems and methods for analysis of app use and wake-up times to determine user activity
US20240024597A1 (en) Systems and methods for pre-symptomatic disease detection
US20240207554A1 (en) Systems and methods for managing sleep-related disorders using oxygen saturation
US20240139446A1 (en) Systems and methods for determining a degree of degradation of a user interface
US20230417544A1 (en) Systems and methods for determining a length and/or a diameter of a conduit
US20240226477A1 (en) Systems and methods for modifying pressure settings of a respiratory therapy system
US20240203558A1 (en) Systems and methods for sleep evaluation and feedback
US20230380758A1 (en) Systems and methods for detecting, quantifying, and/or treating bodily fluid shift
WO2024039569A1 (en) Systems and methods for determining a risk factor for a condition
WO2024069436A1 (en) Systems and methods for analyzing sounds made by an individual during a sleep session
WO2024020106A1 (en) Systems and methods for determining sleep scores based on images
WO2024023743A1 (en) Systems for detecting a leak in a respiratory therapy system
WO2023187686A1 (en) Systems and methods for determining a positional sleep disordered breathing status
WO2023126840A1 (en) Systems and methods for monitoring the use of a respiratory therapy system by an individual with diabetes
CN116981400A (zh) 用于确定未经治疗的健康相关问题的系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416