JP2021534939A - 被験者の生理学的または生物学的状態または疾患を特定するための方法およびシステム - Google Patents

被験者の生理学的または生物学的状態または疾患を特定するための方法およびシステム Download PDF

Info

Publication number
JP2021534939A
JP2021534939A JP2021533378A JP2021533378A JP2021534939A JP 2021534939 A JP2021534939 A JP 2021534939A JP 2021533378 A JP2021533378 A JP 2021533378A JP 2021533378 A JP2021533378 A JP 2021533378A JP 2021534939 A JP2021534939 A JP 2021534939A
Authority
JP
Japan
Prior art keywords
subject
disease
data
ecg
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021533378A
Other languages
English (en)
Other versions
JPWO2020041363A5 (ja
JP7402879B2 (ja
Inventor
コナー ランドグラフ,
ディーアール. ジョン メイデンス,
サブラマニアム ヴェンカトラマン,
ディーアール. アヴィ シャピロ,
スティーブ エル. ファム,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eko Devices Inc
Original Assignee
Eko Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eko Devices Inc filed Critical Eko Devices Inc
Publication of JP2021534939A publication Critical patent/JP2021534939A/ja
Publication of JPWO2020041363A5 publication Critical patent/JPWO2020041363A5/ja
Application granted granted Critical
Publication of JP7402879B2 publication Critical patent/JP7402879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0006ECG or EEG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/029Measuring or recording blood output from the heart, e.g. minute volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • A61B5/346Analysis of electrocardiograms
    • A61B5/349Detecting specific parameters of the electrocardiograph cycle
    • A61B5/361Detecting fibrillation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Cardiology (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Acoustics & Sound (AREA)
  • Hematology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本開示は、被験者の状態または疾患を特定するための方法、デバイス、およびシステムを提供する。被験者の心臓の状態または疾患を特定するための方法は、被験者の器官からのECGデータおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、ECGデータおよびオーディオデータをワイヤレスでコンピューティングデバイスに送信する工程とを含む。訓練されたアルゴリズムは、被験者の器官の状態または疾患を特定するためのECGデータおよびオーディオデータを処理するために使用される。より具体的には、訓練されたアルゴリズムは、特定の適応症または状態に合わせてカスタマイズすることができる。被験者の心臓の状態または疾患を示す出力は、コンピューティングデバイス上に提供される。【選択図】図17

Description

関連出願
本出願は、2018年8月21日に出願された米国特許仮出願第62/720,796号と、2019年7月26日に出願された米国特許仮出願第62/879,317号との優先権を主張する。その出願の全ての内容は、参照として本明細書に援用される。
医療費が増大し続けるにつれて、費用を削減し、診断努力の有効性を改善するための解決策はますます重要になっている。他の状況では、医療診断およびモニタリング能力へのアクセスを改善することが望ましい。これらの目的は、心臓ケアにとって特に価値がある。なぜなら、心臓機能は人間の健康と福祉に不可欠であり、心血管疾患(CVD)は最も一般的な死因であり続けているからである。このような心血管疾患は、狭心症や心筋梗塞(または心臓発作)などの冠状動脈疾患(CAD)を含む。他のCVDは、脳卒中、心不全、高血圧性心疾患、リウマチ性心疾患、心筋症、心不整脈、先天性心疾患、心臓弁膜症、心臓炎、大動脈瘤、末梢動脈疾患、血栓塞栓症、および静脈血栓症を含む。
しかし、従来の心臓モニタリングおよび評価ツールは、非臨床環境にあまり適していない。トレーニングを受けていない一般ユーザーにとって、機器は、高価で使い難い。心臓モニタリング機器は、特定の配置を必要とする多数のセンサーを含む。これは、一般ユーザーにとって、使用するのに困難で時間がかかる場合がある。また、心臓モニタリング機器は、ユーザーが自分自身で使用するのが難しい。これは、通常の使用を妨げ、使用を思い止まらせている。センサーケーブルは、絡まり、引っ張られ、損傷し、それにより、ユーザーをさらに苛立たせ、機器の信頼性を低下させる。さらに、現在、利用可能な心臓モニターは、2週間または30日などの短期間の継続的なモニタリングを提供している。この時間制限は重要である。なぜなら、心臓の疾患は、数か月または数年の長期間にわたって現れることがあるからである。短い継続的なモニタリングウィンドウは、病気の寿命に役立たない。
本開示は、様々な期間、被験者(例えば、被験者の身体部分など)の状態(state)または疾患(condition)を特定(determining)するための方法およびシステムを提供する。本開示の方法およびシステムは、被験者の器官(例えば、心臓、肺、または腸)または器官系(例えば、心臓血管、肺、胃腸、または循環)の状態または疾患をモニターするために使用される。これにより、より長期間にわたって、被験者の健康または病状がモニターされることを有利に可能にする。
本開示の一態様は、被験者(subject)の心臓の状態または疾患を特定するための方法を提供する。この方法は、(a)心電図(ECG)データを測定するための心電図(ECG)センサーと、被験者の心臓からのオーディオデータを測定するためのオーディオセンサーとを含むモニタリングデバイスを使用する工程と、(b)ECGデータとオーディオデータとをワイヤレスでコンピューティングデバイスに送信する工程と、(c)被験者の心臓の状態または疾患を判断するために、ECGデータとオーディオデータとを処理するために訓練されたアルゴリズムを使用する工程と、(d)コンピューティングデバイス上の被験者の心臓の状態または疾患を示す出力を提供する工程と、を含む。
いくつかの実施形態では、モニタリングデバイスは移動可能(mobile)である。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、工程(b)において、ECGデータおよびオーディオデータは、共通のパケットで送信される。いくつかの実施形態では、被験者の心臓の状態または疾患を示す出力を提供する工程は、被験者の心臓の左心室の低駆出率(low ejection fraction)の存在または不在を決定する工程を含む。いくつかの実施形態では、ECGデータは、単一のリード(lead)ECGデータを含む。いくつかの実施形態では、ECGデータは、3つのリードECGデータを含む。いくつかの実施形態では、ECGデータは、12個のリードECGデータを含む。いくつかの実施形態では、ECGデータは、胸腔、肺、または胸腔内インピーダンス測定データを含む。
いくつかの実施形態では、工程(c)において、ECGデータおよびオーディオデータは、コンピューティングデバイスの1つまたは複数のコンピュータプロセッサによって処理される。いくつかの実施形態では、この方法は、分散コンピューティングシステムでECGデータおよびオーディオデータを処理する工程をさらに含む。いくつかの実施形態では、工程(c)において、ECGデータおよびオーディオデータは、分散コンピューティングシステムで処理される。いくつかの実施形態では、訓練されたアルゴリズムは、ニューラルネットワークである。いくつかの実施形態では、被験者の心臓の状態または疾患は、独立した被験者について少なくとも約90%の精度で判定される。いくつかの実施形態では、精度は、少なくとも約95%である。いくつかの実施形態では、被験者の心臓の状態または疾患は、独立した被験者に対して少なくとも約90%の特異度で障害のない状態または疾患であると判定される。いくつかの実施形態において、特異度は、少なくとも約95%である。いくつかの実施形態では、被験者の心臓の状態または疾患は、オーディオデータの周波数帯域内のオーディオデータの大きさおよび持続時間(duration)と相関している。いくつかの実施形態では、出力は、心臓の有害な状態または疾患を示すアラートである。
いくつかの実施形態では、工程(a)〜(d)は、1分以下の期間で実行される。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
別の態様では、本開示は、被験者の心臓の状態または疾患を特定するための方法を提供する。この方法は、(a)ある期間にわたって被験者の心臓からのECGデータおよびオーディオデータを測定するために、ECGセンサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、(b)ECGデータおよびオーディオデータを、ユーザーインターフェースを含むコンピューティングデバイスに送信する工程と、(c)実質的にリアルタイムで、ある期間にわたって、ユーザーインターフェース上にECGデータおよびオーディオデータを提示する工程と、を含む。いくつかの実施形態では、モニタリングデバイスは移動可能である。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、ユーザーインターフェースは、ウェブベースのユーザーインターフェースを含む。いくつかの実施形態では、ウェブベースのユーザーインターフェースは、安全なウェブブラウザを含む。
いくつかの実施形態では、モニタリングデバイスは移動可能である。いくつかの実施形態では、モニタリングデバイスは、モバイルデバイスである。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、コンピューティングデバイスは、モバイルデバイスである。いくつかの実施形態では、コンピューティングデバイスは、クラウドシステムの一部である。いくつかの実施形態では、ユーザーインターフェースは、ウェブベースのユーザーインターフェースを含む。いくつかの実施形態では、ウェブベースのユーザーインターフェースは、安全なウェブブラウザを含む。
いくつかの実施形態では、この方法は、工程(b)の前に、共通のパケット構造を生成するために、ECGデータおよびオーディオデータを使用する工程をさらに含む。いくつかの実施形態では、この方法は、共通のパケット構造にローリングパケットシーケンスを挿入する工程をさらに含む。いくつかの実施形態では、(i)非シーケンシャルローリングパケットシーケンスを有するシーケンシャルデータパケットをコンピューティングデバイスで受信する工程と、(ii)コンピューティングデバイスのユーザーインターフェース上にアラートを表示する工程とをさらに含む。このアラートは、モニタリングデバイスと、コンピューティングデバイスとの間のリンクのセキュリティ侵害(compromise)を示している。
いくつかの実施形態では、ECGデータおよびオーディオデータは、無線周波数通信によって、モニタリングデバイスからコンピューティングデバイスに送信される。いくつかの実施形態では、この方法は、ECGデータおよびオーディオデータをモニタリングデバイスに局所的に保存する工程をさらに含む。いくつかの実施形態では、工程(a)〜(c)は、1分以下の期間で実行される。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
別の態様では、本開示は、被験者の心臓の状態または疾患を決定するための方法を提供する。この方法は、(a)第1の期間にわたって被験者の心臓からのECGデータおよびオーディオデータの第1のセットを測定するために、ECGセンサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、(b)ECGデータおよびオーディオデータの第1のセットをコンピューティングデバイスに送信する工程と、(c)第1の期間とは異なる第2の期間にわたって被験者の心臓からのECGデータおよびオーディオデータの第2のセットを測定するために、モニタリングデバイスを使用する工程と、(d)ECGデータおよびオーディオデータの第2のセットをコンピューティングデバイスに送信する工程と、(e)少なくとも第1の期間と第2の期間、コンピューティングデバイスに被験者の心臓の状態または疾患を示す出力を提供するために、少なくとも、ECGデータおよびオーディオデータの第1のセッと、ECGデータおよびオーディオデータの第2のセットとを処理する工程と、を含む。
いくつかの実施形態では、この方法は、1つまたは複数の追加の期間にわたって、被験者の心臓からのECGデータおよびオーディオデータの少なくとも第3のセットを測定するために、モニタリングデバイスを使用する工程をさらに含む。いくつかの実施形態では、モニタリングデバイスは移動可能である。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、被験者の心臓の状態または疾患は、うっ血性心不全のリスクを含む。いくつかの実施形態では、この方法は、閾値信号品質レベルが検出されたときに、ECGデータおよびオーディオデータの第1または第2のセットの測定を自動的に開始する工程をさらに含む。いくつかの実施形態では、ECGデータおよびオーディオデータの第2のセットは、コンピューティングデバイスの1つまたは複数のコンピュータプロセッサによって処理される。いくつかの実施形態では、ECGデータおよびオーディオデータの第2のセットは、分散コンピューティングシステムで処理される。いくつかの実施形態では、工程(a)〜(e)は、1分以下の期間で実行される。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
別の態様では、本開示は、被験者の状態または疾患を特定するための方法を提供する。この方法は、(a)被験者からのECGデータおよび/またはオーディオデータを測定するために、ECGセンサーおよび/またはオーディオセンサーを含む、被験者の皮膚の外部にあるモニタリングデバイスを使用する工程と、(b)ECGデータおよび/またはオーディオデータを、ユーザーインターフェースを含むコンピューティングデバイスに送信する工程と、(c)被験者の状態または疾患を特定するために、ECGデータおよび/またはオーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、(d)被験者の状態または疾患を特定するために、ECGデータ(例えば、インピーダンスデータ)および/またはオーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、(e)ユーザーインターフェース上に被験者の状態または疾患を示す出力を提供する工程と、を含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の心臓の状態または疾患を含む。いくつかの実施形態では、被験者の心臓の状態または疾患は、心臓病、心臓疾患、または他の疾患を含む。これらは、たとえば、被験者の低排出率、うっ血性心不全、心雑音(例えば、収縮期雑音(大動脈弁狭窄症、肺狭窄症、僧帽弁逆流、三尖逆流、または僧帽弁脱出)または拡張期性雑音(大動脈弁逆流、肺逆流、僧帽弁狭窄、または三尖狭窄など))、弁疾患、不整脈(徐脈、頻拍、心室性頻拍、心室細動、心室性期外収縮、上室性不整脈、上室性頻拍(SVT)、発作性上室性頻拍(PSVT)、心房細動、Wolff-Parkinson-White症候群、心房粗動、上室期外収縮または心房期外収縮(PAC)、体位性起立性頻脈(POTS))、先天性心臓病、心臓閉塞、虚血、梗塞、心膜炎、肥大、QT延長、またはそれらの組み合わせを含む。いくつかの実施形態では、被験者の心臓の状態または疾患は、被験者の弁膜症を含む。いくつかの実施形態では、被験者の心臓の状態または疾患は、被験者の不整脈(徐脈、頻拍、心室性頻拍、心室細動、心室性期外収縮、上室性不整脈、上室性頻拍(SVT)、発作性上室性頻拍(PSVT)、心房細動、Wolff-Parkinson-White症候群、心房粗動、上室期外収縮または心房期外収縮(PAC)、体位性起立性頻脈(POTS))を含む。いくつかの実施形態では、被験者の心臓の状態または疾患は、被験者の先天性心疾患を含む。いくつかの実施形態では、ECGデータは、被験者のQT延長を示すQT間隔を含む。いくつかの実施形態では、オーディオデータは、心臓のオーディオデータを含む。いくつかの実施形態では、出力は、オーディオデータおよび/またはECGデータに基づく心臓機能パラメータを含む。いくつかの実施形態では、出力は、心臓内圧または充満圧を示す機械的アクティビティ(心音)と、電気的アクティビティ(ECG)との間の結合の測定値を含む。いくつかの実施形態では、出力は、ECGのQ波と、Sl心音(電気機械的活性化時間)との間の時間間隔の測定値を含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の肺の状態または疾患を含む。いくつかの実施形態では、被験者の肺の状態または疾患は、肺炎を含む。いくつかの実施形態では、データは、肺のオーディオデータを含む。いくつかの実施形態では、ECGデータは、胸腔または内胸インピーダンスデータを含む。いくつかの実施形態では、出力は、オーディオデータおよびECGデータに基づく肺機能パラメータを含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の肺の状態または疾患を含む。いくつかの実施形態では、被験者の肺の状態または疾患は、被験者の肺疾患、肺障害、または他の疾患を含む。例えば、肺炎、複数の滲出液、肺塞栓症、気流不良、慢性閉塞性肺疾患(COPD)、喘息、またはそれらの組み合わせなどが挙げられる。いくつかの実施形態では、被験者の肺の状態または疾患は、被験者のCOPDを含む。いくつかの実施形態では、被験者の肺の状態または疾患は、被験者の喘息を含む。いくつかの実施形態では、被験者の肺の状態または疾患は、被験者の肺炎を含む。いくつかの実施形態では、オーディオデータは、肺のオーディオデータを含む。いくつかの実施形態では、ECGデータは、胸腔または内胸インピーダンスデータを含む。いくつかの実施形態では、出力は、オーディオデータおよび/またはECGデータに基づく肺機能パラメータを含む。いくつかの実施形態では、肺からのオーディオデータは、肺共振周波数を計算するために使用される。いくつかの実施形態では、音波は、肺に入力され、応答音が分析される。いくつかの実施形態では、音声はCOPD患者の肺から捕捉され、共鳴分析が行われて、COPD患者の肺に閉じ込められた空気の量が計算される。
いくつかの実施形態では、モニタリングデバイスは移動可能である。いくつかの実施形態では、モニタリングデバイスは、モバイルデバイスである。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、コンピューティングデバイスは、モバイルデバイスである。いくつかの実施形態では、被験者の状態または疾患は、被験者の腸の疾患の状態または疾患を含む。
いくつかの実施形態では、オーディオデータは腸音を含む。いくつかの実施形態では、工程(a)〜(e)は、1分以下の期間で実行される。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
いくつかの実施形態では、被験者の状態または疾患は、被験者の腸の疾患の状態または疾患を含む。いくつかの実施形態において、被験者の腸の状態または疾患は、腸疾患、腸障害、または他の疾患を含む。例えば、炎症性腸疾患(IBD)、腸閉塞、ヘルニア、消化管内の感染、またはそれらの組み合わせなどである。いくつかの実施形態では、オーディオデータは、腸のオーディオデータを含む。いくつかの実施形態では、出力は、オーディオデータおよび/またはECGデータに基づく腸機能パラメータを含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の静脈の状態または疾患を含む。いくつかの実施形態では、被験者の状態または疾患は、被験者の瘻の状態または疾患を含む。いくつかの実施形態では、被験者の瘻の状態または疾患は、被験者の糖尿病性瘻の状態または疾患を含む。いくつかの実施形態では、瘻の音は、静脈の流れの尺度(measure)を作成するように解釈される。
本開示の別の態様は、被験者の状態または疾患を特定するための方法を提供する。その方法は、被験者からのECGデータおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含む、被験者の皮膚の外部にあるモニタリングデバイスを使用する工程と、ECGデータおよびオーディオデータをユーザーインターフェースを含むコンピューティングデバイスに送信する工程と、被験者の状態または疾患を特定するために、ECGデータとオーディオデータとを処理するために訓練されたアルゴリズムを使用する工程と、ユーザーインターフェース上に被験者の状態または疾患を示す出力を提供する工程と、を含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の肺の状態または疾患を含む。いくつかの実施形態では、被験者の肺の状態または疾患は、肺炎を含む。いくつかの実施形態では、オーディオデータは、肺のオーディオデータを含む。いくつかの実施形態では、ECGデータは、胸腔または内胸インピーダンスデータを含む。いくつかの実施形態では、出力は、オーディオデータおよびECGデータに基づく肺機能パラメータを含む。いくつかの実施形態では、被験者の状態または疾患は、被験者の腸の状態または疾患を含む。
いくつかの実施形態では、モニタリングデバイスは移動可能である。いくつかの実施形態では、コンピューティングデバイスは移動可能である。いくつかの実施形態では、工程(a)〜(d)は、1分以下の期間で実行される。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。いくつかの実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
本開示の別の態様は、被験者の状態または疾患を特定するための方法を提示する。その方法は、被験者からのECGデータおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、ECGデータおよびオーディオデータをコンピューティングデバイスにワイヤレスで送信する工程と、処理されたオーディオデータを生成するためにオーディオデータからノイズを除去する工程と、被験者の状態または疾患を判断するために、ECGデータおよび処理されたオーディオデータを処理する工程と、被験者の状態や疾患を出力する工程と、を含む。
いくつかの実施形態では、被験者の状態または疾患は、被験者の器官または身体部分の状態または疾患を含む。いくつかの実施形態では、被験者の状態または疾患は、被験者の心臓、肺、または腸の状態または疾患を含む。いくつかの実施形態では、ノイズは、被験者の動きによって引き起こされる。
いくつかの実施形態では、ノイズは、モニタリングデバイスの動きによって引き起こされる。いくつかの実施形態において、器官または身体部分の状態または疾患は弁膜症である。いくつかの実施形態では、器官または身体部分の状態または疾患は不整脈である。いくつかの実施形態では、器官または身体部分の状態または疾患は心不全である。いくつかの実施形態において、器官または身体部分の状態または疾患は先天性心疾患である。
いくつかの実施形態では、器官または身体部分の状態または疾患は、慢性閉塞性肺疾患(COPD)である。いくつかの実施形態では、器官または身体部分の状態または疾患は喘息である。いくつかの実施形態では、器官または身体部分の状態または疾患は肺炎である。いくつかの実施形態では、器官または身体部分の状態または疾患は瘻孔である。いくつかの実施形態において、器官または身体部分の状態または疾患は炎症性腸疾患(IBD)である。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するための方法を提示する。その方法は、ECGデータおよびオーディオデータのセットを生成するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、被験者の状態または疾患を特定するために、ECGデータおよびオーディオデータのセットの第1のセットの特徴を処理するために訓練されたアルゴリズムを使用する工程と、第1のセットの特徴と重複する第2のセットの特徴と関連付けられている1つまたは複数の他の状態または疾患を識別するためにデータベースにアクセスする工程と、状態または疾患と、1つまたは複数の他の状態または疾患とを示す出力を提供する工程と、を含む。
いくつかの実施形態では、第1のセットの特徴は、可聴周波数データの強度、可聴周波数データのピッチ、可聴周波数データの形状、オーディオデータが最も強く検出される場所および音質からなる群から選択される1つまたは複数のメンバー(member)を含む。いくつかの実施形態では、第1のセットの特徴は、ECGデータのPRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の平均数を含む。いくつかの実施形態では、第1のセットの特徴は、ECGデータのPRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の標準偏差数を含む。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するための方法を提示する。その方法は、被験者の心臓からECGデータおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、ECGデータおよびオーディオデータをワイヤレスでコンピューティングデバイスに送信する工程と、被験者の心臓の状態または疾患を特定するために、ECGデータとオーディオデータとを処理するために訓練されたアルゴリズムを使用する工程と、モニタリングデバイス上に被験者の状態または疾患を示す出力を提供する工程と、を含む。
特定の実施形態では、この方法は、被験者の状態または疾患に基づいて治療計画を提供する工程をさらに含む。特定の実施形態では、この方法は、被験者の状態または疾患に基づいて診察計画を提供する工程をさらに含む。
いくつかの実施形態では、心臓の状態または疾患は弁膜症である。いくつかの実施形態では、心臓の状態または疾患は不整脈である。いくつかの実施形態では、心臓の状態または疾患は心不全である。いくつかの実施形態では、心臓の状態または疾患は先天性心疾患である。
本開示の別の態様は、被験者の器官の状態または疾患を特定するための方法を提示する。その方法は、被験者の心臓からECGデータおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、ECGデータおよびオーディオデータをワイヤレスでコンピューティングデバイスに送信する工程と、被験者の心臓の状態または疾患を特定するために、ECGデータとオーディオデータとを処理するために訓練されたアルゴリズムを使用する工程と、コンピューティングデバイス上に被験者の心臓の状態または疾患を示す出力を提供する工程と、を含む。
特定の実施形態では、モニタリングデバイスはモバイルデバイスである。特定の実施形態では、コンピューティングデバイスはモバイルデバイスである。特定の実施形態では、コンピューティングデバイスは、クラウドシステムの一部である。特定の実施形態では、方法の工程(b)において、ECGデータおよびオーディオデータは、共通のパケットで送信される。
特定の実施形態では、被験者の心臓の状態または疾患を示す出力を提供する工程は、被験者の心臓の左心室の低駆出率の存在または不存在を特定する工程を含む。
特定の実施形態では、ECGデータは、シングルリードECGデータを含む。特定の実施形態では、ECGデータは、3リードECGデータを含む。特定の実施形態では、ECGデータは、12リードECGデータを含む。特定の実施形態では、ECGデータは、胸腔、肺、または内胸インピーダンス測定データを含む。
特定の実施形態では、方法の工程(c)において、ECGデータおよびオーディオデータは、コンピューティングデバイスの1つまたは複数のコンピュータプロセッサによって処理される。特定の実施形態では、この方法は、分散コンピューティングシステムでECGデータおよびオーディオデータを処理する工程をさらに含む。特定の実施形態では、方法の工程(c)において、ECGデータおよびオーディオデータは、分散コンピューティングシステムで処理される。
特定の実施形態では、訓練されたアルゴリズムは、ニューラルネットワークである。特定の実施形態では、被験者の心臓の状態または疾患は、独立した被験者について少なくとも約90%の精度で特定される。特定の実施形態では、精度は少なくとも約95%である。特定の実施形態では、被験者の心臓の状態または疾患は、独立した被験者について少なくとも約90%の特異度で障害のない状態または疾患であると特定される。特定の実施形態において、特異度は少なくとも約95%である。
特定の実施形態では、被験者の心臓の状態または疾患は、オーディオデータの周波数帯域内のオーディオデータの大きさおよび持続時間と相関している。特定の実施形態では、出力は、心臓の有害な状態または疾患を示すアラートである。特定の実施形態では、工程(a)〜(d)は、1分以下の期間で実行される。
特定の実施形態では、コンピューティングデバイスは、モニタリングデバイスから約30フィート以内にある。特定の実施形態では、コンピューティングデバイスは、モニタリングデバイスから約10フィート以内にある。特定の実施形態では、コンピューティングデバイスは、モニタリングデバイスから約5フィート以内にある。
特定の実施形態において、器官または身体部分の状態または疾患は弁膜症である。特定の実施形態において、器官または身体部分の状態または疾患は不整脈である。特定の実施形態では、器官または身体部分の状態または疾患は心不全である。特定の実施形態において、器官または身体部分の状態または疾患は先天性心疾患である。特定の実施形態において、器官または身体部分の状態または疾患は慢性閉塞性肺疾患(COPD)である。特定の実施形態では、器官または身体部分の状態または疾患は喘息である。特定の実施形態において、器官または身体部分の状態または疾患は肺炎である。特定の実施形態では、器官または身体部分の状態または疾患は瘻孔である。特定の実施形態において、器官または身体部分の状態または疾患炎症性腸疾患(IBD)である。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。このモニタリングデバイスは、ある期間にわたって被験者の心臓からのECGデータおよびオーディオデータを測定するためのオーディオセンサーと心電図(ECG)センサーとを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)通信インターフェースによってモニタリングデバイスからワイヤレスで受信されたECGデータおよびオーディオデータを受信し、(ii)実質的にリアルタイムで一定期間にわたってユーザーインターフェースにECGデータとオーディオデータとを提示するために、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。そのモニタリングデバイスは、(i)第1の期間にわたって、被験者の心臓からのECGデータおよびオーディオデータの第1のセットと、(ii)第1の期間とは異なる第2の期間にわたって、被験者の心臓からのECGデータおよびオーディオデータの第2のセットとを測定するための心電図(ECG)センサーと、オーディオセンサーとを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)ECGデータおよびオーディオデータの第1のセットと、ECGデータおよびオーディオデータの第2のセットとを受信し、(ii)少なくとも第1の期間および第2の期間にわたって、ユーザーインターフェース上に被験者の心臓の状態または疾患を示す出力を提供するために、少なくとも、ECGデータおよびオーディオデータの第1のセットと、ECGデータおよびオーディオデータの第2のセットとを処理するように、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。モニタリングデバイスは、被験者からECGデータおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)通信インターフェースによってモニタリングデバイスからワイヤレスで受信されたECGデータおよびオーディオデータを受信するために、(ii)被験者の状態または疾患を特定するためにECGデータおよびオーディオデータを処理するための訓練されたアルゴリズムを使用するために、および(iii)ユーザーインターフェースに表示するための被験者の状態または疾患を示す出力を提供するために、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。このモニタリングデバイスは、被験者からのECGデータおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)被験者の心臓からのECGデータおよびオーディオデータを測定するためにモニタリングデバイスを使用するため、(ii)ECGデータとオーディオデータをコンピューティングデバイスにワイヤレスで送信するため、(iii)処理済みオーディオデータを生成するためにオーディオデータからノイズを除去するため、(iv)被験者の状態または疾患を特定するためにECGデータと処理済みオーディオデータを処理するため、(v)被験者の状態または疾患を出力するために、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の心臓の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。モニタリングデバイスは、被験者からのECGデータとオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)被験者の心臓から第1の複数の特徴を含む、ECGデータおよび/またはオーディオデータの第1のセットを生成するためのモニタリングデバイスを使用するため、(ii)ECGデータおよび/またはオーディオデータの第1のセットをワイヤレスでコンピューティングデバイスに送信するため、(iii)ECGデータおよび/またはオーディオデータの複数のセットを特定するために訓練されたアルゴリズムを使用するため(複数のECGデータおよび/またはオーディオデータのそれぞれは、第1の複数の特徴と同様の特徴を含む)、(iv)ECGデータおよび/またはオーディオデータの第1のセットと、ECGデータおよび/またはオーディオデータの複数のセットとの間の比較を含む出力を提供するために、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の状態または疾患を決定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。モニタリングデバイスは、被験者からのECGデータとオーディオデータとをそれぞれ測定するための心電図(ECG)センサーとオーディオセンサーとを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)被験者の心臓からのECGデータおよびオーディオデータを測定するためにモニタリングデバイスを使用するため、(ii)ECGデータとオーディオデータをコンピューティングデバイスにワイヤレスで送信するため、(iii)被験者の状態または疾患を特定するためにECGデータとオーディオデータとを処理するため、(iv)モニタリングデバイス上に被験者の状態または疾患を示す出力を提供するために、個別にまたはまとめてプログラムされる。
本開示の別の態様は、被験者の器官の状態または疾患を特定するためのシステムを提供する。このシステムは、モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースを含む。モニタリングデバイスは、被験者の心臓からのECGデータおよびオーディオデータを測定するための心電図(ECG)センサーおよびオーディオセンサーを含む。システムは、通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサを含む。1つまたは複数のコンピュータプロセッサは、(i)通信インターフェースによってモニタリングデバイスからワイヤレスで受信されたECGデータおよびオーディオデータを受信するため、(ii)被験者の心臓の状態または疾患を特定するために、ECGデータおよびオーディオデータを処理するための訓練されたアルゴリズムを使用するため、(iii)コンピューティングデバイス上に被験者の心臓の状態または疾患を示す出力を提供するために、個別にまたはまとめてプログラムされる。
本開示の追加の態様および利点は、以下の詳細な説明から当技術分野の当業者に容易に明らかになる。本開示の例示的な実施形態のみが示され、説明される。理解されるように、本開示は、他の異なる実施形態が可能であり、そのいくつかの詳細は、すべて、本開示から逸脱することなく、様々な明白な点で修正することができる。したがって、図面および説明は、本質的に例示的なものと見なされるべきであり、限定的なものとして見なされるべきではない。
(参照による援用)
本明細書に記載されているすべての刊行物、特許、および特許出願は、個々の刊行物、特許、または特許出願が参照により組み込まれることが具体的かつ個別的に示された場合と同程度に、参照により本明細書に組み込まれる。参照により組み込まれる刊行物および特許または特許出願が明細書に含まれる開示と矛盾する範囲で、明細書は、そのような矛盾する資料に優先するおよび/または優先することを意図している。
本発明の新規の特徴は、添付の特許請求の範囲に具体的に記載されている。本発明の特徴および利点のより良い理解は、具体的な実施形態(本発明の原理が利用される)を示す以下の詳細な説明および添付の図面(本明細書では「図」および「図」)を参照することによって得られる。
図1は、いくつかの実施形態によるモニタリングデバイスの正面斜視図を示す。
図2は、いくつかの実施形態によるモニタリングデバイスの背面斜視図を示す。
図3は、いくつかの実施形態による被験者の皮膚の外部に配置されたモニタリングデバイスの概略図を示す。
図4は、モニタリングデバイスの内部にあるセンサユニットの概略図を示す。
図5は、モニタリングデバイスの内部の概略図を示す。
図6は、心電図(ECG)およびオーディオデータを送信するための例示的なパケット構造を示す。
図7は、本明細書で提供される方法を実施するために、プログラムされ、または構成されているコンピュータ制御システムを示す。
図8は、5人の心臓専門医に対するアルゴリズム性能の概要を示す。
図9は、アルゴリズム性能対ゴールドスタンダードECGデータおよび対心雑音強度の概要を示す。
図10は、病理学によるアルゴリズム性能の概要を示す。
図11Aは、例示的なECG図からのQRS群を示す。
図11Bは、同じ心拍から記録されたECGからのQRS群のRピークである、時間0を伴う例示的な心拍の音声波形を示す。
図12は、様々な形状を有する様々な心雑音の例を示す。
図13は、聴診器を含むモニタリングデバイスを示す。
図14は、大動脈弁狭窄症を検出するための受信者動作特性曲線を示す。
図15は、大動脈領域で観察された強い信号を有する有意な大動脈弁狭窄症(AS)を有する患者からの心音図(PCG)記録を示す。
図16は、大動脈弁狭窄症(AS)を検出するためのTensorFlowベースの機械学習アルゴリズムの開発とテストとの例示的なフローチャートを示す。
図17は、いくつかの実施形態によるシステムの異なるモジュール間の相互作用の例を示す。
図18Aは、開示された実施形態による、通常の表示(図18A)を含むモバイルアプリケーションのユーザーインターフェースの例を示す。 図18Bは、開示された実施形態による、雑音が検出されたときの表示(図18B)を含むモバイルアプリケーションのユーザーインターフェースの例を示す。 図18Cは、開示された実施形態による、心房細動が検出されるときの表示(図18C)を含むモバイルアプリケーションのユーザーインターフェースの例を示す。
本発明の様々な実施形態が本明細書に示され、説明されてきたが、そのような実施形態が例としてのみ提供されることは当業者に明らかである。多数の変形、変更、および置換は、本発明から逸脱することなく、当業者に起こり得る。本明細書に記載の本発明の実施形態の様々な代替物を使用できることを理解されたい。
別段の定義がない限り、本明細書で使用されるすべての専門用語は、本開示が属する当業者に一般的に理解されているのと同じ意味を有する。本明細書および添付の特許請求の範囲で使用されるように、単数形「a」、「an」、および「the」は、文脈が明らかに他のことを指示しない限り、複数形を含む。本明細書における「または」への言及は、特に明記しない限り、「および/または」を含むことを意図している。
値が範囲として記述されている場合、そのような開示は、そのような範囲内のすべての可能なサブ範囲、ならびに、特定の数値または特定のサブ範囲が明示的に記載されているかどうかに関係なく、そのような範囲内にある特定の数値の開示を含むことが理解される。
本明細書で使用される「モニタリングデバイス」という用語は、一般的に、1つまたは複数のセンサーを含むデバイスを指す。センサーは、さまざまな検知モダリティから選択される。センサーは、時間の経過とともに、センサーデータを測定することができる。モニタリングデバイスは、同じタイプの複数のセンサー(例えば、複数の心電図(ECG)センサーまたはオーディオセンサーなど)を含む。別の方法として、モニタリングデバイスは、ECGセンサーおよびオーディオセンサーなどの異なるタイプの複数のセンサーを含む。モニタリングデバイスは、コンピューティングデバイスなどのリモートデバイスに接続するように動作可能である。コンピューティングデバイスは、モバイルデバイスである。コンピューティングデバイスは、モニタリングデバイスと分離していても、モニタリングデバイスの外部にあってもよい。モニタリングデバイスは、リモートサーバーに接続するように動作可能である。モニタリングデバイスから測定されたデータの分析は、モニタリングデバイス上で、または別個のコンピューティングデバイス(例えば、モバイルデバイスおよび/またはサーバー)上で行われる。
本明細書で使用される「状態または疾患」という用語は、一般に、被験者または被験者の一部に割り当てられる任意の分類(classification)を指す。状態または疾患は、病状または健康状態を含む。状態または疾患は、生物学的または生理学的状態または疾患を含む。状態または疾患は、特定の診断または特定(determination)を含む。状態または疾患は、未知の状態を含む。被験者の状態または疾患を特定することは、例えば、被験者の心臓、肺、腸、または他の器官など、被験者の器官の状態または疾患を特定することを含む。例えば、心臓の状態または疾患を特定することは、心臓病、心臓障害、または他の疾患(例えば、低排出率、うっ血性心不全、心雑音、弁疾患、不整脈(例えば、徐脈、頻拍、心室性頻拍、心室細動、心室性期外収縮、上室性不整脈、上室性頻拍(SVT)、発作性上室性頻拍(PSVT)、心房細動、Wolff−.Parkinson−White症候群、心房粗動、上室期外収縮または心房期外収縮(PAC)、体位性起立性頻脈拍症候群(POTS))、先天性心疾患、心臓閉塞、虚血、梗塞、心膜炎、肥大などの診断または特定を含む。心雑音の診断または特定は、収縮性雑音または拡張性雑音の診断または特定を含むことができる。さらに、収縮性心雑音は、大動脈弁狭窄症、肺動脈弁狭窄症、僧帽弁逆流、三尖弁逆流、または僧帽弁逸脱などを含む。拡張性雑音は、大動脈弁逆流、肺動脈弁逆流、僧帽弁狭窄症、または三尖弁狭窄症などを含む。例えば、肺の状態または疾患を特定することは、肺疾患、肺障害、または他の疾患(例えば、肺炎、複数の滲出液、肺塞栓症、気流不良、慢性閉塞性肺疾患(COPD)、喘息など)の診断または特定を含む。例えば、腸の状態の疾患を特定することは、腸の疾患、腸障害、または他の疾患(例えば、炎症性腸疾患(IBD)、腸閉塞、ヘルニア、消化管内の感染など)の診断または特定を含む。
本明細書で使用される「被験者(対象)」という用語は、一般に、哺乳動物(例えば、ヒト)または鳥類(例えば、鳥)などの動物、または、植物などの他の生物を指す。例えば、対象は、脊椎動物、哺乳動物、げっ歯類(例えば、マウス)、霊長類、サル、またはヒトである。動物には、家畜、スポーツ動物、およびペットが含まれるが、これらに限定されない。被験者は、健康な個人または無症候性の個人、疾患(例えば、癌)または疾患の素因を有するまたは有すると疑われる個人、および/または、治療を必要とするまたは治療が必要と疑われる個人である。被験者は、病気(disease)または疾患に関して症候性である。あるいは、被験者は、病気または疾患に関して無症候性である。被験者は患者である。
本明細書で使用される「アルゴリズム」という用語は、一般に、計算または他の問題解決操作を実行するためのプロセスまたは規則を指す。アルゴリズムは、本明細書の他の場所で説明されているように、アルゴリズムを実行するための1つまたは複数のコンピュータプロセッサまたは回路を含むコンピュータによって実装される。アルゴリズムは、訓練されたアルゴリズムである。アルゴリズムは、1つまたは複数のトレーニングセットでトレーニングされる。これは、既知の生理学的または生物学的状態または疾患を有する被験者から生成されたデータを含む。訓練されたアルゴリズムは、管理された機械学習アルゴリズムまたは管理されていない機械学習アルゴリズムなどの機械学習アルゴリズムを含む。
本明細書で使用される「リアルタイム」という用語は、約1秒、10分の1秒、100分の1秒、ミリ秒、またはそれ以下の応答時間を指す。応答時間は、約1秒より大きい。場合によっては、リアルタイムは、同時または実質的に同時の処理、検出、または特定を指すことがある。
本明細書に記載されているのは、被験者(例えば、被験者の器官など)の生理学的または生物学的状態または疾患を特定するための方法およびシステムである。そのような器官は、被験者の心臓、肺、腸、または別の器官または器官系(例えば、心臓血管、肺、胃腸または循環)である。
被験者の生理学的または生物学的状態または疾患を特定するための方法
一態様では、本開示は、被験者(例えば、被験者の心臓、肺、または腸など)の生理学的または生物学的状態または疾患を特定するための方法を提供する。被験者の心臓の生理学的または生物学的状態または疾患を特定するための方法は、被験者の器官からのECGデータおよび心音図データ(PCGデータまたはオーディオデータ)を測定するために、心電図(ECG)センサーおよび心音図(PCG)センサー(オーディオセンサ)を含むモニタリングデバイスを使用する工程含む。ECGデータおよびPCGデータ(オーディオデータ)は、コンピューティングデバイスに送信される。コンピューティングデバイスは、モニタリングデバイスから分離されている。
ECGデータおよびPCGデータ(オーディオデータ)は、訓練されたアルゴリズムを使用して処理される。訓練されたアルゴリズムは、ニューラルネットワークを含む。訓練されたアルゴリズムは、診断機能をユーザーの器官の特定の状態または疾患に相関させる。訓練されたアルゴリズムは、周波数分解分析を使用して、診断機能を特定の状態または疾患に相関させる。データは、リモートサーバー、クラウドストレージ、またはその他の接続されたデバイスなどのコンピューティングデバイスで分析される。いくつかの場合において、コンピューティングデバイスは、通信回線を介して利用可能である。コンピューティングデバイスは、異なる被験者の様々な状態または疾患、または、同じ被験者または異なる被験者の異なる器官の様々な状態または疾患に関連するECGデータおよびオーディオデータのデータベースを含む。訓練されたアルゴリズムは、記録されたECGデータおよびオーディオデータを、そのデータベースから罹患した被験者および健康な被験者の少なくとも既存のECGデータおよびオーディオデータと比較することができる。
本開示の方法は、リアルタイムまたは実質的にリアルタイムで実行される。ECGデータとオーディオデータとは、モバイルデバイスやクラウドストレージなどのリモートコンピューティングデバイスにリアルタイムでストリーミング配信される。データは、ウェブブラウザにリアルタイムでストリーミング配信されてもよい。データは、医療提供者などのリモートユーザーにアクセス可能である。データは、医療提供者にリモートでリアルタイムに表示できる。例えば、モニタリングデバイスは、モバイルデバイスなどのコンピューティングデバイスとリアルタイムで同期する。コンピューティングデバイスは、音声を使用してイヤホンを介してアルゴリズム出力を臨床医に中継する。その結果、臨床医は、アルゴリズムの結果を聞くことができる。
訓練されたアルゴリズムの出力は、被験者の器官(例えば、被験者の心臓など)からの記録されたオーディオデータまたはECGデータのグラフ、スペクトログラム、または他の表現を表示する工程を含む。出力は、そのようなオーディオデータまたはECGデータ、あるいはそれらの組み合わせを処理した結果をさらに含む。例えば、出力は、被験者の動き、デバイスの動き、または心拍のオーディオ波形の他の理由によって引き起こされるノイズを除去した後の典型的な心拍音を含む。いくつかの例では、出力は、ECGデータおよびオーディオデータ解説(interpretation)を含む統合音響心電計(ACG)レポートを含む。
訓練されたアルゴリズムの出力は、被験者および/または医療提供者によって経時的に追跡される機能障害スコアを含む。機能障害スコアは、多くの場合、器官(例えば、被験者の心臓、肺、腸、またはそれらの組み合わせなど)の状態または疾患の定量的メトリック(quantitative metric)、説明または予測を提供するために計算される。機能障害スコアは、被験者の単一または複数の器官について計算される。
訓練されたアルゴリズムの出力は、モニタリングデバイスのイヤホンを介して聞くことができるオーディオフィードバックを含む。出力は、コンピューティングデバイスまたはモニタリングデバイスに表示される。出力は、被験者および遠隔医療提供者にリアルタイムまたは実質的にリアルタイムでアクセス可能である。訓練されたアルゴリズムの出力は、ユーザーまたは医療提供者への推奨を含む。推奨事項は、特定の治療法の使用など、フォローアップテストまたは治療の推奨事項を含む。
本開示の方法は、様々な期間にわたって実行される。例えば、本開示の方法は、約6ヶ月、3ヶ月、2ヶ月、1ヶ月、3週間、2週間、1週間、6日、5日、4日、3日、1日、12時間、6時間、5時間、4時間、3時間、2時間、1時間、30分、10分、5分、1分、30秒、10秒、5秒以下の時間にわたって実行される。代わりにまたはそれに加えて、期間は、少なくとも約5秒、10秒、20秒、30秒、1分、5分、10分またはそれ以上であってもよい。あるいは、そのような期間は、最大で約6ヶ月、3ヶ月、2ヶ月、1ヶ月、3週間、2週間、1週間、6日、5日、4日、3日、1日、12時間、6時間、5時間、4時間、3時間、2時間、1時間、30分、10分、5分、1分、30秒、20秒、10秒、5秒またはそれ以下であってよい。時間は、約1秒から5分、または約5秒から2分、または約10秒から1分であってもよい。
ECGデータおよびオーディオデータの複数のセットは、異なる期間および/または時間的に分離された期間にわたって測定される。一例では、被験者の心臓からのECGデータおよびオーディオデータの第1のセットは、第1の期間にわたって測定される。次に、ECGデータおよびオーディオデータの第1のセットは、コンピューティングデバイスに送信される。次に、モニタリングデバイスを使用して、第1の期間とは異なる第2の期間にわたって、ECGデータおよびオーディオデータの第2のセットを測定する。最後に、ECGデータおよびオーディオデータの第2のセットをコンピューティングデバイスに送信する。
モニタリングデバイス
本開示は、被験者(例えば、被験者の心臓、肺、または腸など)の生理学的または生物学的状態または疾患を示すデータを収集するために使用されるモニタリングデバイスを提供する。そのようなモニタリングデバイスは、本明細書の他の場所で説明されるコンピューティングデバイスで使用するように構成される。
図1は、センサーおよび制御回路を収容するハウジング105を備えるモニタリングデバイス100を示す。モニタリングデバイス100は、第1の感覚モダリティの第1のセンサー110Aおよび110Bと、第2の感覚モダリティの第2のセンサー112とを含む。図示の例では、第1のセンサー110Aおよび110Bは、ECGセンサーの接触パッドを含み、第2のセンサー112は、オーディオデータを取得するための表面を含む。第2のセンサー112は、オーディオデータを収集するための1つまたは複数の圧電(「ピエゾ」)ユニットを含む。
モニタリングデバイスは、ボタン114などのユーザー制御をさらに含む。ボタン114は、ユーザーに送信されるモニタリング信号の強度を制御する。ボタン114は、正端および負端を含む。その結果、ボタンの正端(例えば、上部)が押されたとき、信号振幅が増加する。ボタンの負の端(例えば、下部)が押されたとき、信号振幅が減少する。信号振幅は、増幅されたオーディオ信号のボリュームを含む。オーディオ信号は、ユーザー(例えば、医療提供者など)または被験者のイヤホンにワイヤレスで送信される。
図2は、図1のモニタリングデバイスの背面を示す。モニタリングデバイス100は、ボタン120などの追加のユーザー制御を含む。ボタン120は、モニタリングデバイスによるデータの測定を停止および開始するために使用される。ボタン120は、ユーザーによって動作される。例えば、コンピューティングデバイスを介して収集を制御することによって、ボタン120を動作させることなく、測定を停止または開始することができる。センサーハウジング105の形状および設計は、被験者の状態または疾患をモニタリングする際の被験者の快適さを促進する。さらに、センサーハウジング105の形状および設計は、センサーの接触を改善し、適切なセンサー形状で、様々な患者の体型および形状に対して確実かつ容易に適合する。
モニタリングデバイスは、移動可能である。例えば、モニタリングデバイスは、ある点から別の点へ移動することができる。モニタリングデバイスは、被験者の身体に配置し、被験者の身体から取り外すことができる。例えば、モニタリングデバイスは、被験者の心臓、肺、または腸に近接した場所で、被験者の体に隣接して配置される。モニタリングデバイスは、被験者の体内に移植可能でなくてもよい。モニタリングデバイスは、ある場所から別の場所に簡単に運べるほど十分に軽い。たとえば、デバイスの重量は、約0.5ポンド、1ポンド、2ポンド、3ポンド、4ポンド、5ポンド、6ポンド、7ポンド、8ポンド、9ポンド、10ポンド、または50ポンドを超えない重量である。
モニタリングデバイスは、被験者の身体の複数の異なる場所または部分(例えば、被験者の心臓、肺、静脈または動脈におけるおよび/またはその周囲の位置など)からECGデータおよび/またはオーディオデータを収集するために使用される。これは、少なくとも異なる位置のサブセットのそれぞれで、1つまたは複数の測定を行う(例えば、ECGデータおよび/またはオーディオデータを収集する)ために、モニタリングデバイスを使用し、被験者の身体に隣接する異なる位置に(例えば、身体と接触して)モニタリングデバイスを配置することによって実行される。
モニタリングデバイスを使用して、患者の声のオーディオデータを収集し、肺または心臓の状態を評価することができる。
モニタリングデバイスを使用して、患者に音を入力し、音の反射を記録して、体組織または体液レベルの状態を示すことができる。
モニタリングデバイスは、ある場所から別の場所に容易に搬送できるように、十分なサイズにされる。モニタリングデバイスは、携帯型であってもよい。モニタリングデバイスは、手に収まるサイズのものである。例えば、モニタリングデバイスは、約0.25インチ、0.5インチ、1インチ、2インチ、3インチ、4インチ、5インチ、6インチ、7インチ、8インチ、9インチ、10インチ、11インチ、12インチ、または24インチ以下の外形寸法を含む。
図3は、被験者の皮膚の外部に配置されたモニタリングデバイスを示す。モニタリングデバイス100は、被験者140の皮膚の外側に配置される。モニタリングデバイスの位置は、特徴付けられる被験者の状態または疾患に応じて変えることができる。特徴付けられる被験者は、治療される患者などの人間である。モニタリングデバイスの位置は、被験者の心臓の近くの皮膚の外側にある。モニタリングデバイスの位置は、被験者の肺の近くであってもよい。モニタリングデバイスの位置は、被験者の腸の近くにあってもよい。モニタリングデバイスの位置は、被験者の瘻(例えば、糖尿病性瘻)の近くにあってもよい。モニタリングデバイスは、被験者の皮膚の外側の頭、胸、足、手、膝、足首、または他の身体部分の1つまたは複数の領域の近くに配置されてもよい。モニタリングデバイスは、静脈アクセスの症状を取得するために使用される。これは、病院、透析クリニック、および外来患者の設定の両方において、患者ケアの最も基本的であるが、重要なコンポーネントの1つである。モニタリングデバイスは、静脈アクセスのために瘻の流量または状態の兆候(indication)を取得するために使用される。モニタリングデバイスは、心不全患者の肺液状態の兆候を取得するために使用される。モニタリングデバイスは、心不全患者の心臓充満圧の兆候を取得するために使用される。このデバイスは、患者のQT間隔の出力に基づいて、薬を処方するか処方しないかの兆候を取得するために使用される。デバイスは、患者のQT間隔に基づいて投薬用量または投薬頻度を変更するための兆候を取得するために使用される。このデバイスは、心拍出量、収縮期の時間間隔、または肺液の状態に基づいて、心不全薬の処方、投与量、または頻度(例えば、利尿薬またはAce阻害薬など)を変更するための兆候を取得するために使用される。
第1のセンサーと第2のセンサーの両方の表面が被験者の皮膚と実質的に接触するように、モニタリングデバイスを配置することが有益である。センサーは、センサー表面の大部分が被験者の皮膚と接触するように、実質的に接触する。皮膚に向けられたモニタリングデバイスに圧力を加えて、皮膚と接触しているセンサーの表面積を増加させることが有益である。圧力は、被験者または第三者によって加えられる。ユーザーは片手で十分な圧力をかける。ただし、モニタリングデバイスに圧力をかけなくても、患者の状態や疾患を特定することができる。センサーと皮膚との間の電気的接触を改善するために、導電性ゲルを適用することが有益である。ゲルは、被験者が特に乾燥肌を持っているか、かなりの体脂肪または髪を持っている場合に有益である。
被験者上のモニタリングデバイスの位置は、被験者の皮膚の表面に対して、デバイスを回転することによって調整される。モニタリングデバイスは、ある角度130で配置される。角度130は、胸骨に対して、少なくとも約5、10、20、30、40、45、50、60、70、80、90、100、110、120、130、140、150、160、170、180、270、またはそれ以上の角度であり、または前述の値のいずれか2つで定義された範囲内の任意の角度である。
本明細書に開示されるモニタリングデバイスはまた、図13に示されるように、デバイス1300を含む。デバイス1300は、被験者の身体に隣接して配置されるように構成された共振器1301を含む。共振器1301は、ディスク形状である。共振器1301は、被験者の身体からオーディオ情報を収集するように構成される。共振器は、例えば、被験者の身体からオーディオ情報を収集するための圧電ユニットおよび回路を含む。共振器1301は、ボタン1303を含む送信ユニット1302と通信(有線または無線通信)することができる通信インターフェースを備えた回路を含む。デバイス1300は、イヤホン1304を含む。イヤホンは、オーディオデータが生成されるから、オーディオデータを聴くために使用される。イヤホンを使用して、訓練されたアルゴリズムによって生成されたオーディオフィードバックをユーザーまたは医療提供者に提供する。ユーザーがボタン1303を押すと、オーディオ情報は、被験者の身体から収集され、メモリに格納され、および/または送信ユニット1302と通信するモバイルデバイス(例えば、モバイルコンピュータ)に送信される。
センサーモダリティ
モニタリングデバイス100は、1つまたは複数のセンサーモダリティのセンサーを含む。モダリティは、被験者からのデータを測定するように動作可能である。センサーモダリティの例には、電気センサー(例えば、導電率センサー、電荷センサー、抵抗率センサーまたはインピーダンスセンサー)、オーディオセンサー、加速度計、光センサーなどが含まれる。ECGセンサーおよびオーディオセンサーは、ECGおよびオーディオデータを記録する。モニタリングデバイスは、少なくとも2つのセンサーモダリティを含む。追加的または代替的に、モニタリングデバイスは、少なくとも3つ、少なくとも4つ、少なくとも5つ、またはそれ以上のセンサーモダリティを含む。モニタリングデバイスは、各センサーモダリティの複数のセンサーを含む。例えば、モニタリングデバイスは、任意の個々のセンサーモダリティの少なくとも約1、2、3、4、5、10、20、30、40、50、100、200、300、400、500個、またはそれ以上のセンサーを含む。単一のモダリティのセンサーの数は、同じであっても、あるいは、あるモダリティのセンサーが別のモダリティのセンサーよりも多くても、少なくてもよい。
モニタリングデバイスは、少なくとも1つのECGセンサーと、少なくとも1つのオーディオセンサーとを有するハウジングを含む。少なくとも1つのECGセンサーは、少なくとも1つのオーディオセンサーと一体化される。モニタリングデバイスは、少なくとも約1、2、3、4、5個またはそれ以上のECGセンサー、および少なくとも約1、2、3、4、5個またはそれ以上のオーディオセンサーを含む。
第1のセンサーモダリティは、電気センサーである。電気センサー110は、第1の電極110Aおよび第2の電極110Bを含む。電極110Aおよび110Bは、被験者からの電気信号の測定を容易にするために、物理的に距離で分離される。第1の電極と第2の電極との間の距離は、少なくとも約1ミリメートル(mm)、2mm、5mm、10mm、20mm、50mm、100mm、200mm、500mm、またはそれ以上、または上記の値の任意の2つの値の範囲によって定義された任意の距離である。電極110Aおよび110Bは、ECGトランスデューサを含む。これは、心拍中の心筋の脱分極から生じる被験者からの電気信号を測定する。
いくつかの場合において、ECGデータおよびオーディオデータは、ある期間にわたって被験者の器官(例えば、心臓、肺、または腸)から測定される。そのような期間は、少なくとも約5秒、10秒、20秒、30秒、1分、5分、10分、30分、1時間、2時間、3時間、4時間、5時間、6時間、12時間、1日またはそれ以上である。あるいは、そのような期間は、せいぜい約6ヶ月、3ヶ月、2ヶ月、1ヶ月、3週間、2週間、1週間、6日、5日、4日、3日、1日、12時間、6時間、5時間、4時間、3時間、2時間、1時間、30分、10分、5分、1分、30秒、20秒、10秒、5秒、またはそれ以下である。時間は、約1秒から5分、約5秒から2分、約10秒から1分、約1分から10分、約10分から1時間または約1分から1時間である。
いくつかの場合において、ECGデータおよびオーディオデータは、複数の期間にわたって被験者の器官(例えば、心臓、肺、または腸)から測定される。1つまたは複数の期間は不連続である。1つまたは複数の期間は、他の期間から時間的に分離される。例えば、ECGデータおよびオーディオデータは、第1の期間にわたって測定される。ECGデータおよびオーディオデータは、介在する期間は測定されない。そして、ECGデータおよびオーディオデータは、第2の期間にわたって測定される。介在期間は、少なくとも約1分、5分、10分、1時間、5時間、10時間、1日、1週間、1ヶ月、1年、5年、10年、またはそれ以上である。介在期間は、約1分から10分、約1分から1時間、約5分から5時間、約1時間から1日、約1日から1週間、約1週間から1ヶ月または約1週間から1年の範囲であってもよい。
いくつかの場合において、多くの期間が多くの介在期間によって分離される。そのような場合、被験者のデータを含む長期的データセットが収集される。長期的データセットは、長期間にわたって被験者の状態または疾患(被験者の心臓の状態または疾患など)を追跡するために使用される。モニタリングデバイスは、被験者の状態または疾患を含む出力を経時的に追跡する。さらに、モニタリングデバイスは、被験者の診断機能を経時的に追跡する。いくつかの場合において、第1の期間のECGデータを第2の期間のECGデータと比較する。いくつかの場合において、第1の期間のオーディオデータを第2の期間のオーディオデータと比較する。いくつかの場合において、結合されたデータセットまたは結合されたデータセットに基づく機能が比較される。
本開示のデバイスは、少なくとも1、2、3、4、5、6、7、8、9、10個、またはそれ以上のECG電極を含む。代替として、またはそれに加えて、デバイスは、少なくとも1、2、3、4、5、6、7、8、9、10個、またはそれ以上のオーディオセンサーを含む。
図4は、モニタリングデバイスの内部にあるセンサユニット400の概略図を示す。第1のセンサーは、被験者からの電気データを測定するように構成された電気センサー110を含む。モニタリングデバイスは、ECGトランスデューサパッケージ412を含む。パッケージは、ECG電極110Aおよび110Bを含む。モニタリングデバイスは、ECG電極によって検出されるECG信号をデジタル化するためのアナログ−デジタル変換器(ADC)414を含む。モニタリングデバイスは、検出された信号をフィルタリングおよび調整するための信号処理回路を含む。信号処理回路は、フィルタ416を含む。ECGデータは、エンコーダ420に渡される。ECG信号処理回路は、アナログドメイン、デジタルドメイン、またはその両方で実行される。
ECGデータは、シングルリードECGデータを含む。シングルリードECGデータは、接地である1つの電極と、信号電極である別の電極とから取得される。2つのリード間の電圧差は、アナログECG信号データを含む。ECGデータは、時間の関数としての電圧として記録される。
代替として、ECGデータは、3リードECGデータを含む。3リードECGデータは、3つの電極から取得される。これは、例えば、右腕、左腕、および左脚の電極を含む。
ECGデータは、5リードECGデータを含む。5リードECGデータは、5つの電極から取得することができる。これは、例えば、右腕、左腕、左脚、右脚、および中央胸部電極を含む。ECGデータは、12リードECGデータを含む。12リードECGデータは、12個の電極を含む。これは、例えば、右腕、左腕、左脚、右脚、中央胸部(胸骨)、V2とV4との間の胸骨右第4肋間腔、胸骨端左第4肋間腔、V4左5番目の肋間腔とV6左5番目の肋間腔との間の鎖骨中央線左5番目の肋間腔、腋窩中央線左5番目の肋間腔電極を含む。いくつかの場合において、ECGデータは、胸腔、肺、および/または胸腔内インピーダンス測定データを含む。
電気データは、被験者の心臓から測定されたECGデータを含む。電気的データは、被験者の肺または胸部内から測定されたインピーダンスデータを含む。電気的データは、被験者の腸または他の器官から測定されたECGデータを含む。電気センサーは、約1マイクロボルト、10マイクロボルト、0.1ミリボルト(mV)、0.2mV、0.5mV、1mV、2mV、5mV、10mV、50mV、100mV以上の電圧感度を含む。
第2のセンサーモダリティは、オーディオセンサー112である。オーディオセンサーは、圧電センサーを含む。オーディオセンサーは、電気系のセンサーを含む。オーディオセンサーは、オーディオデータを収集するように構成される。オーディオデータは、被験者の心臓のオーディオデータを含む。オーディオデータは、被験者の肺のオーディオデータを含む。オーディオデータは、被験者の腸または他の器官のオーディオデータを含む。オーディオセンサーは、オーディオトランスデューサパッケージの一部を含む。モニタリングデバイスは、オーディオセンサーによって検出されたオーディオ信号をデジタル化するためのアナログ−デジタル変換器404を含む。モニタリングデバイスは、検出された信号をフィルタリングおよび調整するための信号処理回路を含む。信号処理回路は、フィルタ416を含む。ECGデータは、エンコーダ420に渡される。オーディオ信号処理回路は、アナログドメイン、デジタルドメイン、またはその両方で実装される。
オーディオセンサーは、約20ヘルツ(Hz)から20キロヘルツ(kHz)の周波数応答を含む。オーディオセンサーは、約20Hzから2kHzの間の低周波数範囲に調整された周波数応答を含む。オーディオセンサーは、約5Hz、10Hz、20Hz、50Hz、100Hz、200Hz、500Hz,1kHz、2kHz、5kHz、10kHz、20kHz、50kHz、100kHzまたはそれ以上の周波数に対する応答を含む。オーディオセンサーは、約5Hz、10Hz、20Hz、50Hz、100Hz、200Hz、500Hz,1kHz、2kHz、5kHz、10kHz、20kHz、50kHz、100kHzまたはそれ以下の周波数に対する応答を含む。オーディオセンサーは、約20Hzから2kHzの間、約15Hzから10kHzの間、約10Hzから10kHzの間、約10Hzから20kHzの間などの範囲に調整された応答を含む。
図5は、モニタリングデバイスの内部の概略図を示す。モニタリングデバイスは、様々なセンサーの動作を制御するために必要な電気部品を含む。例えば、モニタリングデバイスは、データ(例えば、ハードドライブまたはメモリ)を格納し、データを送信し、アナログデータをデジタルデータに変換し、モニタリングデバイスの機能に関する情報を提供し、データ収集の様々な側面を制御するためのデバイスを含む。モニタリングデバイスは、マイクロプロセッサまたはマイクロプロセッシングユニット(MPU)505を含む。マイクロプロセッサは、メモリ510に動作可能に接続される。MPUは、プログラムまたはソフトウェアで具体化される一連の機械可読命令を実行することができる。指示は、MPUに向けられ、その後、本開示の方法または方法の構成要素を実行することができる。電力は、バッテリー515によって様々な構成要素(センサー、マイクロプロセッサ、メモリなど)に供給される。バッテリーは、無線充電回路に結合される。
モニタリングデバイスは、ネットワーク530を介してコンピューティングデバイスにデータを送信する。モニタリングデバイスは、コンピューティングデバイスにデータを送信するための無線トランシーバーなどのトランシーバー520を含む。モニタリングデバイスは、インターネットに接続される。モニタリングデバイスは、セルラーデータネットワークに接続される。トランシーバーは、ブルートゥーストランシーバー、WiFi無線機などを含む。データを伝送するために、様々な無線通信プロトコルが利用される。
モニタリングデバイスは、ECGデータおよびオーディオデータをモニタリングデバイスに局所的に保存する。一例では、ECGデータおよびオーディオデータは、メモリ510(例えば、読み取り専用メモリ、ランダムアクセスメモリ、フラッシュメモリ)またはハードディスクに局所的に保存される。「ストレージ」タイプの媒体は、コンピュータ、プロセッサなどの有形メモリ、または関連モジュール(例えば、様々な半導体メモリ、テープドライブ、ディスクドライブなど)の全てまたはいずれかを含む。これらは、ソフトウェアにいつでも非一時的なストレージを提供する。
モニタリングデバイスは、様々なセンサーからのデータを処理するために必要な電気部品を含む。例えば、モニタリングデバイスは、1つまたは複数のアナログ−デジタル変換器(ADC)404および414を含む。1つまたは複数のADCは、電気データがデジタルデータストリームに変換されるように、様々なセンサーからのデータをサンプルする。モニタリングデバイスは、増幅回路および/またはバッファ回路を含む。モニタリングデバイスは、各センサーモダリティ420のデータを圧縮する1つまたは複数のコンポーネントをさらに含む。モニタリングデバイスは、各センサーモダリティ406および416のデータをフィルタリングする1つまたは複数のコンポーネントをさらに含む。
場合によっては、ECGデータとオーディオデータは、時間分解能を含む。時間分解能は、1つまたは複数のADCのサンプルレートによって決定される。例えば、1つまたは複数のADCのサンプル間の時間は、約0.01マイクロ秒、0.02マイクロ秒、0.05マイクロ秒、0.1マイクロ秒、0.2マイクロ秒、0.5マイクロ秒、1マイクロ秒、2マイクロ秒、5マイクロ秒、10マイクロ秒、20マイクロ秒、50マイクロ秒、100マイクロ秒、200マイクロ秒、500マイクロ秒、1ミリ秒(ms)、2ms、5ms、10ms以下である。各ADCは、他のADCと同じであっても異なっていてもよいそれ自身のサンプルレートを含む。あるいは、単一のサンプルレートを備えた1つのマルチチャネルADCを使用してもよい。
データ構造
図6は、ECGおよびオーディオデータを送信するためのパケット構造の例を示す。モニタリングデバイスは、ブルートゥース低エネルギープロトコル(BLE)などのワイヤレスプロトコルを介してデータを送信する。データは、パケット構造600で送信される。送信されたデータは、電力消費を低減するために、低減されたパケットサイズを含む。パケットは、複数のデータドリーム(例えば、オーディオデータ、ECGデータ、およびモニタリングデバイスの操作およびコンピューティングデバイスとのその相互作用と関連するコマンド制御データなど)を含む。
ECGデータおよびオーディオデータは、共通のパケットでモニタリングデバイスからコンピューティングデバイスに送信さる。共通パケットは、標準のスマートフォン、タブレット、または本明細書の他の場所で説明されている他のコンピューティングデバイスで受信される低帯域幅および低電力のBLE通信リンクによって、複数のタイプの医療機器および制御データを伝送する。パケット構造は、単一のBLEパケット内で、臨床使用に十分な忠実度で、オーディオデータ620、ECGデータ625、およびコマンド制御データ610を同時に伝送する。
各パケットは、BLE規格によって提供されるバイト長と、コモディティBLEチップセットおよびコンピューティングデバイスと互換性のあるパケット間隔とを含む。データ構造は、約1キロビット/秒(kbps)、5kbps、10kbps、20kbps、100kbps、1ギガビット/秒(Gbps)、5Gbps、10Gbps、20Gbps、100Gbps、1テラビット/秒(Tbps)以上の実効ビットレートを提供する。
パケットは、ヘッダーバイト605、コマンド制御バイト610、およびデータバイトを含む。データバイトは、オーディオデータバイト620およびECGデータバイト625を含む。オーディオデータバイトは、本明細書に記載のオーディオセンサーなどのオーディオセンサーからサウンドデータを送信するために使用される。ECGデータバイトは、本明細書に記載のECGセンサーなどの電気センサーから電気データを送信するために使用される。
一例では、オーディオセンサーは、オーディオ信号(例えば、心臓、肺、または腸のサウンドデータなど)をアナログ電気信号に変換する。アナログ−デジタルコンバーター(ADC)は、オーディオセンサーの出力をサンプリングし、デジタルデータストリームを生成する。ADCは、少なくとも16ビットのサンプルとともに、少なくとも約4kHzのレートでサンプリングする。16ビットのサンプルは、少なくとも64kbpsのオーディオストリームを産生する。オーディオ圧縮は、適応差分パルス符号変調(ADPCM)によって適用され、4kHzのレートで4ビットのオーディオストリームを産生する。8ミリ秒(ms)のパケット間隔で、各パケットは、32個の4ビットオーディオサンプルを有するオーディオ(音声信号)を含む。しかし、パケット間隔は、少なくとも約1マイクロ秒、2マイクロ秒、5マイクロ秒、10マイクロ秒、20マイクロ秒、50マイクロ秒、100マイクロ秒、200マイクロ秒、500マイクロ秒、1ミリ秒、2ミリ秒、5ミリ秒、10ミリ秒、20ミリ秒、50ミリ秒、100ミリ秒、またはそれ以上の期間を含む。
別の例では、ADCは、少なくとも約500kHz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、100kHz以上のレートでサンプリングする。ADCは、少なくとも2ビット、4ビット、8ビット、l6ビット、32ビット、64ビット、l28ビット、256ビット以上のサンプルを取得する。オーディオ圧縮は、約2、3、4、5、6、7、8、9、10、15、20、25、30、35、40、45、50、60、70、80、90、100、150、200、1000個またはそれ以上のファクターによるオーディオストリームを含む。
ADPCM圧縮プロセス中のアーチファクトと歪みを低減するために、ADPCMエンコーダの前にデジタルフィルタをADCの出力に適用することができる。一例では、フィルタは、設定された周波数を超える高周波成分を減衰させるためのローパスフィルタを含む。ローパスフィルタの周波数は、少なくとも約20Hz、50Hz、100Hz、500Hz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、15kHz、20kHzまたはそれ以上を含む。一例では、フィルタは、設定周波数以下の低周波数成分を減衰させるためのハイパスフィルタを含む。ハイパスフィルタの周波数は、少なくとも約20Hz、50Hz、100Hz、500Hz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、15kHz、20kHzまたはそれ以上を含む。他の例では、フィルタは、バンドパスフィルタ、フーリエフィルタ、または他のフィルタを含む。周波数範囲の制限は、ADPCMエンコーダからの圧縮ノイズとアーチファクトを低減するために、医療診断の目的に役立つ。
ECG信号は、アナログ−デジタルコンバーター(ADC)によってサンプリングされる。ECG信号は、オーディオ信号と同じADCまたは別のADCによってサンプリングされてもよい。オーディオADCおよびECG ADCは、実質的に同様の特性を含む。あるいは、ECG ADCのサンプリング特性を電気データに適合させることもできる。一例では、ADCは、少なくとも約500Hz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、100kHzまたはそれ以上の速度でサンプリングする。ADCは、少なくとも約2ビット、4ビット、8ビット、l6ビット、32ビット、64ビット、l28ビット、256ビットまたはそれ以上のサンプルを取得する。しかし、パケット間隔は、少なくとも約1マイクロ秒、2マイクロ秒、5マイクロ秒、10マイクロ秒、20マイクロ秒、50マイクロ秒、100マイクロ秒、200マイクロ秒、500マイクロ秒、1ミリ秒(ms)、2ms、5ms、10ms、20ms、50ms、100ms、500ms、1秒またはそれ以上の期間を含む。
ECGデータは圧縮される。例えば、圧縮は、適応差分パルス符号変調(ADPCM)または別のデータ圧縮方法によって適用される。データ圧縮は、少なくとも約2、3、4、5、6、7、8、9、10、15、20、25、30、35、40、45、50、60、70、80、90、100、150、200、1000またはそれ以上のファクター(factor)によるECGデータストリームを含む。ECGデータはフィルタリングされる。一例では、フィルタは、設定された周波数を超える高周波成分を減衰させるためのローパスフィルタを含む。ローパスフィルタの周波数は、少なくとも約20Hz、50Hz、100Hz、500Hz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、15kHz、20kHzまたはそれ以上を含む。一例では、フィルタは、設定された周波数より低い周波数成分を減衰させるためのハイパスフィルタを含む。ハイパスフィルタの周波数は、少なくとも約20Hz、50Hz、100Hz、500Hz、1kHz、2kHz、3kHz、4kHz、5kHz、6kHz、7kHz、8kHz、9kHz、10kHz、1 kHz、20kHzまたはそれ以上を含む。他の例では、フィルタは、バンドパスフィルタ、フーリエフィルタ、または他のフィルタを含む。
コマンド制御データ(あるいは、コマンドおよび制御データ)は、コマンドデータおよび/または制御データを含む。コマンド制御データは、ヘッダービットで実装される。一例では、ヘッダービットは、同じまたは類似のビットサイズを有する異なるパケットの異なるコマンド制御データを含む。複数のタイプのコマンド制御データのどれが関連するパケットビット位置内で伝送されるかということを示すために、1つまたは複数のヘッダービットを利用する。例えば、ヘッダービットは、音量レベル、バッテリーレベル、リンク完全性データ、タイムスタンプ、シーケンス番号などを含む。
アプリケーションによっては、少なくとも一部またはすべてのコマンド制御データは、パケット毎のヘッダーで送信される。たとえば、ボリューム情報は、センサーデータのサンプルレートの断片(fraction)で送信される。1つまたは複数のヘッダービットに格納されたコマンド制御データの一部は、少なくとも約2、3、4、5、6、7、8、9、10、15、20、25、30、35、40、45、50、60、70、80、90、100、150、200、1000またはそれ以上のファクターのセンサーデータよりも低いレートで送信される。
所与のコマンド制御データのピースがサンプルデータよりも低いレートで送信される例では、単一のヘッダービットを使用して、複数のタイプのデータを伝送することができる。たとえば、タイプAのヘッダーデータのピースは、ヘッダービット1の1つおきのパケットで送信される。タイプBの2番目のヘッダーデータのピースは、残りのパケットのヘッダービット1で送信される。この方法により、必要なヘッダービットの数を大幅に減らすことができる。複数のヘッダービットを利用して、特定のパケットビット位置内で、より多くのコマンド制御データコンテンツタイプを伝送することができる。
コンピューティングデバイスは、コンピューティングデバイスのユーザーインターフェースにアラートを表示する。アラートは、モニタリングデバイスとコンピューティングデバイスとの間のリンクのセキュリティ侵害を示している。リンクの整合性を検証することは、医療アプリケーションで有益である。データ送信の品質の問題が生じると、ユーザーに迅速かつ確実に警告することがデバイスにとって望ましい。次に、ユーザーは、機器の問題を修正し、異常な結果がモニターされる患者よりむしろ機器のエラーに起因することを保証する。
ローリングパケットシーケンスを共通のパケット構造に挿入する。ローリングパケット構造は、リンク検証メカニズムを含む。ローリングパケット構造は、パケット構造のヘッダービットに配置される。ヘッダー内の所定のビットは、ローリングパケットシーケンスインジケーターに配置される。モニタリングデバイスのプロセッサは、連続するパケットを構築して、ローリングマルチビットパケットシーケンス値を介して値を増加させる。コンピューティングデバイスは、連続するパケットが順次増加するパケットシーケンス値で受信されることを認証するために、パケットシーケンス値をデコードすることができる。
コンピューティングデバイスは、非シーケンシャルローリングパケットシーケンスを有するシーケンシャルデータパケットを受信する。この場合、モニタリングデバイスは、リンクが不正アクセスされていると判断する。モニタリングデバイスは、モニタリングデバイス上の表示を使用する被験者または医療専門家などのユーザーに警告する。モニタリングデバイス上の表示は、被験者または別のユーザーに警告するための光、音、振動、または他のアプローチを含む。追加的または代替的に、モニタリングデバイスは、リモートコンピューティングデバイスとの通信を介して、不正アクセスされたリンクを示す。場合によっては、モニタリングデバイスは、リモートコンピューティングデバイスにアラートを送信して、リモートユーザーに警告する。
データは、実質的にリアルタイムで、コンピューティングデバイスのユーザーインターフェース上に提示される。パケット構造は、データストリームの品質およびデータストリーム間の同期を保証するためにコンピューティングデバイスに制御データを定期的に送信するために、追加のヘッダービット615を含む。ランタイムヘッダービットは、シーケンス番号および/またはタイムスタンプを含む。ランタイムヘッダービットには、データ圧縮を初期化または再初期化するためのリセットビットを含む。ランタイムヘッダービットは、バッテリー充電、フィルタリング状態、音量レベル、および/または温度を含むデバイスステータス情報を含む。場合によっては、ランタイムヘッダービットは、コマンド制御データの一部を含む。ランタイムヘッダービットは、ランタイムプロトコルを含む。ランタイムヘッダービットは、パケットからパケットに変化する。ランタイムヘッダービットは、測定時間に基づいて異なる。例えば、ランタイムヘッダービットは、測定、モニタリングデバイス、バッテリーレベルなどのステータスの更新を提供するために変更される。例えば、ランタイムヘッダーデータは、データストリームのサイズを削減するために、サンプルデータよりも低いレートで送信される。
訓練されたアルゴリズム
本開示の方法およびシステムは、1つまたは複数のアルゴリズムによって実行される。アルゴリズムは、モニタリングデバイス、コンピューティングデバイス、または接続されたサーバーの処理ユニットによる実行時に、ソフトウェアによって実行される。アルゴリズムは、被験者の器官(例えば、心臓、肺、または腸など)の状態または疾患を示す出力を提供するために、ECGおよび/またはオーディオデータを分析する。アルゴリズムは、例えば、被験者の心臓の生理学的または生物学的状態または疾患を特定するために、ECGデータおよびオーディオデータを処理して使用される。
一例では、データは、本明細書の他の場所で説明されているコンピューティングデバイスの1つまたは複数のコンピュータプロセッサによって処理される。データは、ECGデータおよびオーディオデータを含む。アルゴリズムは、モニタリングデバイスのプロセッサによる実行時に実行される。追加的または代替的に、接続されたサーバーのプロセッサによる実行時にアルゴリズムを実行する。
アルゴリズムは、訓練されたアルゴリズムである。アルゴリズムは、管理された学習方法またはガイド付き学習方法によってトレーニングされる。例えば、訓練されたアルゴリズムは、サポートベクターマシン、意思決定の樹状図、確率的勾配降下法、線形判別分析法などを含む。あるいは、アルゴリズムは、管理されていない学習方法によって訓練される。例えば、アルゴリズムは、クラスタリング方法、分解方法などを含む。一例では、学習方法は、半教師つき学習であってもよい。学習アルゴリズムの例には、サポートベクターマシン(SVM)、線形回帰、ロジスティック回帰、単純ベイズ、線形判別分析、意思決定の樹状図、k最近傍アルゴリズム、ランダムフォレスト、ニューラルネットワーク(または多層パーセプトロン)が含まれる。
アルゴリズムは、例えば、状態または疾患(例えば、病気)の分類など、所与のアプリケーションに固有のトレーニングセットによってトレーニングされる。アルゴリズムは、例えば、心臓病と肺疾患では異なる。アルゴリズムは、第2の使用事例(例えば、肺炎)に適用するためのアルゴリズムをトレーニングすることとは異なるトレーニングセットを使用する第1の使用事例(例えば、不整脈)に適用するためにトレーニングされる。アルゴリズムは、既知の状態または疾患(例えば、障害)を有する被験者のトレーニングセットを使用してトレーニングされる。いくつかの例では、トレーニングセット(例えば、データのタイプおよびトレーニングセットのサイズ)は、検証において、アルゴリズムが所定の精度、感度、および/または特異度(例えば、トレーニングセットとは無関係に検証またはテストサンプルでテストした場合、少なくとも90%の精度)を有する出力を生成するように選択される。
訓練されたアルゴリズムはニューラルネットワークである。ニューラルネットワークは、教師なし学習モデルまたは教師あり学習モデルを含む。オーディオデータおよび/またはECGデータは、ニューラルネットワークに入力される。追加情報(例えば、年齢、性別、記録位置、体重、臓器タイプなど)をニューラルネットワークに入力する。ニューラルネットワークは、病状または疾患の可能性、疾患重症度スコア、肺機能障害の徴候、心不全の徴候、心房細動の徴候、異なるタイプの心雑音(例えば、僧帽弁逆流、三尖弁逆流、または他の病気や健康状態など)の徴候を出力する。場合によっては、ニューラルネットワークは、オーディオデータ、ECGデータ、またはオーディオデータとECGデータとの両方を分析するために使用される。
ニューラルネットワークはさらに、ECGデータを使用して、オーディオデータのノイズをキャンセルし、オーディオデータのクリーンな表現を作成するか、またはオーディオデータを処理する。ニューラルネットワークは、オーディオデータとECGデータのさまざまな組み合わせを作成する。たとえば、被験者の心拍に対して記録されたオーディオ信号は、被験者の動き、デバイスの動き、またはその他の理由によりノイズが多い。心拍の波形のスペクトログラムには、サウンドフィルタリング後でも周囲のノイズに起因するピークが含まれる。ECGデータを使用して、オーディオデータのサウンドフィルタリング後のノイズをさらに除去し、記録された心拍のクリーンな表現を提供する。これは、ECGによって記録されたQRS群を記録されたオーディオ信号と比較することによって、オーディオデータの平均化をトリガーするために、ECGデータを使用することによって実行される。QRS群は、典型的なECGで見られる3つのグラフィカルな偏向の組み合わせを表し、心拍信号の形状を特徴付ける。例えば、QRS群からのRピーク(図11A)は、心房収縮の終了および心室収縮の開始を表す。心拍の音声波形は、通常、「ドクンドクン」という鼓動の音を表す。「ラブ(lub)」音は、心室収縮の初期段階で発生し、房室弁を閉じることによって生成される。さらに、心室が弛緩すると、「ダブ(dub)」音が発生する。図11Bに示されるように、心拍のオーディオ波形の時間0は、QRS群のRピークに一致する。したがって、ノイズによって引き起こされる波形のスペクトログラムのピークは無視できる。
さらに、ニューラルネットワークを使用して、被験者の特定の状態または疾患をスクリーニングする。ニューラルネットワークは、被験者の状態または疾患の定量的メトリック(metric)を提供するために結合スコアを計算することができる。その定量的メトリックは、記録されたECGデータ、記録されたオーディオデータ、他のセンサー(例えば、体重計または埋め込み型センサーなど)からのデータ、ユーザー入力データ、または他のソースからのデータなどのいくつかのメトリックの組み合わせを含む。植込み型センサーは、心不全(HF)システムなどのリアルタイム血行動態データを提供できる植込み型デバイスを含む。そのシステムは、CardioMEMS、右心室(RV)センサー、肺動脈(PA)センサー、左心房圧(LAP)センサー、植込み型心臓再同期療法(CRT)デバイスの診断機能、および植込み型除細動器(ICD)デバイスを含む。組み合わされたスコアは、被験者の低い駆出率を検出するなど、被験者の状態または疾患を直接的または間接的に予測する。駆出率(EF)は、左心室が各収縮でどれくらいの血液を排出したかをパーセンテージで表した測定値である。健康な状態では、被験者の駆出率は、55%から70%の範囲にある。低駆出率または低EFは、それが55%を下回った場合の被験者の駆出率を表すために使用される用語である。ニューラルネットワークシングルリードECG波形からのデータと分析、オーディオデータのみ、ECGデータのみまたはそれらの組み合わせによって検出された3番目の心臓音(S3)の存在と強度、および電気機械的活性化時間(EMAT)の値をすべて相関させて、駆出率を決定する。ニューラルネットワークは、3つのメトリックすべてを組み合わせて、被験者の駆出率に比例または関連する、組み合わされたスコアに到達する。別の例では、組み合わされたスコアは、CardioMEMSHFシステムのような埋め込み型センサーによって測定された肺動脈圧を予測することができる。
場合によっては、オーディオ録音は、医師によって手動でラベル付けまたは注釈が付けられる。オーディオ録音は、データサイエンティストによって手動でラベル付けされ、注釈を付けられる。場合によっては、ECGデータは、医師によって手動でラベル付けまたは注釈が付けられる。ECGデータは、データサイエンティストによって手動でラベルを付けされ、注釈を付けられる。ラベル付けされたデータは、独立したトレーニング、検証、および/またはテストデータセットにグループ化される。ラベル付けされたデータは、特定の患者からのすべての記録が同じセットに含まれるようにグループ化される。ニューラルネットワークは、分類されたトレーニングデータセットを含む。ニューラルネットワークは、割り当てられた分類を有するオーディオデータおよびECGデータを含むデータのセットでトレーニングされる。分類には、機能障害スコアが含まれる。分類は、既知の診断または決定を含む。あるいは、分類は、特異値分解、主成分分析などの分解方法によって割り当てられる。
訓練されたアルゴリズムは、複数の入力変数を受け入れ、複数の入力変数に基づいて1つまたは複数の出力値を生成するように構成される。複数の入力変数は、ECGデータおよび/またはオーディオデータを含む。複数の入力変数はまた、被験者の臨床健康データを含む。1つまたは複数の出力値は、被験者の状態または疾患(例えば、心臓、肺、腸、または被験者の他の器官または器官系の状態または疾患)を含む。さらに、いくつかの例では、訓練されたアルゴリズムは、状態または疾患の特定の特性により多くの重み付けを与える。例えば、心雑音を検出するために、訓練されたアルゴリズムは、S1、S2、および疑わしい心雑音を含む特定された音を分析することができる。訓練されたアルゴリズムは、EMAT、左心室収縮期ねじれ(LVST)、S3強度、S4強度、SDIなどのパラメータとともにECGデータを分析する。心拍数と心拍数の変動を計算し、心房細動を検出するために、訓練されたアルゴリズムは、携帯型ECGデータと、シングルリードECG信号とを分析することができる。
訓練されたアルゴリズムは、分類子(classifier)を含む。その結果、1つまたは複数の出力値のそれぞれは、分類子による被験者の状態または疾患の分類を示す固定された数の可能な値(例えば、線形分類器、ロジスティック回帰分類器など)の1つを含む。訓練されたアルゴリズムは、バイナリ分類子を含む。その結果、1つまたは複数の出力値のそれぞれは、被験者の状態または疾患の分類を示す2つの値(例えば、{0、1}、{陽性、陰性}、または{高リスク、低リスク})の1つを含む。訓練されたアルゴリズムは、別のタイプの分類子であってもよい。その結果、1つまたは複数の出力値のそれぞれは、被験者の状態または疾患の分類を示す3つ以上の値(例えば、{0、1、2}、{陽性、陰性、または不確定}、または{高リスク、中リスク、または低リスク})の1つを含む。
出力値は、説明ラベル(descriptive labels)、数値、またはそれらの組み合わせを含む。一部の出力値は、説明ラベルを含む。そのような説明ラベルは、被験者の状態または疾患の識別または表示を提供し、例えば、陽性、陰性、高リスク、中リスク、低リスク、または不確定を含む。そのような説明ラベルは、被験者の状態または疾患に対する治療の特定を提供し、例えば、治療的介入、治療的介入の期間、および/または被験者の状態または疾患を治療するために適した治療的介入の投薬量を含む。そのような説明ラベルは、被験者に対して実行するのに適切である二次臨床検査の識別を提供し、例えば、画像検査、血液検査、コンピュータ断層撮影(CT)スキャン、磁気共鳴画像法(MRI)スキャン、超音波スキャン、胸部X線、ポジトロン放出断層撮影(PET)スキャン、PET−CTスキャン、またはそれらの任意の組み合わせを含む。別の例として、そのような説明ラベルは、被験者の状態または疾患の予後を提供する。別の例として、そのような説明ラベルは、被験者の状態または疾患の相対的な評価を提供する。一部の説明ラベルは、たとえば「陽性」を1に、「陰性」を0にマッピングすることにより、数値にマッピングされる。
出力値のいくつかは、2進値、整数値、または連続値などの数値を含む。このような2進出力値は、例えば、{0、1}、{陽性、陰性}、または{高リスク、低リスク}を含む。このような整数出力値は、たとえば、{0、1、2}を含む。そのような連続出力値は、例えば、少なくとも0で、1未満の確率値を含む。そのような連続出力値は、例えば、少なくとも0の正規化されていない確率値を含む。そのような連続出力値は、被験者の状態または疾患の予後を示す。一部の数値は、例えば、1を「陽性」に、0を「陰性」にマッピングすることにより、説明ラベルにマッピングされる。
出力値のいくつかは、1つまたは複数のカットオフ値に基づいて割り当てられる。例えば、被験者のバイナリ分類は、被験者が状態または疾患を有する少なくとも50%の確率を有する場合、「陽性」または1の出力値を割り当てる。例えば、被験者のバイナリ分類は、被験者が状態または疾患を有する50%未満の確率(probability)を有する場合、「陰性」または0の出力値を割り当てる。この場合、50%の単一のカットオフ値を使用して、2つの可能なバイナリ出力値のいずれかに被験者を分類する。単一のカットオフ値の例には、約1%、約2%、約5%、約10%、約15%、約20%、約25%、約30%、約35%、約40%、約45%、約50%、約55%、約60%、約65%、約70%、約75%、約80%、約85%、約90%、約91%、約92%、約93%、約94%、約95%、約96%、約97%、約98%、及び約99%が含まれる。
別の例として、被験者の分類は、被験者が少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約85%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、またはそれ以上の状態または疾患を有する確率を有する場合、「陽性」または1の出力値を割り当てる。被験者の分類は、被験者が約50%を超え、約55%を超え、約60%を超え、約65%を超え、約70%を超え、約75%を超え、約80%を超え、約85%を超え、約90%を超え、約91%を超え、約92%を超え、約93%を超え、約94%を超え、約95%を超え、約96%を超え、約97%を超え、約98%を超え、または約99%を超える状態または疾患を有する確率を有する場合、「陽性」または1の出力値を割り当てる。
被験者の分類は、被験者が約50%未満、約45%未満、約40%未満、約35%未満、約30%未満、約25%未満、約20%未満、約15%未満、約10%未満、約9%未満、約8%未満、約7%未満、約6%未満、約5%未満、約4%未満、約3%未満、約2%未満、または約1%未満の状態または疾患を有する確率を有する場合、「陰性」または0の出力値を割り当てる。被験者の分類は、被験者が約50%未満、約45%未満、約40%未満、約35%未満、約30%未満、約25%未満、約20%未満、約15%未満、約10%未満、約9%未満、約8%未満、約7%未満、約6%未満、約5%未満、約4%未満、約3%未満、約2%未満、または約1%未満の状態または疾患の確率を有する場合、「陰性」または0の出力値を割り当てる。
被験者の分類は、被験者が「陽性」、「陰性」、1、または0として分類されない場合、「不確定」または2の出力値を割り当てる。この場合、2つのカットオフ値のセットは、3つの可能な出力値の1つに被験者を分類するために使用される。カットオフ値のセットの例には、{1%、99%}、{2%、98%}、{5%、95%}、{10%、90%}、{15%、85%}、{20%、80%}、{25%、75%}、{30%、70%}、{35%、65%}、{40%、60%}、および{45%、55%}が含まれる。同様に、n個のカットオフ値のセットは、n+1個の可能な出力値の1つに被験者を分類するために使用される。ここで、nは任意の正の整数である。
訓練されたアルゴリズムは、複数の独立した訓練サンプルで訓練される。独立したトレーニングサンプルのそれぞれは、所与の時点で被験者から収集されたECGデータおよび/またはオーディオデータのデータセットと、被験者に対応する1つまたは複数の既知の出力値を含む。独立したトレーニングサンプルは、ECGデータおよび/またはオーディオデータのデータセットと、複数の異なる被験者から取得または導出された関連する出力値とを含む。独立したトレーニングサンプルは、ECGデータおよび/またはオーディオデータのデータセットと、同じ被験者からの複数の異なる時点で(例えば、毎週、隔週、または毎月などの定期的に)取得された関連する出力値とを含む。独立したトレーニングサンプルは、状態または疾患の存在に関連付けられる(例えば、ECGデータおよび/またはオーディオデータのデータセットと、状態または疾患を有することが知られている複数の被験者から得られたまたは導出された関連する出力値とを含むトレーニングサンプル)。独立したトレーニングサンプルは、状態または疾患の不存在に関連付けられる(例えば、ECGデータおよび/またはオーディオデータのデータセットと、複数の被験者(状態または疾患について以前に診断を受けていないことが知られている、または状態または疾患に対して陰性のテスト結果を受け取った)から取得または導出された関連する出力値とを含むトレーニングサンプル)。複数の異なる訓練されたアルゴリズムは、訓練される。その結果、複数の訓練されたアルゴリズムのそれぞれは、異なるセットの独立したトレーニングサンプル(例えば、異なる状態または疾患の有無に対応する独立したトレーニングサンプルのセット)を使用して訓練される。
訓練されたアルゴリズムは、少なくとも約5、少なくとも約10、少なくとも約15、少なくとも約20、少なくとも約25、少なくとも約30、少なくとも約35、少なくとも約40、少なくとも約45、少なくとも約50、少なくとも約100、少なくとも約150、少なくとも約200、少なくとも約250、少なくとも約300、少なくとも約350、少なくとも約400、少なくとも約450、または少なくとも約500の独立したトレーニングサンプルとともに訓練される。独立したトレーニングサンプルは、状態または疾患の存在に関連するECGデータおよび/またはオーディオデータのデータセット、および/または状態または疾患の不存在に関連するECGデータおよび/またはオーディオデータのデータセットを含む。訓練されたアルゴリズムは、状態または疾患の存在に関連付けられた約500未満、約450未満、約400未満、約350未満、約300未満、約250未満、約200未満、約150未満、約100未満、または約50未満の独立したトレーニングサンプルで訓練される。いくつかの実施形態では、ECGデータおよび/またはオーディオデータのデータセットは、訓練されたアルゴリズムを訓練するために使用されるサンプルから独立している。
訓練されたアルゴリズムは、状態または疾患の存在に関連付けられた第1の数の独立したトレーニングサンプルと、状態または疾患の不存在に関連する第2の数の独立したトレーニングサンプルととともに訓練される。状態または疾患の存在に関連する独立したトレーニングサンプルの第1の数は、状態または疾患の不存在に関連する独立したトレーニングサンプルの第2の数未満である。状態または疾患の存在に関連する独立したトレーニングサンプルの第1の数は、状態または疾患の不存在に関連する独立したトレーニングサンプルの第2の数に等しくてもよい。状態または疾患の存在に関連する独立したトレーニングサンプルの第1の数は、状態または疾患の不存在に関連する独立したトレーニングサンプルの第2の数よりも大きくてもよい。
使用するデータは、ディープ畳み込みニューラルネットワークアーキテクチャを使用してモデル化される。畳み込みニューラルネットワークは、測定時間にわたって、オーディオセグメントおよび/またはECGデータセグメントを分類する。例えば、オーディオセグメントの長さは約5秒である。例えば、オーディオセグメントは、約0.1秒から1分の範囲内である。オーディオセグメントは、1秒から10分の範囲内にある。オーディオ秒数は、約6か月、3か月、2か月、1か月、3週間、2週間、1週間、6日間、5日間、4日間、3日間、1日間、12時間、6時間、5時間、4時間、3時間、2時間、1時間、30分、10分、5分、1分、30秒、10秒、5秒、1秒、100ミリ秒以下である。代替または追加として、オーディオセグメントは、少なくとも約100ミリ秒、1秒、5秒、10秒、20秒、30秒、1分、5分、10分、またはそれ以上である。あるいは、そのような期間は、多くて、約6ヶ月、3ヶ月、2ヶ月、1ヶ月、3週間、2週間、1週間、6日、5日、4日、3日、1日、12時間、6時間、5時間、4時間、3時間、2時間、1時間、30分、10分、5分、1分、30秒、20秒、10秒、5秒またはそれ以下であってもよい。期間は、約1秒から5分、または約5秒から2分、または約10秒から1分である。
モデルは、多くの層を含む。層の数は、約5から1000の間である。モデルは、少なくとも約1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、21、22、23、24、25、26、27、28、29、30、31、32、33、34、35、36、37、38、39、40、41、42、43、44、45、46、47、48、49、50、51、52、53、54、55、56、46、47、48、49、50、51、52、53、54、55、56、57、58、59、60、61、62、63、64、65、66、67、68、69、70、71、72、73、74、75、76、77、78、79、80、81、82、83、84、85、86、87、88、89、90、91、92、93、94、95、96、97、98、99、100、1000、10000、100000、10000000、またはそれ以上の層を含む。
各層は、一次元畳み込みを含む。各層は、多次元畳み込みを含む。各層は、少なくとも約1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、21、22、23、24、25、26、27、28、29、30、31、32、33、34、35、36、37、38、39、40、41、42、43、44、 45、46、47、48、49、50、またはそれ以上の次元を有する畳み込みを含む。各層は、ストライドおよび/またはパディングを含む。ストライドおよび/またはパディングは、出力ボリュームのサイズが管理できるように調整される。場合によっては、パディングはゼロである。場合によっては、パディングはゼロ以外である。
各層は、正規化線形ユニット(ReLU)層または活性化層を含む。しかし、いくつかの場合において、双曲線正接、シグモイド、または同様の関数は、活性化関数として使用されてもよい。各層はバッチ正規化される。いくつかの場合において、各層はバッチ正規化されない。いくつかの場合において、ネットワークは、プーリング層またはダウンサンプリング層を含む。いくつかの場合において、プーリング層は、最大プーリング、平均プーリング、およびL2ノルム(norm)プーリングまたは同様のプーリングなどを含む。いくつかの場合において、ネットワークはドロップアウト層を含む。場合によっては、ニューラルネットワークは、残りのニューラルネットワークまたはResNetを含む。いくつかの場合において、ニューラルネットワークは、スキップレイヤー接続を含み、または残りの接続を含む。理論に制限されることなく、残りのニューラルネットワークは、勾配消失問題を軽減するのに役立つ。
ニューラルネットワークは、Pythonのディープラーニングフレームワークを使用して実行される。場合によっては、ニューラルネットワークはPytorch&Torch、TensorFlow、Caffe、RIP、Chainer、CNTK、DSSTNE、DYNEt、Gensim、Gluon、Keras、Mxnet、Paddle、BigDL、または同様のディープラーニングフレームワークを使用してもよい。ニューラルネットワークは、TensorFlow、グーグルクラウドマシーンラーニング、アジュールマシーンラーニング、Theano、GCT、Chainerまたは同様のものなどを使用して訓練される。
モデルは、少なくとも約1、5、10、15、20、25、30、35、40、45、50、55、60、65、70、75、80、85、90、95、100、110、120、130、140、150、160、170、180、190、200、210、220、230、240、250、260、270、280、290、300、310、320、330、340、350、360、370、380、390、400、410、420、430、440、450、460、470、480、490、500、600、700、800、900、1000、10000、100000、またはそれ以上である多くのエポックに対して訓練される。いくつかの場合において、正則化ハイパーパラメータは、変化し、検証セットの正しい予測の数に基づいて評価され、満足の性能を有するモデルを決定する。モデルパラメータは、アルゴリズムを使用して効果的な性能を達成するために繰り返される。モデルパラメータは、確率的勾配降下法アルゴリズムを使用する。モデルパラメータは、適応勾配アルゴリズム、適応モーメント推定、アダム、二乗平均平方根伝搬または同様のものなどを使用して変更される。各エポックの後、分類子の損失は、検証セットに基づいて評価される。検証損失が頭打ちになった後、ステップサイズを少なくとも2のファクターによってアニーリングする。場合によっては、ステップサイズはアニールされない。全体的な検証損失が最も少ないエポックからのモデルパラメータをモデルに選択する。
このモデルは、その後、オーディオデータのみ、ECGデータのみ、または両方の組み合わせを評価するために使用され、器官の状態または疾患(例えば、心雑音など)の有無を判断する。例えば、モデルは、上記の基準に基づいて、心雑音を検出するために使用される。このモデルは、検出された雑音のタイプを判別するためにさらに使用される。心雑音は、収縮期雑音、拡張期雑音、連続性雑音、全収縮期または汎収縮期雑音、およびプラトーまたはフラット雑音を含む。場合によっては、オーディオデータは、トレーニングに関して本明細書で説明するように、セグメントに分割される。ある期間のオーディオデータは、ネットワークによって独立して分析される。ネットワークは、各セグメントの心臓の状態または疾患の確率を出力する。次に、これらの確率は、セグメントのすべてまたは一部(fraction)にわたって平均化される。次に、平均をしきい値処理して、心雑音などの器官の状態または疾患が存在するかどうかを判断する。
オーディオデータ、ECGデータ、またはオーディオデータとECGデータとの組み合わせの特徴を使用して、被験者の心臓の状態または疾患を分類または特定する。録音されたオーディオの特徴は、可聴周波数データの強度、可聴周波数データのピッチ、可聴周波数データの形状としても知られる経時的な可聴周波数データの強度の変化、信号が最も強く検出される場所、信号が検出される心臓の可聴音サイクル中の時間、音調の質などを含む。さらに、ECG図の特徴は、PRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の平均数または標準偏差数を含む。
例えば、被験者の心臓の状態または疾患は、オーディオデータの周波数帯域内のオーディオデータの大きさおよび持続時間と相関する。心臓の状態または疾患は、特定の周波数範囲でのオーディオの大きさと持続時間に基づいている。特に、心雑音の重症度は、特定の病状と相関している特定の周波数帯域での音(audio)の大きさと持続時間と相関している。音の大きさまたは強度は、心雑音を評価する際の6ポイントのスケールを含む。例えば、心雑音がない場合、0/6として等級付けられる。心音よりも明らかに優しい雑音は、1/6に等級付けされる。心音と強度がほぼ等しい雑音は、2/6に等級付けされる。さらに、心音よりも明らかに大きい雑音は、3/6に等級付けされる。スコア4/6の場合、雑音は、簡単に聞こえ、スリルと関連付けられる。さらに、グレード6/6は非常に音量が大きく、胸から少し離しても、聴診器で聞くことができる。音の他の多くの特性を使用して、心雑音を評価する。音のピッチは、ピッチを高、中、低に分類することで、心雑音を評価するために使用される。音調の品質(例えば、吹く、耳障りな、ゴロゴロする、ブーンという音、鋭い、鈍い、または音楽的ななど)は、心雑音を評価するために使用される。
被験者の心臓の状態または疾患は、心臓のオーディオサイクル中の特定の時間における特定の可聴周波数と相関する。心臓のオーディオサイクルは、通常の心音S1とS2とを含む。SlとS2の間の期間は、収縮期と呼ばれる。サイクル中のS2と次のS1との間の期間は、拡張期と呼ばれる。余分な心音S3およびS4は、心臓のオーディオサイクル中に検出される。これは、診断などの心臓の状態または疾患と相関する。収縮期に検出された心音または信号は、収縮期の状態と相関する。拡張期に検出された心音または信号は、拡張期の状態と相関する。心音は、被験者の特定の状態または疾患と相関する心臓のオーディオサイクル中の連続音を含む。被験者の心臓の状態または疾患は、経時的なオーディオ信号の強度の変化と相関する。時間の経過に伴うオーディオ信号の強度は、さまざまな形状で示される。雑音の分類にも使用されるオーディオ信号の形状は、クレッシェンド、デクレッシェンド、クレッシェンド−デクレッシェンド、またはプラトー(フラットとして知られている)を含む。クレッシェンド信号は、時間とともに増加する。デクレッシェンド信号は、時間とともに減少する。クレッシェンド−デクレッシェンドとは、信号の強度が最初は時間とともに増加するが、特定の時間が経過すると時間とともに減少し始めることを意味する。プラトーまたはフラット信号は、時間の経過とともに安定したままである。
図12は、様々な心雑音の例を示す。パネル1210は、僧帽弁狭窄症または三尖弁狭窄症の前収縮期クレッシェンド雑音を示す。パネル1220は、僧帽弁または三尖弁逆流または心室中隔欠損症の全収縮性(汎収縮性)フラット/プラトー雑音を示す。パネル1230は、駆出性クリックで始まり、2番目の心音の前に消えていくクレッシェンド−デクレッシェンド大動脈駆出性雑音を示す。パネル1240は、大動脈の2番目の音、遅延している肺動脈弁閉鎖からこぼれる肺動脈弁狭窄症のクレッシェンド−デクレッシェンド収縮期心雑音を示す。パネル1250は、デクレッシェンド大動脈または肺拡張期雑音を示す。パネル1260は、オープニングスナップ後の僧帽弁狭窄症の長い拡張期雑音を示す。パネル1270は、3番目の心臓音の後の短い拡張期中期の流入雑音を示す。パネル1280は、動脈管開存症の連続性雑音を示す。
心臓の状態または疾患は、信号が最も大きくまたは強く検出される被験者の位置と相関する。例えば、音は、大動脈領域、肺領域、心尖部しても知られる僧帽弁領域、三尖弁領域、被験者の肋間腔の左胸骨境界または胸骨の左側に沿った左胸骨境界、または被験者の他の場所で最も強く検出される。したがって、これらの場所は、心雑音を検出するのに最適である。
さらに、オーディオデータ、ECGデータ、またはオーディオデータとECGデータとの組み合わせの特徴を使用して、被験者の他の状態または疾患を分類および評価することもできる。被験者の状態または疾患の例には、大動脈弁狭窄症、肺狭窄症、僧帽弁逆流症、三尖弁逆流症、僧帽弁逸脱症、大動脈弁逆流症、肺逆流症、僧帽弁狭窄症、三尖弁狭窄症、容積過負荷、圧力過負荷または心房ギャロップが含まれる。大動脈弁狭窄症は、心臓のオーディオサイクルにおける最初の正常な心音S1の後および2番目の正常な心音S2の前に、検出されたクレッシェンド−デクレッシェンド可聴周波数(被験者の肋間腔の大動脈領域で最も強く検出される)と相関する収縮期心雑音である。プルモニック心雑音は、被験者の肋間腔における大動脈領域で最も強く検出された心臓のオーディオサイクルの最初の正常な心音S1の後、2番目の正常な心音S2の前に検出されたクレッシェンド−デクレッシェンド可聴周波数と相関する収縮期心雑音である。僧帽弁逆流は、収縮期後期の最初の正常な音Slの後に検出されたプラトー/フラット可聴周波数(被験者の肋間腔の僧帽弁領域/心尖部で最も強く検出された)と相関する全収縮期心雑音である。三尖弁逆流は、心臓のオーディオサイクルの最初の正常な心音S1の後、2番目の正常な心音S2の前に検出されたプラトー/フラット可聴周波数(被験者の肋間腔の三尖弁領域で最も強く検出される)と相関する全収縮性雑音である。僧帽弁逸脱症は、被験者の肋間腔の僧帽弁領域/心尖部で最も強く検出される収縮期中期の非駆出性クリックに関連する収縮期心雑音である。大動脈弁逆流は、被験者の肋間腔の左胸骨境界で最も強く検出された2番目の正常な心音S2の後に検出されたデクレッシェンド可聴周波数と相関する拡張期心雑音である。肺動脈弁逆流は、胸骨の左側に沿って最も強く検出された2番目の正常な心音S2の後のデクレッシェンド可聴周波数と相関する拡張期心雑音である。僧帽弁狭窄症は、僧帽弁領域または心尖部で最も強く検出された2番目の正常な心音の後の可聴周波数と相関する拡張期心雑音である。この拡張期心雑音は、心臓のオーディオサイクル中、オープニングスナップとそれに続く拡張期中期のうなり音または心臓拡張期のゴロゴロ音と相関する。三尖弁狭窄症は、被験者の肋間腔の三尖弁領域で最も強く検出された2番目の正常な心音S2の後の可聴周波数と相関する拡張期心雑音である。
周波数は、心臓の弁の狭窄によって引き起こされる血液の乱流と相関する。周波数は、心臓の2つの心腔の間の穴によって引き起こされる血流と相関する。周波数は、狭くなった冠状動脈を通る血流と相関する。周波数は、血流の逆流と相関する。周波数は、心筋機能障害と相関する。周波数は、心筋機能を示すためにECGデータと相関する。周波数データは、うっ血性心不全診断または他の心血管状態を含む心不全との相関を含む。
ECGおよび/またはオーディオデータは、既知の病状に関連する特徴を含む。既知の病状に関連する機能は、診断機能を含む。ECGおよび/またはオーディオデータは、データから診断機能のセットを決定することによってサイズが縮小される。診断機能は、診断結果に影響を与えることが知られている要因を含む。例えば、そのような診断結果は、心拍間の時間間隔の平均または標準偏差、心臓収縮に関連するECG信号の振幅の平均または標準偏差等、QT間隔、STセグメント、PR間隔、PRセグメント、QRS複合体などの1つまたは複数の平均または標準偏差などである。あるいは、特徴のセットは、ECGおよび/またはオーディオデータのセットのスペクトル分解によって決定される。一例では、診断機能は、医療提供者などのユーザーによって割り当てられる。ECGデータは、特徴的なECG波の存在または不存在を介して心房細動と相関している。ECGデータは、心音との関係を通じて心不全と相関している。ECGデータは、波長またはECG間隔の持続時間を通じて心臓の収縮機能と相関している。ECGデータは、胸腔内インピーダンス測定を通じて肺の体液状態と相関している。
次に、被験者の心臓の生理学的または生物学的状態または疾患を示す出力は、コンピューティングデバイス上に提供される。出力は、心臓の有害な状態または疾患を示すアラートである。一例では、被験者の心臓の状態または疾患を示す出力は、被験者の心臓の左心室の低駆出率の存在または不存在を含む。被験者の心臓の状態または疾患の出力は、収縮機能の指標を含む。
被験者の状態または疾患を特定することは、被験者の心臓または肺などの被験者の器官の状態または疾患を特定することを含む。被験者の身体の様々な部分の状態または疾患は、特定される。被験者の心臓の状態または疾患を特定することは、低駆出率、うっ血性心不全、心雑音、不整脈、心臓閉塞、虚血、梗塞、心膜炎、肥大の診断または特定、肺動脈の圧力の特定または予測、または被験者の他の状態または疾患の診断または特定を含む。肺の状態または疾患を特定する工程は、肺炎、胸水、肺塞栓症、気流不良、慢性閉塞性肺疾患などの診断または特定を含む。ECGデータおよびオーディオデータは、肺の退役、パチパチ音、またはゴロゴロ音の存在を検出する。ニューラルネットワークは、例示的な肺の病気の状態および健康な状態と肺の音とを比較する。
腸の疾患の状態を特定する工程は、炎症性腸疾患、腸閉塞、ヘルニア、消化管内の感染などの診断または特定を含む。出力は、胃の運動性または腸機能の指標を提供する。
被験者の器官の状態または疾患は、独立した被験者について、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の精度で特定される。例えば、被験者の心臓の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の精度で特定される。例えば、被験者の肺の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の精度で特定される。例えば、被験者の腸の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の精度で特定される。被験者の状態または疾患は、ニューラルネットワークなどの訓練されたアルゴリズムの出力を含む。
被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の特異度で特定される。被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の感度で特定される。被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の特異度と、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の感度とで特定される。被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の陽性予測値で特定される。被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の陰性予測値で特定される。被験者の器官の状態または疾患は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の精度で特定される。被験者の器官の状態または疾患は、少なくとも約0.75、0.80、0.85、0.90、0.95、0.98、0.99、またはそれ以上の受信者動作特性(AUROC)下の領域で特定される。
被験者の器官の状態または疾患は、独立した被験者の少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の特異度で、障害のない状態または疾患であると特定される。例えば、被験者の心臓の状態または疾患は、独立した被験者の少なくとも約80%、85%、90%、95%、98%、99%またはそれ以上の特異度で、故障のない状態または疾患であると特定される。例えば、被験者の肺の状態または疾患は、独立した被験者の少なくとも約80%、85%、90%、95%、98%、99%またはそれ以上の特異度で、故障のない状態または疾患であると特定される。被験者の腸の状態または疾患は、独立した被験者の少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の特異度で、障害のない状態または疾患であると特定される。心雑音(例えば、僧帽弁逆流(MR)または三尖弁逆流など)に関連する心臓の状態または疾患は、約95%を超える感度および特異度で検出される。心房細動に関連する心臓の状態または疾患は、99%を超える感度と特異度で検出される。うっ血性心不全または心不全に関連する心臓の状態または疾患は、95%を超える感度および特異度で検出される。
訓練されたアルゴリズムは、少なくとも約5、少なくとも約10、少なくとも約15、少なくとも約20、少なくとも約25、少なくとも約30、少なくとも約35、少なくとも約40、少なくとも約45、少なくとも約50 、少なくとも約100、少なくとも約150、少なくとも約200、少なくとも約250、少なくとも約300、少なくとも約350、少なくとも約400、少なくとも約450、または少なくとも約500個の独立したトレーニングサンプル用に、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、またはそれ以上の精度で、状態または疾患を特定するように構成される。訓練されたアルゴリズムによって状態または疾患を特定(identify)する精度は、独立した試験サンプル(例えば、状態または疾患について陰性の臨床試験結果を有する被験者または状態または疾患を有することが知られている被験者)のパーセンテージとして計算される。このサンプルは、状態または疾患を有するまたは有しないとして、正しく特定されまたは分類される。
訓練されたアルゴリズムは、少なくとも約5%、少なくとも約10%、少なくとも約15%、少なくとも約20%、少なくとも約25%、少なくとも約30%、少なくとも約35%、少なくとも約40%、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、またはそれ以上の陽性予測値(PPV)を有する状態または疾患を特定するように構成される。訓練されたアルゴリズムを使用して状態または疾患を特定するPPVは、状態または疾患を真に有する被験者に対応する状態または疾患を有するとして、特定されまたは分類されたECGデータおよび/またはオーディオデータのデータセットのパーセンテージとして計算される。
訓練されたアルゴリズムは、少なくとも約5%、少なくとも約10%、少なくとも約15%、少なくとも約20%、少なくとも約25%、少なくとも約30%、少なくとも約35%、少なくとも約40%、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、またはそれ以上の陰性予測値(NPV)を有する状態または疾患を特定するように構成される。訓練されたアルゴリズムを使用して状態または疾患を特定するNPVは、状態または疾患(状態または疾患を真に有さない被験者に対応する)を有さないとして、特定されまたは分類されたECGデータおよび/またはオーディオデータのデータセットのパーセンテージとして計算される。
訓練されたアルゴリズムは、少なくとも約5%、少なくとも約10%、少なくとも約15%、少なくとも約20%、少なくとも約25%、少なくとも約25%、約30%、少なくとも約35%、少なくとも約40%、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、少なくとも約99.1%、少なくとも約99.2%、少なくとも約99.3%、少なくとも約99.4%、少なくとも約99.5%、少なくとも約99.6%、少なくとも約99.7%、少なくとも約99.8%、少なくとも約99.9%、少なくとも約99.99%、少なくとも約99.999%、またはそれ以上の臨床感度で状態または疾患を特定するように構成される。訓練されたアルゴリズムを使用して状態または疾患を特定する臨床感度は、状態または疾患を有するとして、正しく識別または分類される状態または疾患(例えば、状態または疾患を有することが知られている被験者)の存在に関連する独立した試験サンプルのパーセンテージとして計算される。
訓練されたアルゴリズムは、少なくとも約5%、少なくとも約10%、少なくとも約15%、少なくとも約20%、少なくとも約25%、少なくとも約30%、少なくとも約35%、少なくとも約40%、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、少なくとも約99%、少なくとも約99.1%、少なくとも約99.2%、少なくとも約99.3%、少なくとも約99.4%、少なくとも約99.5%、少なくとも約99.6%、少なくとも約99.7%、少なくとも約99.8%、少なくとも約99.9%、少なくとも約99.99%、少なくとも約99.999%、またはそれ以上の臨床的特異度で状態または疾患を特定するように構成される。訓練されたアルゴリズムを使用して状態または疾患を特定することの臨床的特異度は、状態または疾患を有さないとして、正しく識別または分類される状態または疾患(例えば、状態または疾患について陰性の臨床試験結果を有する被験者)の不存在に関連する独立した試験サンプルのパーセンテージとして計算される。
訓練されたアルゴリズムは、少なくとも約0.50、少なくとも約0.55、少なくとも約0.60、少なくとも約0.65、少なくとも約0.70、少なくとも約0.75、少なくとも約0.80、少なくとも約0.81、少なくとも約0.82、少なくとも約0.83、少なくとも約0.84、少なくとも約0.85、少なくとも約0.86、少なくとも約0.87、少なくとも約0.88、少なくとも約0.89、少なくとも約0.90、少なくとも約0.91、少なくとも約0.92、少なくとも約0.93、少なくとも約0.94、少なくとも約0.95、少なくとも約0.96、少なくとも約0.97、少なくとも約0.98、少なくとも約0.99、またはそれ以上の曲線下面積(AUC)で状態または疾患を特定するように構成される。AUCは、状態または疾患を有するまたは有さないとして、ECGデータおよび/またはオーディオデータのデータセットを分類する際に訓練されたアルゴリズムに関連付けられた受信者動作特性(ROC)曲線(たとえば、ROC曲線の下の領域)の積分として計算される。
訓練されたアルゴリズムは、状態または疾患を特定する性能、精度、PPV、NPV、臨床感度、臨床特異度、またはAUCのうちの1つまたは複数を改善するように調節または調整される。訓練されたアルゴリズムは、訓練されたアルゴリズムのパラメータを調整することによって調節または調整される(例えば、本明細書の他の場所で説明するように、ECGデータおよび/またはオーディオデータのデータセットを分類するために使用されるカットオフ値のセット、またはニューラルネットワークのパラメータまたは重み付け)。訓練されたアルゴリズムは、トレーニングプロセス中またはトレーニングプロセスの完了した後に継続的に調節または調整される。
訓練されたアルゴリズムが最初にトレーニングされた後、入力のサブセットは、高品質の分類を行うために含まれるべき最も影響力のある、または最も重要なものとして特定される。例えば、(例えば、ECGデータおよび/またはオーディオデータの)複数の特徴のサブセットは、状態または疾患の高品質の分類または特定を行うために含まれるべき最も影響力のあるまたは最も重要なものとして特定される。複数の特徴またはそのサブセットは、状態または疾患の高品質の分類または特定を行うことに対する特徴の影響または重要性のそれぞれを示す分類メトリックに基づいてランク付けされる。そのようなメトリックは、いくつかの場合において、入力変数(例えば、予測変数)の数を大幅に減らすために使用される。その入力変数は、訓練されたアルゴリズムを所望の性能レベルに訓練するために使用される(例えば、所望の最小精度、PPV、NPV、臨床感度、臨床特異度、AUC、またはそれらの組み合わせに基づいて)。例えば、訓練されたアルゴリズムで数十または数百の入力変数を含む複数のもので訓練されたアルゴリズムをトレーニングすることは、99%を超える分類の精度につながる。そして、約5未満、約10未満、約15未満、約20未満、約25未満、約30未満、約35未満、約40未満、約45未満、約50未満、または約100未満の選択されたサブセットのみの代わりに訓練されたアルゴリズムをトレーニングすると、複数の中でそのような最も影響力のあるまたは最も重要な入力変数は、低下するが、許容できる分類の精度(例えば、少なくとも約50%、少なくとも約55%、少なくとも約60%、少なくとも約65%、少なくとも約70%、少なくとも約75%、少なくとも約80%、少なくとも約81%、少なくとも約82%、少なくとも約83%、少なくとも約84%、少なくとも約85%、少なくとも約86%、少なくとも約87%、少なくとも約88%、少なくとも約89%、少なくとも約90%、少なくとも約91%、少なくとも約92%、少なくとも約93%、少なくとも約94%、少なくとも約95%、少なくとも約96%、少なくとも約97%、少なくとも約98%、または少なくとも約99%)である。サブセットは、複数の入力変数全体をランク付けし、最良の分類メトリックを有する入力変数の所定の数(例えば、約5未満、約10未満、約15未満、約20未満、約25未満、約30未満、約35未満、約40未満、約45未満、約50未満、または約100未満)を選択することによって選択される。
被験者の心臓の状態または疾患は、大動脈弁狭窄症(AS)などの一種の心雑音である。大動脈弁狭窄症は、聴診で雑音として検出される一般的な疾患である。ASを検出するための一般的な方法は、経胸壁心エコー検査(TTE)である。いくつかの場合において、聴診の異常を認識した医療提供者からの照会は、被験者に経胸壁心エコー検査を行うために必要になる。しかしながら、場合によっては、AS状態を医師(特に、経験の浅いプライマリケア医)が検出するのが難しい場合がある。例えば、現在のAS状態は、経験の浅いプライマリケア医によって検出されないことがよくある。本開示の方法は、少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の感度で、および/または少なくとも約80%、85%、90%、95%、98%、99%、またはそれ以上の特異度で、ASの検出を容易にする。さらに、これらの方法は、少なくとも約80%、85%、90%、95%、またはそれ以上(例えば、97.2%)の感度、および少なくとも約80%、85%、90%、95%、またはそれ以上(例えば、86.4%)の特異度で、疑わしいASを迅速に確認するのに役立つ。被験者の状態または疾患は、訓練されたアルゴリズムを使用して特定される。訓練されたアルゴリズムは、特定のアプリケーション向けにトレーニングされる。例えば、訓練されたアルゴリズムは、大動脈弁狭窄症の検出のために訓練される。その場合、それは、大動脈弁狭窄症(AS)アルゴリズムと呼ばれる。本開示の方法、デバイス、およびシステムは、プライマリケア訪問中に医療提供者によって使用される。本開示の方法は、臨床的に重要なASの自動検出を容易にする。これは、経胸壁心エコー検査(TTE)によってさらに検証される。本開示の方法、デバイス、およびシステムによって促進される心音図および心電図の検出および分析は、心臓弁膜症および構造的心臓病の検出に使用される。
訓練されたアルゴリズムは、データベースにアクセスして、医療提供者が被験者の器官の状態または疾患にアクセスまたは分類するために必要とする追加情報を提供する。データベースは、被験者の既存の特定の状態または疾患に関連する心拍のECGデータおよび/またはオーディオデータの例を含む。状態または疾患は、病気または健康状態、生物学的または生理学的疾患を含む状態または疾患、診断または特定を含む状態または疾患、または未知の状態に関連する。さらに、状態または疾患は、例えば、被験者の心臓または肺などの被験者の器官に関連する。データベースは、低駆出率、うっ血性心不全、不整脈、心臓閉塞、虚血、梗塞、心膜炎、肥大、心雑音などの診断または特定に関連する例を含む。心雑音のような疾患の場合、データベース内の例には、収縮期心雑音や拡張期心雑音などの特定のタイプの心雑音の診断または特定が含まれる。さらに、データベース内の例は、大動脈弁狭窄症、肺動脈弁狭窄症、僧帽弁逆流、三尖弁逆流または僧帽弁逸脱、大動脈弁逆流、肺動脈弁逆流、僧帽弁狭窄症、または三尖弁狭窄症などの他の状態または疾患の診断または特定を含む。データベース内の例には、それぞれの場合の被験者(例えば、患者など)の診断など、被験者の状態または疾患の特定に関する医療提供者の注釈を含む。
訓練されたアルゴリズムは、データベースを使用して、記録されたオーディオデータ、ECGデータ、またはオーディオデータとECGデータとの組み合わせに基づいて、医療提供者が被験者の状態または疾患を特定または分類することを支援する。訓練されたアルゴリズムは、本明細書に開示されたセンサーを使用して、データベースに別個にまたは一緒に、状態または疾患に関連する記録されたオーディオデータおよびECGデータを、記録されたオーディオデータおよび/またはECGデータと比較する。例えば、アルゴリズムは、データベースからのいくつかの例を特定する。その例は、本明細書に開示されるセンサーを使用して、被験者の記録されたECGデータまたはオーディオデータに、ECGデータおよび/またはオーディオデータの複数の特徴に関して最も近い。データベースから特定された特定の例は、本明細書に開示されるモニタリングデバイスによって記録されたオーディオデータと比較して、記録された可聴周波数データの同様の強度、ピッチ、または形状を有する。さらに、データベースからこれらの特定された例は、本明細書に開示されるモニタリングデバイスによって記録されたECGデータと比較して、それらのECGデータの、PRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の同様の平均数を有する。いくつかの場合において、例の数は、少なくとも1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20以上である。その他の場合、例の数は5である。例の数は、限定的なものではない。アルゴリズムは、特定のタイプの心雑音に関連付けられた記録されたECGデータおよびオーディオデータのいくつか(例えば、3、4、5、または6の例など)を検索して見つけることができる。この心雑音は、本明細書に開示されたセンサーによって記録されたECGデータおよび/またはオーディオデータに関連付けられた機能と比較して最も近い機能を含む。この特徴は、k最近傍またはn最近傍特徴と呼ばれる。ここで、kまたはnは、保存されたデータベースから識別された例の数を表す。
その後、アルゴリズムは、データベースからの最も近い例と、センサーで生成されたECGデータおよび/またはオーディオデータとの比較をコンピューティングデバイスまたはクラウドストレージに送信することができる。その結果、医療提供者は、比較にアクセスできる。比較は、リアルタイムで、または実質的にリアルタイムで、コンピューティングデバイスまたはクラウドストレージに送信される。これは、被験者に関する関連情報と、データベースからの例に対する記録されたオーディオ信号およびECG信号の類似性とを考慮に入れることによって、状態または疾患の検出または分類に関する意思決定を容易にする。
本開示で提供される訓練されたアルゴリズムは、プライマリケア訪問中に、被験者の状態または疾患(例えば、構造的心臓病など)をより正確に検出するためのツールを医療提供者に提供する。
コンピューティングデバイス
本開示は、本明細書の他の場所に記載されているモダリティを変化させるセンサーからデータを受信するコンピューティングデバイスを提供する。例えば、コンピューティングデバイスは、ECGデータまたはオーディオデータを受信する。コンピューティングデバイスは、本開示の方法を実行するようにプログラムされたコンピュータ制御システムを含む。
コンピューティングデバイスは、モニタリングデバイスと通信するように構成される。コンピューティングデバイスは、ワイヤレス通信インターフェースを介してモニタリングデバイスと通信する。別の方法として、コンピューティングデバイスは、物理的(例えば、有線)通信インターフェースを介してモニタリングデバイスと通信する。コンピューティングデバイスは、インターネットを含む広域ネットワーク(WAN)を介してモニタリングデバイスと通信する。コンピューティングデバイスは、セルラーネットワークを介してモニタリングデバイスと通信する。コンピューティングデバイスは、赤外線通信リンクを介してモニタリングデバイスと通信する。コンピューティングデバイスは、無線周波数通信を介してモニタリングデバイスと通信するように構成される。例えば、無線周波数通信は、ブルートゥースであってもよく、標準的な無線送信プロトコル(例えば、WiFi)であってもよい。コンピューティングデバイスは、分散コンピューティングシステムの一部としてサーバーと通信する。
コンピューティングデバイスは、移動可能である。コンピューティングデバイスは、ある場所から別の場所に移動することができる。コンピューティングデバイスは、パーソナルコンピュータ(例えば、ポータブルPC、ラップトップPC)、スレートまたはタブレットPC(例えば、アップルのiPad(登録商標)、サムスンのGalaxyTab(登録商標))、電話、スマートフォン(例えば、アップルのiPhone(登録商標)、Android対応デバイス、Blackberry(登録商標))、またはパーソナルデジタルアシスタントなどである。
コンピューティングデバイスは、モニタリングデバイスからある距離だけ離れている。たとえば、その距離は、モニタリングデバイスとコンピューティングデバイスとの間で、約1フィート、2フィート、3フィート、4フィート、5フィート、10フィート、20フィート、30フィート、40フィート、50フィート、100フィート、200フィート、300フィート、500フィート、100ヤード、200ヤード、300ヤード、400ヤード、500ヤード、1000ヤード、1マイル、5マイル、10マイル、100マイル、500マイル、1000マイル、10,000マイル、15,000マイル内またはそれ以上である。
一例では、コンピューティングデバイスは、分散コンピューティングシステムを含む。いくつかの例では、分散コンピューティングシステムは、モニタリングデバイスと接触し、モバイルデバイスと接続している。コンピューティングデバイスは、コンピュータネットワーク(「ネットワーク」)に動作可能に結合される。ネットワークは、インターネット、インターネットおよび/またはエクストラネット、あるいはインターネットと通信するイントラネットおよび/またはエクストラネットである。いくつかの場合におけるネットワークは、電気通信および/またはデータネットワークである。ネットワークは、分散コンピューティング(例えば、クラウドコンピューティングなど)を可能にする1つまたは複数のコンピュータサーバーを含むことができる。ネットワークは、コンピュータシステムの助けを借りるいくつかの場合において、ピアツーピアネットワークを実行することができる。これは、コンピュータシステムに結合されたデバイスがクライアントまたはサーバーとして動作できるようになる。
クラウドコンピューティングネットワークは、被験者の遠隔モニターを可能にする。クラウドコンピューティングネットワークは、ECGデータやオーディオデータなどの被験者データを時間の経過とともに保存する。ECGデータやオーディオデータなどの被験者データは、クラウドコンピューティングネットワークを介してリモートサーバーで分析される。リモートサーバーは、ユーザーのモバイルデバイスよりも高い計算コストで計算(データの分析など)を実行する。
コンピューティングデバイス(例えば、モバイルデバイスまたはリモートコンピューティングデバイスなど)は、ユーザーインターフェースを含む。ECGデータおよびオーディオデータは、ユーザーインターフェース上に表示するためにコンピューティングデバイスに送信される。ECGデータおよびオーディオデータ、またはそのようなデータから生成された出力は、リアルタイムまたは実質的にリアルタイム(例えば、ECGデータおよびオーディオデータがいつ収集されたかに関して最大1ミリ秒の時間遅延)の期間にわたってユーザーインターフェース上に提示される。一例では、ユーザーインターフェースは、グラフィカルユーザーインターフェースとしてのものである。UIsの例には、特に限定されないが、グラフィカルユーザーインターフェース(GUI)、ウェブベースのユーザーインターフェース、モバイルユーザーインターフェース、アプリなどが含まれる。ユーザーインターフェースは、本明細書の他の場所で説明されるようなアプリ(例えば、モバイルアプリケーション)を含む。
ユーザーインターフェースは、ウェブベースのインターフェースを含む。例えば、ウェブベースのインターフェースは、安全なウェブブラウザである。ウェブベースのインターフェースは、安全なウェブページである。安全なウェブページのユーアールエル(URL)は、ユーザーの要求に応じて変更される。安全なウェブページ上のアクセスデータは、パスワードで保護される。URLは、セッションごとに生成されるユニークなトークンを含む。ユニークなトークンは、被験者および/または第三者に提供される場合がある。トークンは、被験者と関連付けられている。いくつかの場合において、トークンは、セッションに関連付けられている。トークンは、医師などの第三者オペレーターに関連付けられている。トークンは、2要素識別(two-factor identification)を含む。トークンは、時間とともに循環する。トークンは、いつでも再発行または再割り当てされる。安全なウェブブラウザは、暗号化されている。トークンは、暗号化キーに関連付けられる。トークンは、生体認証データに関連付けられていてもよい。トークンは、シングルサインオントークンであってもよい。
いくつかの場合において、ECGデータおよびオーディオデータをコンピューティングデバイスに送信および処理した後、被験者の器官の状態または疾患を示す処理されたECGデータおよびオーディオデータをモニタリングデバイスに送り返すことができる。モニタリングデバイスは、モバイルデバイスなどのコンピューティングデバイスとリアルタイムまたは実質的にリアルタイムで同期する。コンピューティングデバイスからモニタリングデバイスへの処理されたECGデータおよびオーディオデータの送信は、リアルタイムまたは実質的にリアルタイムである。被験者の特定された状態または疾患を示す出力は、医療提供者がリアルタイムまたは実質的にリアルタイムで出力を聞くことができるように、音声放送を介してモニタリングデバイス上に提供される。さらに、出力は、被験者の特定された状態または疾患に基づく介入/治療計画、フォローアップテスト、予防計画、および/または調剤(pharmaceuticals)を含む。
図7は、モニタリングデバイスからECGデータおよびオーディオデータを受信するようにプログラムされ、または構成されているコンピュータシステム(本明細書では「コンピューティングデバイス」とも呼ばれる)701を示す。コンピュータシステム701は、本開示のモニタリングデバイスの様々な態様(例えば、ECGデータおよび/またはオーディオデータを処理し、被験者の状態または疾患を示す出力を提供する)を調整し、時間の経過に伴うデータのログを提供することができる。いくつかの実施形態では、コンピュータシステム701は、ユーザーのコンピューティングデバイスまたはコンピュータシステムである。これらは、モニタリングデバイスに対して遠隔に配置される。コンピューティングデバイスは、モバイルコンピューティングデバイスである。
コンピュータシステム701は、中央処理装置(CPU、本明細書では「プロセッサ」および「コンピュータプロセッサ」でもある)705を含む。これは、シングルコアまたはマルチコアプロセッサ、あるいは並列処理のための複数のプロセッサである。コンピュータシステム701はまた、メモリまたはメモリ位置710(例えば、ランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ)、電子ストレージユニット715(例えば、ハードディスク)、1つまたは複数の他のシステムと通信するための通信インターフェース720(例えば、ネットワークアダプタ)、および周辺機器725(例えば、キャッシュ、他のメモリ、データストレージおよび/または電子ディスプレイアダプタなど)を含む。メモリ710、ストレージユニット715、インターフェース720および周辺機器725は、マザーボードなどの通信バス(実線)を介してCPU705と通信する。ストレージユニット715は、データを格納するためのデータストレージユニット(またはデータリポジトリ)である。コンピュータシステム701は、通信インターフェース720の助けを借りて、コンピュータネットワーク(「ネットワーク」)530に動作可能に結合することができる。ネットワーク530は、インターネット、インターネットおよび/またはエクストラネット、またはインターネットと通信するイントラネットおよび/またはエクストラネットである。いくつかの場合におけるネットワーク530は、電気通信および/またはデータネットワークである。ネットワーク530は、分散コンピューティング(例えば、クラウドコンピューティングなど)を可能にすることができる1つまたは複数のコンピュータサーバーを含む。コンピュータシステム701の助けを借りるいくつかの場合において、ネットワーク530は、ピアツーピアネットワークを実行することができる。これにより、コンピュータシステム701に結合されたデバイスは、クライアントまたはサーバーとして振る舞うことができる。コンピュータシステム701は、例えば、ユーザーの状態または疾患を示す出力を提供するためのユーザーインターフェース(UI)740を備える電子ディスプレイ735を含むか、またはそれと通信することができる。
CPU705は、プログラムまたはソフトウェアで具体化することができる一連の機械可読命令を実行することができる。その命令は、メモリ710などのメモリ位置に格納される。命令は、CPU705に向けられる。これは、その後、本開示の方法を実行するようにCPU705をプログラムされ、または構成されることができる。CPU705によって実行される操作の例には、フェッチ、デコード、実行、およびライトバックが含まれる。
CPU705は、集積回路などの回路の一部である。システム701の他の1つまたは複数のコンポーネントを回路に含めることができる。いくつかの場合において、この回路は、特定用途向け集積回路(ASIC)である。
コンピューティングデバイスは、ECGデータおよびオーディオデータを格納する。コンピューティングデバイスは、ECGデータおよびオーディオデータをストレージユニットに格納する。ストレージユニット715は、ドライバ、ライブラリ、および保存されたプログラムなどのファイルを格納する。ストレージユニット715は、ユーザデータ(例えば、ユーザプリファレンスおよびユーザプログラム)を格納することができる。いくつかの場合におけるコンピュータシステム701は、1つまたは複数の追加のデータストレージユニットを含むことができる。このユニットは、イントラネットまたはインターネットを介してコンピュータシステム701と通信しているリモートサーバー上に配置されるなど、コンピュータシステム701の外部にある。
コンピュータシステム701は、ネットワーク530を介して1つまたは複数のリモートコンピュータシステムと通信することができる。例えば、コンピュータシステム701は、モニタリングデバイスと通信することができる。いくつかの実施形態では、コンピューティングデバイスは、リモートコンピュータシステムである。リモートコンピュータシステムの例として、パーソナルコンピュータ(例えば、ポータブルPC)、スレートまたはタブレットPC(例えば、アップルのiPad(登録商標)、サムスンのGalaxyTabd(登録商標))、電話、スマートフォン(例えば、アップルのiPhone(登録商標)、Android対応デバイス、Blackberryd(登録商標))、または携帯情報端末が挙げられる。いくつかの例では、ユーザーは、ネットワーク530を介してコンピュータシステム701にアクセスすることができる。
本明細書に記載の方法は、コンピュータシステム701の電子ストレージ場所(例えば、メモリ710または電子ストレージユニット715など)に記憶された機械(例えば、コンピュータプロセッサ)実行可能コードによって実施される。機械実行可能コードまたは機械読み取り可能コードは、ソフトウェアの形式で提供される。使用中、コードは、プロセッサ705によって実行される。いくつかの場合において、コードは、ストレージユニット715から取り出され、プロセッサ705による容易なアクセスのためにメモリ710に記憶される。疾患によっては、電子ストレージユニット715を排除することができ、機械実行可能命令はメモリ710に記憶される。
コードは、コードを実行するように適合されたプロセッサを有するマシンで使用するために事前にコンパイルおよび構成されることができ、または実行時にコンパイルされることができる。コードは、コードをプリコンパイル済みまたはコンパイル済みの方法で実行できるように選択されるプログラミング言語で提供される。
コンピュータシステム701など、本明細書で提供されるシステムおよび方法の態様は、プログラミングで具体化される。技術のさまざまな態様は、機械可読媒体のタイプで実行または具体化される関連データおよび/または機械(またはプロセッサ)の実行可能コードのタイプの「製品」または「製造品」と典型的に考えられる。機械実行可能なコードは、メモリ(例えば、読み取り専用メモリ、ランダムアクセスメモリ、フラッシュメモリ)またはハードディスクなどの電子ストレージユニットに記憶される。「ストレージ」タイプの媒体は、コンピュータ、プロセッサなどの有形メモリのいずれかまたはすべて、または、それらの関連モジュール(例えば、様々な半導体メモリ、テープドライブ、ディスクドライブなど)を含む。これは、ソフトウェアプログラミングのためにいつでも非一時的なストレージを提供する。ソフトウェアの全部または一部は、インターネットまたは他の様々な電気通信ネットワークを介して時々通信される。そのような通信は、例えば、あるコンピュータまたはプロセッサから別のコンピュータへの(例えば、管理サーバーまたはホストコンピュータからアプリケーションサーバのコンピュータプラットフォームへの)ソフトウェアのロードを可能にする。したがって、ソフトウェア要素を保持する別のタイプのメディアは、有線および光の固定電話ネットワークおよび様々なエアリンクを介した光、電気、および電磁波(例えば、ローカルデバイス間の物理インターフェース全体で使用される)を含む。そのような波を運ぶ物理的要素(例えば、有線または無線リンク、光リンクなど)は、ソフトウェアを搭載したメディアと見なされる。本明細書で使用されるように、非一時的で有形の「記憶」媒体に限定されない限り、コンピュータまたは機械の「読み取り可能な媒体」などの用語は、実行のためにプロセッサに命令を提供することに関与する任意の媒体を指す。
したがって、コンピュータ実行可能コードなどの機械可読媒体は、有形記憶媒体、搬送波媒体、または物理的伝送媒体などの多くの形態をとるが、これに限定されない。不揮発性記憶媒体は、例えば、光学ディスクまたは磁気ディスク(例えば、任意のコンピュータなどの任意の記憶装置など)を含む。それは、図面に示されるデータベースなどを実装するために使用される。揮発性記憶媒体は、そのようなコンピュータプラットフォームのメインメモリなどの動的メモリを含む。有形の伝送媒体は、同軸ケーブル、銅線および光ファイバー(コンピュータシステム内のバスを含むワイヤを含む)を含む。搬送波伝送媒体は、電気信号または電磁信号、あるいは、無線周波数(RF)および赤外線(IR)データ通信中に生成されるような音響波または光波の形をとる。したがって、コンピュータ可読媒体の一般的な形態は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、その他の磁気媒体(CD−ROM、DVDまたはDVD−ROM)、その他の光学媒体、パンチカードペーパーテープ、穴のパターンを有するその他の物理記憶媒体、RAM、ROM、PROMおよびEPROM、FLASH−EPROM、その他のメモリチップまたはカートリッジ、データまたは命令を転送するキャリア波、そのようなキャリア波を転送するケーブルまたはリンク、またはコンピュータがプログラミングコードおよび/またはデータを読み取ることができるその他の媒体を含む。これらの形態のコンピュータ可読媒体の多くは、実行のために1つまたは複数の命令の1つまたは複数のシーケンスをプロセッサに運ぶことに関与する。
モバイルアプリケーション
モバイルアプリケーションは、本明細書で提供される。モバイルアプリケーションは、データ収集を開始する機能、データ収集を停止する機能、データを保存する機能、データを分析する機能、および/またはリモートサーバーまたは分散コンピューティングネットワークと通信する機能を提供する。一例では、モバイルアプリケーションは、被験者などのユーザーのモバイルデバイスにインストールされる。別の例では、モバイルアプリケーションは、ウェブブラウザによってアクセスされる。モバイルアプリケーションおよびウェブベースのインターフェースは、実質的に同様の機能を含む。
一例では、ユーザーは、スマートフォンまたはラップトップなどのモバイルデバイスにインストールされたソフトウェアアプリケーションを開始する。いくつかの例では、モバイルアプリケーションは、ユーザーによってダウンロードされる。モバイルアプリケーションは、本開示の中央処理装置(CPU)またはマイクロ処理装置(MPU)などのプロセッサによって実行される機械可読コードなどの命令を含む。実行されると、命令は、モニタリングデバイスの動作を制御する。モバイルアプリケーションは、本明細書の他の場所で説明されているように、ユーザーインターフェースを含む。ユーザーインターフェースは、ユーザーインターフェースを介してユーザーにガイダンスおよび指示を提供する。例えば、モバイルアプリケーションは、被験者の身体上のモニタリングデバイスの適切な配置を説明するために、表示画面上に視覚的表示を提供する。
被験者または別のユーザーは、モニタリングデバイスを被験者の皮膚に置く。モバイルデバイスは、適切な配置に関するガイダンスを提供する。電極110Aおよび110Bは、被験者の皮膚に接触する。センサーは、皮膚の電気的変化や患者の器官から発生する音を測定する。
被験者または別のユーザーは、ボタン120を押して、被験者の器官のモニタリングを開始する。ボタンを押すと、複数のセンサーモダリティから同時記録が開始される。被験者は自分の胸にセンサーを抱え、または別のユーザーが被験者の胸にセンサーを抱える。いくつかの例では、被験者のデータを取得するために、ボタンは押されたままである。他の例では、ボタンを最初に押すと収集が開始され、ボタンを2回押すと収集が停止する。他の例では、データ収集は、ウェブベースのインターフェースによって停止および開始される。
ボタンが押された後、ECGデータおよびオーディオデータなどの患者データが収集される。収集されたデータは、モニタリングデバイスで前処理される。例えば、前処理は、ECGおよび/またはオーディオデータの増幅、フィルタリング、圧縮などを含む。いくつかの例では、データは、一時的にローカルに保存される。次に、前処理されたデータを含む収集されたデータは、コンピューティングデバイスに送信される。収集されたデータは、リアルタイムでコンピューティングデバイスに送信される。収集されたデータは、実質的にリアルタイムでユーザーインターフェースに表示される。コンピューティングデバイスがモバイルデバイスである例では、送信されたデータは、スマートフォン上のモバイルアプリケーションを介してアクセスされる。いくつかの例では、送信されたデータは、ウェブベースのインターフェースを介してアクセスすることもできる。
被験者の器官から収集されたデータは、被験者のケアに関与する他のユーザーの他のデバイスに公開される。例えば、ECGデータおよびオーディオデータは、ネットワークを介してサーバーに送信される。サーバーは、被験者のデータを長期間保存する。サーバーは、モバイルデバイス(例えば、スマートフォンなど)で可能な処理能力よりも高い処理能力を必要とするデータを分析する。しかしながら、いくつかの実施形態では、データは、スマートフォン上で分析される。いくつかの例では、サーバーは、医療提供者のコンピューティングデバイスによってアクセス可能である。ウェブベースのインターフェースは、医療提供者のコンピューティングデバイスによってさらにアクセス可能である。被験者は、自宅または遠隔地でモニタリングデバイスを使用し、モニタリングデバイスからのデータを医療提供者に利用できるようにする。医療提供者が利用できるデータにより、遠隔診断が可能になる。
モニタリングデバイスからのデータは、リアルタイムまたは実質的にリアルタイムで第三者に利用可能である。データは、サーバー内に時間の経過とともに保存される。複数の期間にわたって収集されたデータは、サーバー内に保存される。サーバーは、後で分析するための履歴データのリポジトリを含む。
モバイルアプリケーションは、データの品質に関するフィードバックを被験者またはユーザーに提供する。例えば、オーディオベースのオーディオフィードバックは、被験者に警告する。モバイルアプリケーションは、コンピューティングデバイスのスピーカーを使用する。別の例では、画面上のアラートを視覚的に表示して、被験者に警告する。被験者は、ECGおよびオーディオデータの取得中にアラートを受ける。モニタリングデバイスは、MPU上でローカルアプリケーションを実行して、モニタリングデバイス上のユーザーに警告する。コンピューティングデバイスは、CPU上でローカルアプリケーションを実行して、モバイルアプリケーション上のユーザーに警告する。モバイルアプリケーションは、アラートを表示し、同時にオーディオフィードバックを再生する。
モバイルアプリケーションは、モニタリングデバイスの位置を変更するように被験者またはユーザーに指示するなど、データ品質を改善するための指示をさらに表示する。モバイルアプリケーションは、患者に静止するように指示する。モバイルアプリケーションは、データ収集が完了すると、被験者に警告する。モバイルアプリケーションは、データ品質が劣る場合、被験者に警告する。モバイルアプリケーションは、以前の結果を表示する。モバイルアプリケーションは、新しいデータ収集セッションを開始するようにユーザーに促す。モバイルアプリケーションは、データが医療提供者によってレビューされたとき、被験者に警告する。医療提供者は、臨床医、医師、および/または別の訓練を受けたオペレーターを含む。
モバイルアプリケーションは、被験者のECGデータの波形を表示する。モバイルアプリケーションは、被験者のオーディオデータの波形を表示する。被験者は、両方の波形を同時に見る。被験者は、リアルタイムで波形を見る。リモートユーザーは、リアルタイムまたは実質的にリアルタイムで、リモートの場所から一方または両方の波形を見る。ユーザーは、データ間の相違点または類似点を比較することができる。ユーザーは、データ収集の問題(例えば、過度の動き、発話(speaking)、センサーの接触不良などによる波形の不規則性など)を見つけることができる。ユーザーは、自分の心拍数をモニターすることができる。
実施例1:心雑音の検出におけるディープニューラルネットワークと心臓専門医の能力
図8は、本開示のディープニューラルネットワークに対する5人の心臓専門医の能力(performance)および受信者動作特性(ROC)曲線を示す。心臓専門医のデータは、801、802、803、804、805で表される。ディープニューラルネットワークデータは曲線806で表される。デュポン小児病院で収集された54人の患者からのオーディオ録音のレトロスペクティブ分析は、本開示のモニタリングデバイスを使用して実行された。エコーが確認された病的な心雑音と、正常な心音とを有する患者のみが含まれている(n=42)。一方、無害の心雑音と、その他の異常な心音とを有する患者は除外された。ディープニューラルネットワークは、別の雑音データベースでトレーニングされ、トレーニング時にテストデータを見えないようにした。記録は、雑音の存在の確率を予測するためにネットワークによって分析された。この確率は、受信者動作特性(ROC)曲線を生成するためにしきい値処理された。
5人の小児心臓専門医は、エコー所見および患者の病歴を知らされていない間に、各患者の聴診所見(病理学的雑音あり対病理学的雑音なし)を報告した。心エコー検査に対する感度と特異度の95%信頼区間は、ウィルソンの方法で計算された。図8に示されるように、ROC曲線は、1/5臨床医の95%信頼区間(Cl)を完全に下回り、1/5臨床医の95%Clを完全に上回り、3/5臨床医の95%Cl内にある。
実施例2:心雑音の検出におけるディープニューラルネットワークと心エコー検査の能力
図9および図10は、本明細書に開示されるニューラルネットワークおよびゴールドスタンダードの心エコー検査法を使用した心雑音データベースの分類の結果の概要を示す。ジョンズホプキンス大学(JHU)の心雑音データベースは、ジョンズホプキンス薬学部のW.リードトンプソン教授によって、キュレートされた心音記録のコレクションである。このデータベースは、ゴールドスタンダードの心エコー検査で確認された段階的な心雑音診断を有し、複数の位置で収集された注釈付きの音を含む。独立性を確実にし、偏見を防止するために、すべてのオーディオデータおよび注釈データは、JHUによって保持される。そして、アルゴリズムの能力に関する集計データは、研究者がアクセスできる。このデータベースは、熟練したユーザーによる使用において、アルゴリズムの能力の独立の確認を提供するために使用される。
全体として、データベース内の3,180ファイルのうち2,534ファイルが正常に分析された(79.7%)。聴診位置(左胸骨中央境界(LMSB)位置(n=122コントロール)で聴診からの心雑音を有さないという記録から、心雑音が最もよく聞こえる(n=384ケース)位置)で心雑音記録を区別する主要な結果測定のために、アルゴリズムの性能は、図9および図10にまとめられている。表910は、心雑音のすべての強度グレードの結果の概要を示す。表920は、心雑音の強度グレードの機能(function)としての結果の概要を示す。このアルゴリズムは、最高強度の心雑音に対する感度の向上を示す。表930は、エコーで確認された病理学的雑音をさらに含む心雑音の強度グレードの機能としての結果の概要を示す。エコーデータが含まれている場合、アルゴリズムは、感度の向上を示す。図10は、病理学の機能としての結果の概要を示す。
実施例3:大動脈弁狭窄症の検出におけるディープニューラルネットワークの能力
経胸壁心エコー検査(TTE)を受けている連続した患者は、本開示の方法によって心音図(PCG)記録を受けるために先を見越して登録された。15秒の長さの録音は、4つの標準的な聴診位置(大動脈、肺、三尖弁、および僧帽弁領域)で取得された。本開示の機械学習アルゴリズムは、TTEで中等度以上と定義され、臨床的に有意な大動脈弁狭窄症(AS)を示す右上胸骨境界への優勢な局在を伴う雑音の有無を評価した。データ分析時に161人の患者が登録され、639件の記録が得られた。図14は、大動脈弁狭窄症(AS)を検出するための受信者動作特性(ROC)曲線を示す。これらの患者のうち14人(8.7%)は、TTEで有意なASを示した。受信者動作特性曲線は、0.964の面積と、臨床的に有意な検出に対して、97.2%(95%Cl、84.7〜99.5%)の感度と、86.4%(95%Cl、84.0〜88.7%)の特異度とを有していた。
図15は、大動脈領域で観察された強い信号を伴う有意な大動脈弁狭窄症(AS)を有する患者からの心音図(PCG)記録を示す。
図16は、本開示の方法を使用して大動脈弁狭窄症(AS)を検出するためのTensorFlowベースの機械学習アルゴリズムの開発およびテストのための例示的なフローチャートを示す。機械学習アルゴリズムは、トレーニングされ、テストされる。例えば、60,000を超える記録は、ユーザーによってコンピューティングデバイスのデータベースにアップロードされた。これらの録音の1000以上(ランダムに選択された雑音の例およびサブ選択された雑音の例の両方)は、経験豊富な聴診者によって分析され、注釈が付けられた。結果は、雑音なし、雑音あり、信号不良、不明の4つのカテゴリのいずれかに分類された。注釈は、モデルトレーニングに使用された。モデルパラメータは、微調整された。アルゴリズムは、さらにテストされた。患者の記録は、モデルに入力された。信号が弱い場合、エントリは分析されなかった。信号が十分に強い場合、エントリは分析された。データは、雑音なしと雑音ありの2つのカテゴリのいずれかに分類された。結果は、TTEに対してさらに検証された。そのため、モデルは、トレーニングされ、テストされた。本開示の方法を使用するPCG評価は、有意なASを検出するために迅速かつ効果的であることが見出された。本開示の方法は、プライマリケアの設定で検証される。プライマリケアの設定でPCG評価のために本開示の方法を使用することは、心エコー図のためのより適切な照会に貢献する。
実施例4:ECGデータおよび/またはオーディオデータを評価するための分析ソフトウェア
本開示のシステムおよび方法を使用して、分析ソフトウェアが開発され、(例えば、デジタル聴診器または他のオーディオレコーダーからの)患者の心臓オーディオデータおよびECGデータの評価において医師を支援する。このソフトウェアは、ECGデータと心臓のオーディオデータを同時に分析して、心臓のオーディオデータに雑音の疑いがあるかどうかを検出する。ソフトウェアはまた、ECG信号から心房細動と正常な洞調律の存在を検出する。さらに、心拍数、QRS持続時間、EMATなどの特定の心臓時間間隔を計算する。分析ソフトウェアは、クラウドベースのソフトウェアアプリケーションプログラミングインターフェイス(API)である。これにより、ユーザーは、分析のために、同期されたECGと心臓の音または心音図(PCG)データとをアップロードすることができる。ソフトウェアは、取得した信号を解釈するためにさまざまな方法(信号処理や人工ニューラルネットワークを含む)を使用する。APIは、電子的にインターフェースされ、複数のモバイルベースまたはコンピューターベースのアプリケーションから転送されたデータを使用して分析を実行する。
分析ソフトウェアは、本開示のシステム(ECGセンサーおよび/またはオーディオセンサーを含む)、コンパニオンモバイルアプリケーション(アプリ)、およびクラウドベースのインフラストラクチャと組み合わせて使用されるように構成される。システムは、心臓オーディオデータのみ、または心臓オーディオデータとECGデータ(例えば、シングルリードECG)との両方を捕捉するように構成される。心臓のオーディオ信号とECG信号は、Bluetooth Low Energyを使用してモバイルアプリに送信される。ユーザーが録音を行うと、.WAVファイルは、モバイルアプリによって生成され、クラウドベースのインフラストラクチャに送信される。そこで、.WAVファイルは保存される。これにより、分析ソフトウェアAPIがトリガーされ、.WAVファイルの分析が実行される。分析ソフトウェアは、アルゴリズムの結果を含むJSONファイルを出力するように構成される。このファイルは、モバイルデバイスに渡され、同じモバイルアプリを使用して表示される。
分析ソフトウェアシステムの異なるモジュール間の相互作用が図17に示される。第一に、システムのハードウェアは、Bluetooth Low Energyプロトコルによってモバイルデバイスへデータ伝送を実行する。第二に、.WAVファイルがモバイルデバイスからクラウドベースのインフラストラクチャ(EkoCloudなど)にアップロードされる。第三に、クラウドベースのインフラストラクチャからのデータは、電子分析ソフトウェア(EAS)APIを使用した分析のために送信される。第4に、分析結果は、EASからクラウドベースのインフラストラクチャにJSONファイルとして返還される。第5に、分析結果は、クラウドベースのインフラストラクチャからモバイルデバイスに送信され、モバイルデバイスのモバイルアプリに表示される。
分析ソフトウェアシステムは、本開示の以下のアルゴリズムを含む。(1)リズム検出アルゴリズム。これは、正常な洞調律および心房細動を検出するために、ECGデータを処理するニューラルネットワークモデルを使用する。(2)心雑音検出アルゴリズム。これは、心雑音の存在を検出するために、心雑音データを処理するニューラルネットワークモデルを使用する。(3)心拍数アルゴリズム。これは、被験者の心拍数を計算するために、ECGデータまたは心臓のオーディオデータを処理し、測定された心拍数が徐脈または頻脈などの不整脈を示している場合にアラートを提供する信号処理アルゴリズムを含む。(4)QRS持続時間アルゴリズム。これは、QRSパルスの幅を測定するために、ECGデータを処理する信号処理アルゴリズムを含む。(5)EMAT間隔アルゴリズム。これは、電気機械的活性化時間またはEMATとして定義される、Q−S1間隔を測定するためにQピーク検出およびS1包絡線検出を使用する信号処理アルゴリズムを含む。
分析ソフトウェアは、着信ECGおよびPCGデータの品質を評価するための信号品質アルゴリズムを含む。モデルは、記録が分類アルゴリズムを実行するのに十分な信号品質であるかどうかを判断する。信号品質インジケータは、トレーニングデータセットからのノイズ注釈および/または不十分な信号注釈に基づいてトレーニングされた。これらの注釈は、信号品質が低すぎて、(それぞれECGデータおよび心臓のオーディオデータから)不整脈または心雑音を確実に分類できないかどうかを示した。そのトレーニングの努力は、信号品質分析アルゴリズムの結果につながった。このアルゴリズムは、データが十分な品質であるかどうかを判断し、そうでない場合は、記録に「信号不良」のラベル付けをする。信号品質アルゴリズムは、以下に説明するアルゴリズムによる分析の前に使用される。
リズム検出アルゴリズムは、ECGを4つのカテゴリ(正常洞調律、心房細動、未分類、または信号不良)のいずれかに分類するようにトレーニングされたディープニューラルネットワークモデルを使用して、ECG波形から正常洞調律と心房細動を検出するように構成される。信号品質ECGアルゴリズムによる十分な品質の決定に続いて、リズム検出分類子は、信号が、「心房細動」の存在を示すか、「正常洞調律」として分類できるか、または他のリズムを表し「未分類」とラベル付けされるかどうかを決定する。
心雑音検出アルゴリズムは、心雑音を含むまたは可聴雑音を含まないものとして、心音記録を分類するように訓練されたディープニューラルネットワークモデルを使用して心雑音を検出するように構成される。信号品質PCGアルゴリズムによる十分な品質の決定に続いて、雑音検出分類子は、信号が「雑音」の存在を示すか、または「雑音なし」として分類できるかどうかを決定する。
心拍数アルゴリズムは、ECGデータまたは心臓オーディオデータを使用する信号処理アルゴリズムを使用して心拍数を決定するように構成される。ECGデータが存在し、十分な信号品質であると判断された場合、検出されたQRS群からのR−R間隔の中央値を使用して、心拍数が計算される。ECGが存在しないか、品質が低い場合、心拍数は、自己相関ベースの分析を使用して良好な信号品質を有すれば、PCG信号から計算される。PCGの信号品質も悪い場合、心拍数の値は提示されない。ECGベースの心拍数アルゴリズムは、従来のパントンプキンスアルゴリズムの修正バージョンである。さらに、EASは、測定された心拍数が50BPM未満の場合は「徐脈」アラートを生成し、測定された心拍数が100BPMを超える場合は「頻脈」アラートも生成する。
EMATアルゴリズムは、EMATを決定するように構成された信号処理アルゴリズムを含む。信号品質PCGおよびECGアルゴリズムによる十分な品質の決定に続いて、EMATアルゴリズムは、電気機械的活性化時間またはEMATとして定義される、ECGのQピーク検出と、心臓オーディオデータのSl包絡線検出とを使用して、Q−Sl間隔を測定する。EMAT間隔の計算は、ECGデータと心臓オーディオデータとの同時記録を必要とする。録音全体についての報告された%EMATは、信号のすべてのビートの中央値%EMATとして報告される。
分析ソフトウェアは、ユーザーインターフェースソフトウェアAPIとインターフェースするように構成される。分析ソフトウェアは、APIを介して他のソフトウェアアプリケーションからデータを受信し、他のソフトウェアアプリケーションに結果を提供するように構成される。APIの結果は、用語や結果を変更することなく、任意のモバイルアプリまたはウェブインターフェイスによって、臨床医に表示される。図18A〜18Cは、開示された実施形態によるモバイルアプリケーションのユーザーインターフェースの例を示す。それは、通常の図(図18A)、雑音が検出されたときの図(図18B)、および心房細動が検出されたときの図(図18C)を含む。ECGと心音の波形を示すことに加え、モバイルデバイスは、シンプルで読みやすいユーザーインターフェースにおいて、臨床医、被験者、その他のユーザーにアルゴリズムの結果を表示するように構成される。
分析ソフトウェアは、ハードウェアデバイスから補足された心音およびECGデータを分析する医療専門家を支援するために使用される。分析ソフトウェアは、より効率的な医療を提供するために、生理学的データのデジタル収集および分析における医療イニシアチブを支援するために使用される。例えば、電子健康記録の採用は、ヘルスケアの継続を促進するが、患者データへのリアルタイムアクセスを増やすために他の技術によって強化する必要がある。
臨床評価方法として、聴診は、主観性と、心臓血管および肺の問題を定量化できないことと、不正確さとの課題に直面する。例えば、内科および家庭医の研修生は、心音の20%しか正確に認識しない。心臓オーディオ分析ソフトウェアは、音響聴診器の制限を補うことができる。分析ソフトウェアは、心音中の心雑音の存在を検出するように構成される。これは、心雑音が無害であるか病的であるかを判断するために、検出された心雑音のより完全な分析を行うように医師に促す。心雑音の存在の分析ソフトウェアの検出は、適切なフォローアップをよりよく決定するために、心音の臨床医の解釈、心音の視覚化の臨床医の解釈、および臨床疾患の医師のゲシュタルトと組み合わされる。聴診だけでも重要な心臓の健康情報が得られるが、同期されたECGは、解釈を改善できる。データは、心拍数とリズムの規則性とに関する洞察を提供できるからである。さらに、分析ソフトウェアは、シングルリードECGを使用して心房細動の検出を実行するように構成される。分析ソフトウェアは、ECGデータと心臓オーディオデータの両方を分析して、心臓の電気的および機械的機能(および障害)の包括的な分析を提供する。例えば、QRS持続時間の延長は、左脚ブロックなどの左心室機能障害を示すことができる。
分析ソフトウェアアルゴリズムは、公開されているデータベース(MIT−BIH不整脈データベース、MIT−BIH不整脈ノイズストレスデータベース、Physionet QTデータベース、およびPhysioNet 2016データベース)と他のデータベースとの組み合わせでレトロスペクティブ分析を使用して検証された。検証に使用された記録は、アルゴリズムのトレーニングに使用されたデータセットとは異なっていた。以下の表にまとめられているように、各アルゴリズムは、それぞれの検出タスクを実行する際に優れた能力を示した。
リズム検出のためのアルゴリズムの能力(performanc)は、表1AおよびIBに要約される。これらの結果は、ハードウェアが使用可能で良好なECG信号をいつ提供するかをアルゴリズムが正確に識別することを示す。良好な信号が検出されると、アルゴリズムは、心房細動と正常洞調律とを高精度(最小の臨床要件である90%の感度および90%の特異度よりも大きい感度および特異度)で検出する。
表1A:ECGデータベースでのリズム検出(良好な信号を有する場合)
Figure 2021534939


表1B:ECGデータベースでのリズム検出(心房細動検出を有する場合)
Figure 2021534939

雑音検出のアルゴリズムの能力は、表2Aおよび2Bに要約される。これらの結果は、ハードウェアが使用可能で良好な心音をいつ提供するかをアルゴリズムが正確に識別することを示す。さらに、アルゴリズムは、高精度(最小の臨床要件である80%の感度および80%の特異度よりも大きい感度および特異度)を有する雑音の存在を検出する。
表2A:心音データベースでの心雑音検出(良好な信号を有する場合)
Figure 2021534939


表2B:心音データベースでの心雑音検出(心雑音検出を有する場合)
Figure 2021534939

心雑音検出のアルゴリズムの能力は、表3Aおよび3Bに要約される。これらの結果は、アルゴリズムが臨床的に許容できる限界である5%未満の誤差で心拍数を計算することを示す。さらに、アルゴリズムは、(最小の臨床要件である90%の感度および90%の特異度よりも高い感度および特異度で)徐脈と頻脈の存在を正確に検出し、それに応じて臨床医にアラートを生成する。
表3A:MIT−BIHデータベースでの心拍数の検出(心拍数エラー)
Figure 2021534939


表3B:MIT−BIHデータベースでの心拍数の検出(徐脈または頻脈の場合)
Figure 2021534939

QRS持続時間検出のアルゴリズムの能力は、表4に要約される。これらの結果は、アルゴリズムが臨床的に許容できる限界である12%未満の誤差でQRS持続時間を計算できることを示す。
表4:PhysioNetQTデータベースでのQRS持続時間の検出
Figure 2021534939

EMAT期間(持続時間)検出のアルゴリズムの能力は、表5に要約される。これらの結果は、アルゴリズムが、臨床的に許容できる限界である平均R−R間隔の5%未満の誤差でEMAT期間を計算できることを示す。
表5:ECGデータベースでのEMAT検出
Figure 2021534939

実施例5:糖尿病のフローモニタリングの実行
別の例では、体液状態(例えば、血液)の糖尿病のフローモニタリングを実行するために、機械学習アルゴリズムが開発されている。糖尿病(例えば、I型またはII型)の患者は、体が必要なだけ効果的に水分を除去できないため、望ましい水分量を維持する必要がある。しかしながら、体液(fluid)量または体液の流れをモニタリングする従来のアプローチでは、静脈穿刺を伴う侵襲的なアプローチを必要とする。本開示のシステムおよび方法を使用して、被験者の流体循環のオーディオデータが収集されおよび分析され、被験者の体内の体液(例えば、血液)の特性を決定する。そのようなプロセスは、従来の静脈アクセス法(例えば、末梢挿入中心静脈カテーテル(PICC)など)を置換するために使用される。オーディオデータのこの収集と分析は、静脈穿刺を使用せずに、ECGセンサーおよび/またはオーディオセンサーを使用して非侵襲的に実行される。体液循環のオーディオデータは、被験者の瘻(例えば、糖尿病性瘻)を通る血流のオーディオデータを含む。体液の特性は、例えば、被験者の体液の流れ(例えば、単位時間あたりの体液の体積を示す流量)、体液の体積、体液の閉塞、またはそれらの組み合わせを含む。体液の特性は、被験者の身体の局所領域(例えば、血管アクセスの場所または被験者の糖尿病性瘻など)における体液の特徴である。体液の1つまたは複数の特性(例えば、体液の流れ(例えば、単位時間あたりの体液の体積を示す流量)、体液の体積、または体液の閉塞など)は、体液の他の1つまたは複数の特性に基づいて、特定され、予測され、計算され、推定され、または推測される。例えば、(例えば、血液の)流量は、決定された体液の流量に基づいて計算または推定される。
実施例6:身体の複数の異なる場所または部分からのECGデータおよび/またはオーディオデータの収集および分析
本開示のシステムおよび方法を使用して、ECGデータおよび/またはオーディオデータは、被験者の身体の複数の異なる場所または部分(例えば、器官または器官系)から収集され、次いで、集約されて、被験者の身体の複数の異なる場所または部分の総定量的測定値(例えば、合計、平均、中央値)を提供する。次に、総計の定量的測定値を分析して、被験者の状態または疾患を特定する。
いくつかの実施形態では、ECGデータおよび/またはオーディオデータは、被験者の身体の複数の異なる場所または部分のそれぞれに配置されたオーディオセンサーおよび/または複数のECGセンサーまたはリード(例えば、3リード、6リード、または12リードECGセンサー)によって、被験者の身体の複数の異なる場所または部分から収集される。いくつかの実施形態では、ECGデータおよび/またはオーディオデータは、被験者の身体の複数の異なる場所または部分のそれぞれに、ECGセンサーおよび/またはオーディオセンサーを移動させることによって、被験者の身体の複数の異なる場所または部分から収集される。センサーの動きは、被験者によって、または被験者の医療提供者(例えば、医師、看護師、または世話人)によって実行される。
いくつかの実施形態では、ECGデータは、QT間隔を含む。これは、被験者の長いQT間隔(被験者の心不全のリスクの増加と相関するか、またはそれを示す)を検出するために分析される。QT間隔測定値は、被験者の心臓の複数の異なる場所から取得されたECGデータを平均化することによって取得される。いくつかの実施形態では、本開示のシステムまたはデバイスは、デバイスが被験者の体の異なる位置(例えば、心臓の異なる位置)に移動したかどうかを検出するように構成されたセンサー(例えば、加速度計)を含む。システムまたはデバイスは、ECGデータおよび/またはオーディオデータの少なくとも一部に対応するECGセンサーおよび/またはオーディオセンサーの1つまたは複数の動きまたは位置の情報を収集および分析するように構成される。
本発明の好ましい実施形態が本明細書に示され、説明されたが、そのような実施形態が例としてのみ提供されることは当業者には明らかである。本発明は、本明細書内で提供される特定の実施例によって限定されることを意図するものではない。本発明は前述の明細書を参照して説明されたが、本明細書の実施形態の説明および図面は、限定的な意味で解釈されることを意味するものではない。本発明から逸脱することなく、当業者には、多数の変形、変更、および置換が行われる。さらに、本発明のすべての態様は、様々な条件および変数に依存する、本明細書に記載の特定の描写、構成、または相対的な比率に限定されないことを理解されたい。本明細書に記載の本発明の実施形態に対する様々な代替案が、本発明を実施する際に使用されることが理解される。したがって、本発明は、そのような代替、修正、変形、または同等物もカバーするものと考えられる。以下の特許請求の範囲が本発明の範囲を定義し、これらの特許請求の範囲内の方法および構造ならびにそれらの同等物がそれによってカバーされることが意図されている。

Claims (57)

  1. 被験者の心臓の状態または疾患を特定するための方法であって、
    (a)前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータをワイヤレスでコンピューティングデバイスに送信する工程と、
    (c)前記被験者の前記心臓の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、
    (d)前記コンピューティングデバイスに前記被験者の前記心臓の前記状態または疾患を示す出力を提供する工程と、
    を含むことを特徴とする被験者の心臓の状態または疾患を特定するための方法。
  2. 前記モニタリングデバイスは、モバイルデバイスである請求項1に記載の方法。
  3. 前記コンピューティングデバイスは、モバイルデバイスである請求項1に記載の方法。
  4. 前記コンピューティングデバイスは、クラウドシステムの一部である請求項1に記載の方法。
  5. 前記工程(b)において、前記ECGデータおよび前記オーディオデータは、共通のパケットで送信される請求項1に記載の方法。
  6. 前記被験者の前記心臓の前記状態または疾患を示す前記出力を提供する工程は、前記被験者の前記心臓の左心室の低駆出率の存在または不存在を特定する工程を含む請求項1に記載の方法。
  7. 前記ECGデータは、単一リードECGデータを含む請求項1に記載の方法。
  8. 前記ECGデータは、3リードECGデータを含む請求項1に記載の方法。
  9. 前記ECGデータは、12リードECGデータを含む請求項1に記載の方法。
  10. 前記ECGデータは、胸腔、肺、または胸腔内インピーダンス測定データを含む請求項1に記載の方法。
  11. 前記工程(c)において、前記ECGデータおよび前記オーディオデータは、前記コンピューティングデバイスの1つまたは複数のコンピュータプロセッサによって処理される請求項1に記載の方法。
  12. 前記ECGデータおよび前記オーディオデータを分散コンピューティングシステムで処理する工程をさらに含む請求項11に記載の方法。
  13. 前記工程(c)において、前記ECGデータおよび前記オーディオデータは、分散コンピューティングシステムで処理される請求項1に記載の方法。
  14. 前記訓練されたアルゴリズムは、ニューラルネットワークである請求項1に記載の方法。
  15. 前記被験者の前記心臓の前記状態または疾患は、独立した被験者について少なくとも約90%の精度で特定される請求項1に記載の方法。
  16. 前記精度は、少なくとも約95%である請求項15に記載の方法。
  17. 前記被験者の前記心臓の前記状態または疾患は、独立した被験者に対して少なくとも約90%の特異度で、不具合のない状態または疾患であると特定される請求項1に記載の方法。
  18. 前記特異度は、少なくとも約95%である請求項17に記載の方法。
  19. 前記被験者の前記心臓の前記状態または疾患は、前記オーディオデータの周波数帯域内の前記オーディオデータの大きさおよび持続時間と相関している請求項1に記載の方法。
  20. 前記出力は、前記心臓の有害な状態または疾患を示すアラートである請求項1に記載の方法。
  21. 前記(a)工程〜前記(d)工程は、1分以下の時間内で実行される請求項1に記載の方法。
  22. 前記コンピューティングデバイスは、前記モニタリングデバイスから約30フィート以内にある請求項1に記載の方法。
  23. 前記コンピューティングデバイスは、前記モニタリングデバイスの約10フィート以内にある請求項22に記載の方法。
  24. 前記コンピューティングデバイスは、前記モニタリングデバイスの約5フィート以内にある請求項22に記載の方法。
  25. 前記心臓の前記状態または疾患は、弁膜症である請求項1に記載の方法。
  26. 前記心臓の前記状態または疾患は、不整脈である請求項1に記載の方法。
  27. 前記心臓の前記状態または疾患は、心不全である請求項1に記載の方法。
  28. 前記心臓の前記状態または疾患は、先天性心疾患である請求項1に記載の方法。
  29. 前記心臓の疾患状態または疾患は、QT延長である請求項1に記載の方法。
  30. 被験者の心臓の状態または疾患を特定するための方法であって
    (a)ある期間にわたって前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータを、ユーザーインターフェースを含むコンピューティングデバイスに送信する工程と、
    (c)実質的にリアルタイムで、前記期間にわたって前記ユーザーインターフェースに前記ECGデータおよび前記オーディオデータを提示する工程と、を含むことを特徴とする被験者の心臓の状態または疾患を特定するための方法。
  31. 被験者の心臓の状態または疾患を特定するための方法であって
    (a)第1の期間にわたって前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータの第1のセットを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータの前記第1のセットをコンピューティングデバイスに送信する工程と、
    (c)前記第1の期間とは異なる第2の期間にわたって、前記被験者の前記心臓から前記ECGデータおよび前記オーディオデータの第2のセットを測定するために、前記モニタリングデバイスを使用する工程と、
    (d)前記ECGデータおよび前記オーディオデータの前記第2のセットを前記コンピューティングに送信する工程と、
    (e)少なくとも前記第1の期間および前記第2期間にわたって、前記コンピューティングデバイスに前記被験者の前記心臓の前記状態または疾患を示す出力を提供するために、少なくとも前記ECGデータおよび前記オーディオデータの前記第1のセットならびに前記ECGデータおよび前記オーディオデータの前記第2のセットを処理する工程と、を含むことを特徴とする被験者の心臓の状態または疾患を特定するための方法。
  32. 1つまたは複数の追加の期間にわたって前記被験者の前記心臓からの少なくともECGデータおよびオーディオデータの第3のセットを測定するために、前記モニタリングデバイスを使用する工程をさらに含む請求項31に記載の方法。
  33. 被験者の状態または疾患を特定するための方法であって、
    (a)前記被験者から心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含む、前記被験者の皮膚の外部にあるモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータを、ユーザーインターフェースを含むコンピューティングデバイスに送信する工程と、
    (c)前記被験者の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、
    (d)前記ユーザーインターフェースに前記被験者の前記状態または疾患を示す出力を提供する工程と、を含むことを特徴とする被験者の状態または疾患を特定するための方法。
  34. 被験者の状態または疾患を特定するための方法であって、
    (a)前記被験者から心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータをコンピューティングデバイスにワイヤレスで送信する工程と、
    (c)処理されたオーディオデータを生成するために、前記オーディオデータからノイズを除去する工程と、
    (d)前記被験者の前記状態または疾患を特定するために、前記ECGデータおよび前記処理されたオーディオデータを処理する工程と、
    (e)前記被験者の前記状態または疾患を出力する工程と、を含むことを特徴とする被験者の状態または状態を特定するための方法。
  35. 器官または身体部分の前記状態または疾患は、弁膜症である請求項34に記載の方法。
  36. 器官または身体部分の前記状態または疾患は、不整脈である請求項34に記載の方法。
  37. 器官または身体部分の前記状態または疾患は、心不全である請求項34に記載の方法。
  38. 器官または身体部分の前記状態または疾患は、先天性心疾患である請求項34に記載の方法。
  39. 器官または身体部分の前記状態または疾患は、慢性閉塞性肺疾患(COPD)である請求項34に記載の方法。
  40. 器官または身体部分の前記状態または疾患は、喘息である請求項34に記載の方法。
  41. 器官または身体部分の前記状態または疾患は、肺炎である請求項34に記載の方法。
  42. 器官または身体部分の前記状態または疾患は、瘻孔である請求項34に記載の方法。
  43. 器官または身体部分の前記状態または疾患は、炎症性腸疾患(IBD)である請求項34に記載の方法。
  44. 被験者の心臓の状態または疾患を特定するための方法であって、
    (a)心電図(ECG)データとオーディオデータとのセットを生成するために、心電図(ECG)センサーとオーディオセンサーとを含むモニタリングデバイスを使用する工程と、
    (b)前記被験者の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータの特徴の第1のセットを処理するために訓練されたアルゴリズムを使用する工程と、
    (c)前記特徴の前記第1のセットと重複する特徴の第2のセットに関連する1つまたは複数の他の状態または疾患を特定するためにデータベースにアクセスする工程と、
    (d)前記状態または疾患と、前記1つまたは複数の他の状態または疾患とを示す出力を提供する工程と、を含む被験者の心臓の状態または疾患を特定するための方法。
  45. 前記特徴の前記第1のセットは、可聴周波数データの強度、前記可聴周波数データのピッチ、前記可聴周波数データの形状、前記オーディオデータが最も強く検出される位置、および音質からなる群から選択される1つまたは複数のメンバーを含む請求項44に記載の方法。
  46. 前記特徴の前記第1のセットは、前記ECGデータのPRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の平均数を含む請求項44に記載の方法。
  47. 前記特徴の前記第1のセットは、前記ECGデータのPRセグメント、STセグメント、PR間隔、QRS間隔、ST間隔、またはQT間隔の標準偏差数を含む請求項44に記載の方法。
  48. 被験者の心臓の状態または疾患を特定するための方法であって、
    (a)前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータをワイヤレスでコンピューティングデバイスに送信する工程と、
    (c)前記被験者の前記心臓の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、
    (d)前記モニタリングデバイスに前記被験者の前記状態または疾患を示す出力を提供する工程と、を含むことを特徴とする被験者の心臓の状態または疾患を特定するための方法。
  49. 被験者の器官の状態または疾患を特定するための方法であって、
    (a)前記被験者の心臓からの心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスを使用する工程と、
    (b)前記ECGデータおよび前記オーディオデータをワイヤレスでコンピューティングデバイスに送信する工程と、
    (c)前記被験者の前記心臓の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用する工程と、
    (d)前記コンピューティングデバイスに前記被験者の前記心臓の前記状態または疾患を示す出力を提供する工程と、を含むことを特徴とする被験者の器官の状態または疾患を特定するための方法。
  50. 被験者の心臓の状態または疾患を特定するためのシステムであって、
    前記被験者の前記心臓から心電図(ECG)データおよびオーディオデータを測定するために、心電図(ECG)センサーと、オーディオセンサーとを含むモニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記モニタリングデバイスから前記通信インターフェースによってワイヤレスで受信された前記ECGデータおよび前記オーディオデータを受信し、(ii)前記被験者の前記心臓の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用し、(iii)前記コンピューティングデバイス上で、前記被験者の前記心臓の前記状態または疾患を示す出力を提供するように、個別にまたはまとめてプログラムされていることを特徴とする被験者の心臓の状態または疾患を特定するためのシステム。
  51. 被験者の心臓の状態または疾患を特定するためのシステムであって、
    ある期間にわたって前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータを測定するための心電図(ECG)センサーおよびオーディオセンサーを含むモニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記モニタリングデバイスから前記通信インターフェースによってワイヤレスで受信された前記ECGデータおよび前記オーディオデータを受信し、(ii)実質的にリアルタイムで前記期間にわたってユーザーインターフェース上に前記ECGデータおよび前記オーディオデータを提示するように、個別にまたはまとめてプログラムされていることを特徴とする被験者の心臓の状態または疾患を特定するためのシステム。
  52. 被験者の心臓の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、(i)第1の期間にわたる前記被験者の前記心臓からの心電図(ECG)データおよびオーディオデータの第1のセットと、(ii)前記第1の期間とは異なる第2の期間にわたる前記被験者の前記心臓からの前記ECGデータおよび前記オーディオデータの第2のセットとを測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記ECGデータおよび前記オーディオデータの前記第1のセットと、前記ECGデータおよび前記オーディオデータの前記第2のセットとを受信し、(ii)少なくとも前記第1の期間および前記第2の期間にわたってユーザーインターフェースに前記被験者の前記心臓の前記状態または疾患を示す出力を提供するために、少なくとも前記ECGデータおよび前記オーディオデータの前記第1のセットと、前記ECGデータおよび前記オーディオデータの前記第2のセットとを処理するように、個別にまたはまとめてプログラムされていることを特徴とする被験者の心臓の状態または疾患を特定するためのシステム。
  53. 被験者の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、前記被験者からの心電図(ECG)データおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記モニタリングデバイスから前記通信インターフェースによってワイヤレスで受信された前記ECGデータおよび前記オーディオデータを受信し、(ii)前記被験者の前記状態または疾患を特定するために、前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用し、(iii)ユーザーインターフェースに表示するために、前記被験者の前記状態または疾患を示す出力を提供するように、個別にまたはまとめてプログラムされることを特徴とする被験者の状態または疾患を特定するためのシステム。
  54. 被験者の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、前記被験者からの心電図(ECG)データおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記被験者の前記心臓からの前記ECGデータおよび前記オーディオデータを測定するために、前記モニタリングデバイスを使用し、(ii)前記ECGデータおよび前記オーディオデータをコンピューティングデバイスにワイヤレスで送信し、(iii)処理されたオーディオデータを生成するために、前記オーディオデータからノイズを除去し、(iv)前記被験者の前記状態または疾患を決定するために、前記ECGデータおよび前記処理されたオーディオデータを処理し、(v)前記被験者の前記状態または疾患を出力するように、個別にまたはまとめてプログラムされることを特徴とする被験者の状態または疾患を特定するためのシステム。
  55. 被験者の心臓の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、前記被験者からの心電図(ECG)データおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記被験者の前記心臓から第1の複数の特徴を含む前記ECGデータおよび/または前記オーディオデータの第1のセットを生成するために前記モニタリングデバイスを使用し、(ii)前記ECGデータおよび/または前記オーディオデータをコンピューティングデバイスにワイヤレスで送信し、(iii)前記ECGデータおよび/または前記オーディオデータの複数のセットを識別するために訓練されたアルゴリズムを使用し、前記複数のECGデータおよび/またはオーディオデータのそれぞれは、前記第1の複数の特徴と同様の特徴を含み、(iv)前記ECGデータおよび/または前記オーディオデータの前記第1のセットと、前記ECGデータおよび/または前記オーディオデータの前記複数のセットとの間の比較を含む出力を提供するように、個別にまたはまとめてプログラムされることを特徴とする被験者の心臓の状態または疾患を特定するためのシステム。
  56. 被験者の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、前記被験者からの心電図(ECG)データおよびオーディオデータをそれぞれ測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記被験者の前記心臓からの前記ECGデータおよび前記オーディオデータを測定するために前記モニタリングデバイスを使用し、(ii)前記ECGデータおよび前記オーディオデータをコンピューティングデバイスにワイヤレスで送信し、(iii)前記被験者の前記状態または疾患を特定するために前記ECGデータおよび前記オーディオデータを処理し、(iv)前記モニタリングデバイス上に前記被験者の前記状態または疾患を示す出力を提供するように、個別にまたはまとめてプログラムされることを特徴とする被験者の状態または疾患を特定するためのシステム。
  57. 被験者の器官の状態または疾患を特定するためのシステムであって、
    モニタリングデバイスとワイヤレスで通信するように構成された通信インターフェースと、
    前記通信インターフェースに動作可能に結合された1つまたは複数のコンピュータプロセッサと、を含み、
    前記モニタリングデバイスは、前記被験者の心臓からの心電図(ECG)データおよびオーディオデータを測定するための心電図(ECG)センサーおよびオーディオセンサーを含み、
    前記1つまたは複数のコンピュータプロセッサは、(i)前記モニタリングデバイスから前記通信インターフェースによってワイヤレスで受信された前記ECGデータおよび前記オーディオデータを受信し、(ii)前記被験者の前記心臓の前記状態または疾患を特定するために前記ECGデータおよび前記オーディオデータを処理するために訓練されたアルゴリズムを使用し、(iii)前記コンピューティングデバイス上に、前記被験者の前記心臓の前記状態または疾患を示す出力を提供するように、個別にまたはまとめてプログラムされることを特徴とする被験者の器官の状態または疾患を特定するためのシステム。
JP2021533378A 2018-08-21 2019-08-20 被験者の生理学的または生物学的状態または疾患を特定するための方法およびシステム Active JP7402879B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862720796P 2018-08-21 2018-08-21
US62/720,796 2018-08-21
US201962879317P 2019-07-26 2019-07-26
US62/879,317 2019-07-26
PCT/US2019/047333 WO2020041363A1 (en) 2018-08-21 2019-08-20 Methods and systems for determining a physiological or biological state or condition of a subject

Publications (3)

Publication Number Publication Date
JP2021534939A true JP2021534939A (ja) 2021-12-16
JPWO2020041363A5 JPWO2020041363A5 (ja) 2022-04-20
JP7402879B2 JP7402879B2 (ja) 2023-12-21

Family

ID=69591446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533378A Active JP7402879B2 (ja) 2018-08-21 2019-08-20 被験者の生理学的または生物学的状態または疾患を特定するための方法およびシステム

Country Status (8)

Country Link
US (1) US20210345934A1 (ja)
EP (1) EP3840642B1 (ja)
JP (1) JP7402879B2 (ja)
AU (1) AU2019325258A1 (ja)
BR (1) BR112021003172A2 (ja)
GB (1) GB2591361B (ja)
MX (1) MX2021001984A (ja)
WO (1) WO2020041363A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023230345A1 (en) * 2022-05-27 2023-11-30 Yale University Articles and methods for format independent detection of hidden cardiovascular disease from printed electrocardiographic images using deep learning

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011252998B2 (en) 2010-05-12 2015-08-27 Irhythm Technologies, Inc. Device features and design elements for long-term adhesion
EP2948050B1 (en) 2013-01-24 2020-11-04 Irhythm Technologies, Inc. Physiological monitoring device
WO2016070128A1 (en) 2014-10-31 2016-05-06 Irhythm Technologies, Inc. Wireless physiological monitoring device and systems
US11657921B2 (en) 2019-09-18 2023-05-23 Tempus Labs, Inc. Artificial intelligence based cardiac event predictor systems and methods
USD941468S1 (en) 2019-09-23 2022-01-18 Eko Devices, Inc. Electronic stethoscope device
US11246524B2 (en) 2020-02-12 2022-02-15 Irhythm Technologies, Inc. Non-invasive cardiac monitor and methods of using recorded cardiac data to infer a physiological characteristic of a patient
US20220015711A1 (en) * 2020-07-20 2022-01-20 Board Of Regents, The University Of Texas System System and method for automated analysis and detection of cardiac arrhythmias from electrocardiograms
US11350865B2 (en) 2020-08-06 2022-06-07 Irhythm Technologies, Inc. Wearable device with bridge portion
JP2023536982A (ja) 2020-08-06 2023-08-30 アイリズム・テクノロジーズ・インコーポレイテッド 生理学的モニタリング装置の電気部品
US11363952B2 (en) 2020-08-19 2022-06-21 Eko Devices, Inc. Methods and systems for remote health monitoring
TWI749880B (zh) * 2020-11-19 2021-12-11 緯創資通股份有限公司 生理病徵識別方法及生理病徵感測系統
KR20220095715A (ko) * 2020-12-30 2022-07-07 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US11633112B2 (en) 2021-03-08 2023-04-25 Medtronic, Inc. Automatic alert control for acute health event
EP4346566A1 (en) 2021-05-28 2024-04-10 Tempus AI, Inc. Artificial intelligence based cardiac event predictor systems and methods
US20230096006A1 (en) * 2021-09-29 2023-03-30 Eko Devices, Inc. Methods and systems for automated clinical workflows
US20230134653A1 (en) * 2021-11-02 2023-05-04 Eko Devices, Inc. Methods and systems for pulmonary artery pressure and cardiac synchronization monitoring
CN114579851B (zh) * 2022-02-25 2023-03-14 电子科技大学 一种基于自适应性节点特征生成的信息推荐方法
CN115281689A (zh) * 2022-07-29 2022-11-04 中国医学科学院阜外医院 基于人工智能与计算机视觉的心脏病综合诊断平台
CN115177263A (zh) * 2022-09-13 2022-10-14 毕胜普生物科技有限公司 基于动静结合的心脏检测方法、系统和可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012502771A (ja) * 2008-09-22 2012-02-02 カーディアック ペースメイカーズ, インコーポレイテッド 非代償性うっ血性心不全の検出
US20130172691A1 (en) * 2006-05-16 2013-07-04 Bao Tran Health monitoring appliance
JP2017521106A (ja) * 2014-05-15 2017-08-03 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア マルチセンサ生理学的モニタリングシステムおよび方法
JP2018503885A (ja) * 2014-11-14 2018-02-08 ゾール メディカル コーポレイションZOLL Medical Corporation 医療前兆イベント予測
JP2018504148A (ja) * 2014-10-31 2018-02-15 アイリズム・テクノロジーズ・インコーポレイテッドiRhythm Technologies,Inc. 無線式生体モニタリングデバイス及びシステム
US20180116626A1 (en) * 2016-11-03 2018-05-03 Awaire Inc. Heart Activity Detector for Early Detection of Heart Diseases
WO2018118935A1 (en) * 2016-12-20 2018-06-28 Eko Devices, Inc. Enhanced wireless communication for medical devices

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050130321A1 (en) * 2001-04-23 2005-06-16 Nicholson Jeremy K. Methods for analysis of spectral data and their applications
US7174203B2 (en) * 2004-11-18 2007-02-06 Inovise Medical, Inc. Method and system relating to monitoring and characterizing heart condition
US7558622B2 (en) * 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
EP2361035B1 (en) * 2008-09-19 2014-12-31 Cardiac Pacemakers, Inc. System for determining a heart failure status
US9339202B2 (en) * 2009-11-03 2016-05-17 Vivaquant Llc System for processing physiological data
US8374686B2 (en) * 2009-12-04 2013-02-12 Medtronic, Inc. Continuous monitoring of risk burden for sudden cardiac death risk stratification
US9480400B2 (en) * 2010-02-01 2016-11-01 3M Innovative Properties Company Electronic stethoscope system for telemedicine applications
US20120203076A1 (en) * 2011-02-08 2012-08-09 Jean Pierre Fatta Portable Physiological Data Monitoring Device
US8617082B2 (en) * 2011-05-19 2013-12-31 Medtronic, Inc. Heart sounds-based pacing optimization
US9521956B2 (en) * 2012-06-05 2016-12-20 3M Innovative Properties Company Enhanced auscultatory sensor and analysis for patient diagnosis
US11185241B2 (en) * 2014-03-05 2021-11-30 Whoop, Inc. Continuous heart rate monitoring and interpretation
CN105451804A (zh) * 2013-06-26 2016-03-30 卓尔医疗公司 包括声学传感器的治疗装置
US9420956B2 (en) * 2013-12-12 2016-08-23 Alivecor, Inc. Methods and systems for arrhythmia tracking and scoring
US11076763B2 (en) * 2014-10-15 2021-08-03 Atlasense Biomed Ltd. Remote physiological monitor
KR101727367B1 (ko) * 2014-11-04 2017-04-17 재단법인 아산사회복지재단 심음도 모니터링 시스템 및 이를 이용한 모니터링 방법
WO2016149583A1 (en) * 2015-03-18 2016-09-22 Zoll Medical Corporation Medical device with acoustic sensor
US10219713B2 (en) * 2015-05-15 2019-03-05 Bayland Scientific LLC Compact wearable phonocardiogram and electrocardiogram continuous monitoring system
WO2017215278A1 (zh) * 2016-06-17 2017-12-21 深圳市前海康启源科技有限公司 用于多方会诊的心电监测听诊器
EP3675717B1 (en) * 2017-08-31 2023-12-06 The Regents of the University of California Multisensor cardiac function monitoring and analytics systems
CN107960990A (zh) * 2018-01-11 2018-04-27 上海健康医学院 一种穿戴式心脑血管疾病智能监测系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130172691A1 (en) * 2006-05-16 2013-07-04 Bao Tran Health monitoring appliance
JP2012502771A (ja) * 2008-09-22 2012-02-02 カーディアック ペースメイカーズ, インコーポレイテッド 非代償性うっ血性心不全の検出
JP2017521106A (ja) * 2014-05-15 2017-08-03 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア マルチセンサ生理学的モニタリングシステムおよび方法
JP2018504148A (ja) * 2014-10-31 2018-02-15 アイリズム・テクノロジーズ・インコーポレイテッドiRhythm Technologies,Inc. 無線式生体モニタリングデバイス及びシステム
JP2018503885A (ja) * 2014-11-14 2018-02-08 ゾール メディカル コーポレイションZOLL Medical Corporation 医療前兆イベント予測
US20180116626A1 (en) * 2016-11-03 2018-05-03 Awaire Inc. Heart Activity Detector for Early Detection of Heart Diseases
WO2018118935A1 (en) * 2016-12-20 2018-06-28 Eko Devices, Inc. Enhanced wireless communication for medical devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023230345A1 (en) * 2022-05-27 2023-11-30 Yale University Articles and methods for format independent detection of hidden cardiovascular disease from printed electrocardiographic images using deep learning

Also Published As

Publication number Publication date
US20210345934A1 (en) 2021-11-11
WO2020041363A1 (en) 2020-02-27
BR112021003172A2 (pt) 2021-05-11
EP3840642B1 (en) 2024-02-21
GB202102592D0 (en) 2021-04-07
EP3840642A4 (en) 2022-05-18
AU2019325258A1 (en) 2021-03-25
MX2021001984A (es) 2021-07-21
EP3840642A1 (en) 2021-06-30
JP7402879B2 (ja) 2023-12-21
GB2591361A (en) 2021-07-28
GB2591361B (en) 2022-11-23

Similar Documents

Publication Publication Date Title
JP7402879B2 (ja) 被験者の生理学的または生物学的状態または疾患を特定するための方法およびシステム
US20210259560A1 (en) Methods and systems for determining a physiological or biological state or condition of a subject
US11826174B2 (en) Monitoring physiological status based on bio-vibrational and radio frequency data analysis
Merdjanovska et al. Comprehensive survey of computational ECG analysis: Databases, methods and applications
JP6567728B2 (ja) 患者の生存性を予測する方法
JP2020536629A (ja) Ecgベースの心駆出率のスクリーニング
US10278595B2 (en) Analysis and characterization of patient signals
EP4161357A1 (en) Non-invasive cardiac health assessment system and method for training a model to estimate intracardiac pressure data
TW200526174A (en) Analysis of auscultatory sounds using single value decomposition
Lee et al. Artificial intelligence for detection of cardiovascular-related diseases from wearable devices: a systematic review and meta-analysis
US20220175324A1 (en) Computer-based prediction of fetal and maternal outcomes
Sandberg et al. Diagnostic accuracy and usability of the ECG247 smart heart sensor compared to conventional Holter technology
US20230200664A1 (en) Non-invasive cardiac health assessment system and method for training a model to estimate intracardiac pressure data
US10327648B2 (en) Blood vessel mechanical signal analysis
WO2013186634A2 (en) Predicting acute cardiopulmonary events and survivability of a patient
Mannhart et al. Clinical validation of an artificial intelligence algorithm offering cross-platform detection of atrial fibrillation using smart device electrocardiograms
Huang et al. A Deep-Learning-Based Multi-modal ECG and PCG Processing Framework for Cardiac Analysis
Sahoo et al. Artificial Intelligence Assisted Cardiac Signal Analysis for Heart Disease Prediction
US20230200746A1 (en) System for acquisition and analysis of maternal and/or fetal physiological signals
Larsen Risk Estimation of Coronary Artery Disease using Phonocardiography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7402879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150