JP7092777B2 - 背景雑音環境における咳嗽検出のための方法および装置 - Google Patents
背景雑音環境における咳嗽検出のための方法および装置 Download PDFInfo
- Publication number
- JP7092777B2 JP7092777B2 JP2019542568A JP2019542568A JP7092777B2 JP 7092777 B2 JP7092777 B2 JP 7092777B2 JP 2019542568 A JP2019542568 A JP 2019542568A JP 2019542568 A JP2019542568 A JP 2019542568A JP 7092777 B2 JP7092777 B2 JP 7092777B2
- Authority
- JP
- Japan
- Prior art keywords
- cough
- sound
- classifier
- phase
- coughing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Detecting, measuring or recording devices for evaluating the respiratory organs
- A61B5/0823—Detecting or evaluating cough events
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6898—Portable consumer electronic devices, e.g. music players, telephones, tablet computers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/003—Detecting lung or respiration noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Pulmonology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- Fuzzy Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
1.呼気相--先頭咳嗽音
2.中間相--安定気流
3.発音相--別名第2咳嗽音。この相は、常に存在するわけではない。
1.気管分岐部--呼気相は、気道周辺における気管分岐部のレベルに対する病理学的状況を反映する。
2.気管--中間相は、気管内のプロセスを反映する。
3.喉頭部--発音相は、喉頭部についての情報を提供する。
1.咳嗽カウント--患者からの咳嗽を検出し、所定の期間内に検出される咳嗽の数をカウントする。
2.咳嗽診断--検出された咳嗽音を処理して疾病診断を作成し、その後に続く適切な治療の提供を補助する。
電子形式で音波を獲得するステップと、
音波から抽出した特徴を、咳嗽音の呼気相を検出するべくトレーニングされた第1のクラシファイアおよび咳嗽音の1つまたは複数の呼気後の相を検出するべくトレーニングされた第2のクラシファイアを含む少なくとも2つの電子パターン・クラシファイアに適用するステップと、を含む。
音波を導入するためのトランスデューサからの出力をデジタル化するためのデジタル化アッセンブリと、
デジタル化アッセンブリと通信する、音波の連続セグメントから複数の特徴を抽出するための特徴抽出アッセンブリと、
咳嗽音の呼気相を認識するべくトレーニングされた、特徴抽出アッセンブリに応答する第1のクラシファイアと、
咳嗽音の1つまたは複数の呼気後の相を認識するべくトレーニングされた、特徴抽出アッセンブリに応答する第2のクラシファイアと、
第1のクラシファイアおよび第2のクラシファイアからの出力に基づいて咳嗽音を識別するべくアレンジされたクラシファイア後咳嗽識別プロセッサと、を含む。
音波から抽出された特徴を電子パターン・クラシファイアに適用するステップであって、
咳嗽の呼気相と、
咳嗽音の1つまたは複数の呼気後の相と、
非咳嗽事象の存在と、
を検出するべく構成された電子パターン・クラシファイアに適用するステップと、
これらの呼気相、1つまたは複数の呼気後の相、および非咳嗽事象の存在の検出に対応する電子パターン・クラシファイアからの信号を考慮に入れて咳嗽が検出されたと見做すステップと、を含む。
図5Aは、本発明の好ましい実施態様に従った咳嗽検出のための方法のフローチャートである。最初に、ボックス51において、たとえば、デジタル・レコーダのマイクロフォンを用いて患者を録音することによって、咳嗽音を含んでいる可能性のあるテスト・オーディオ・データが獲得される。ボックス53においては、テスト・オーディオ・データが、ハイおよびロー・パス・フィルタリングおよびアナログ・デジタル変換によって前処理される。ボックス55においては、デジタル化された音信号がフレームにセグメント化され、時間遅延ニューラル・ネット・クラシファイアに信号を印加することが可能となるように、時間遅延が適用される。ボックス57においては、デジタル化された信号の各フレームが解析されて、特定の特徴の存在が決定され、本発明の好ましい実施態様においては、これらの特徴が、メル周波数ケプストラム係数(MFCC)および信号の対数エネルギ特徴を含む。
観察対象からのオーディオ信号がマイクロフォン601によって導入され、フィルタ602によるアンチエイリアシング・フィルタリングを受ける。AAFフィルタ602からのフィルタリング後のアナログ信号が、アナログ・デジタル・コンバータ607に渡される。ADC 603からのデジタル化後の信号は、デジタル信号処理パイプラインの第1ステップとして、フィルタ605および607によりハイおよびロー・パス・フィルタリングされる。現在説明している本発明の実施態様においては、ハイ・パス・フィルタ605のカットオフ周波数が50Hzであり、ロー・パス・フィルタ607のカットオフ周波数が16kHzである。
LPF 607からの、デジタル化され、フィルタリングされた後のオーディオ信号は、フレーム・セグメンタ609によって1024サンプルのオーバーラップのないフレームにセグメント化される。各フレームは、オーディオ持続時間の23.2ミリ秒を表す。各フレームについて、特徴抽出器アッセンブリ611a-611nによって14の特徴値が抽出される。現在説明している本発明の好ましい実施態様においては、抽出される特徴が、各フレームの、ゼロ次の係数を含む13のメル周波数ケプストラム係数(MFCC)、および対数エネルギに対応する特徴も包含する。特徴抽出器611a-611nの出力は、シーケンシャル特徴ベクトル・レジスタ613に渡される。レジスタ613内にストアされる各特徴ベクトルは、対応する14の抽出済みの特徴のための値を有する。
I.NN1が、スレッショルド(thd1)より上である。
II.NN1が、スレッショルド(thd1)より下であり、NN2が、スレッショルド(thd2)より上である。
III.フレームRMSパワー推定器628からの出力が、フレームのRMSパワーが、推定された背景雑音RMSレベルの10倍より高いことを示す。フレームRMSパワー推定器は、それまでの録音の間における最下位側の1024のRMSフレームを平均することによって背景雑音レベルを推定するべくアレンジされている。NN1とNN2の間にギャップが存在することもあるため、RMSベースの継続が組み込まれる。RMSベースのブリッジングは、NN2フレームがまだ検出されていないときにのみ行われる。
I.NN1出力フィルタ619からの出力が、上向きの方向においてNN2出力フィルタ621からの出力と交差する。
II.NN1比較器623からの出力が、NN1出力フィルタ619からの出力がthd1より下であることを示し;NN2比較器625からの出力が、NN2出力フィルタ621からの出力がthd2より下であることを示し、かつフレームRMSパワー推定器628からの出力が、フレームのRMSパワーが推定された背景雑音レベルの10倍より低いことを示す。
III.現在のフレーム(t)のためのNN1出力フィルタ619の出力がthd1より大きく、以前のフレーム(t-1)のためのNN1出力フィルタ619の出力がthd1より小さく、かつ現在の(可能性のある)検出された咳嗽事象において、NN2フレーム(1つまたは複数)が、NN2比較器からの出力がハイに向かう(すなわち、NN2出力フィルタ621からの出力がthd2を超える)結果をもたらすことが検出されている。
I.咳嗽の持続時間が、咳嗽の最小長(150ミリ秒)より短い。
II.咳嗽の持続時間が、咳嗽の最大長(750ミリ秒)より長い。
III.咳嗽のNN1出力フィルタ619とNN2出力フィルタ621の組み合わせ後のRMSパワー出力が、トレーニング・プロセスの間に決定されたあらかじめ決定済みのスレッショルド値thd3より低い。
IV.咳嗽の中でスレッショルド・レベルthd1より上を示すNN1比較器623の出力のフレームが3つ未満である。
V.咳嗽の中でスレッショルドthd2より上であるとして示されるNN2比較器625の出力のフレームが2つ未満である。
TDNN1出力のRMSをX1からX2まで計算する(=rms_nn1)。
TDNN2出力のRMSをX2からX3まで計算する(=rms_nn2)。
X1=TDNN1>thd1
X2=TDNN2>thd2、かつTDNN2>TDNN1
X3=TDNN2<=thd2。
rms_nn1=[(TDNN1>thd1)から(TDNN1<=thd1)までのnn1のrms]
rms_nn2=[(TDNN2>thd2)から(TDNN2<=thd2)までのnn2のrms]
言い換えると、確率RMSは、両方のネットワークがスレッショルドより下にある場合には計算されない。
咳嗽識別アルゴリズムの予期される研究が行われ、インドの経験を積んだヘルスケア専門家によって子供の咳嗽が録音された。これらの録音は、話し声、自動車のクラクション、音楽、および機械から発生する雑音を含む有意の背景雑音が含まれる環境内で行われた。NNが、ほかの参照データに対してトレーニングされ、52の録音に対してテストされた。
手前で述べたとおり、本発明の好ましい実施態様は、2つの時間遅延ニューラル・ネットワークがトレーニングされることを必要とする。TDNN1 615は、初期の咳嗽音、すなわち各咳嗽の呼気相を検出するべくトレーニングされる。第2のネットワークTDNN2 617は、中間相および、存在する場合には発音咳嗽音を含む咳嗽の残りの部分を検出するべくトレーニングされる。
DOI=http://dx.doi.org/10.1145/2030112.2030163;および
第1のネットワークのトレーニングを、RMS(平方二乗平均)が全体の咳嗽音の平均RMSより高い、手作業でマーク付けした咳嗽の第1のフレームから開始する4つの処理フレームに対して行う。手作業でマーク付けした咳嗽の残りは、陰性ターゲットとしてトレーニングされる。ターゲットと陰性ターゲットの間の2つの処理フレームは、混乱を低減するためにトレーニングされない。陰性の例は、そのままトレーニングされる。図8は、第1のニューラル・ネットワーク615のための陽性(ライン96)および陰性(ライン98)のターゲットとしてトレーニングされる咳嗽の部分を図解している。それに加えて、話し声、泣き声、拍手、および機械が発生する雑音の例が、陰性のトレーニングの例として使用される。
第2のネットワークTDNN2 617は、第1のそれとは反対の態様でトレーニングされる。咳嗽の一番最初、および開始から数えて最初の4つのフレームが、陰性ターゲットとしてトレーニングされる。合間の1つのフレームをスキップし、その後、咳嗽の残りすべてのフレームのRMSが、全体の咳嗽信号の平均RMSの0.1倍より高ければ、それらを陽性ターゲットとしてトレーニングする。背景雑音を多くリサンプルしている非常にエネルギの低いフレームは、外される。この場合においても、陰性の例は、そのままトレーニングされる。図10は、第2のニューラル・ネットワークのための陽性ターゲット101および陰性ターゲット103としてトレーニングされる咳嗽の部分を図解している。
咳嗽フレームの分類にニューラル・ネットワークを使用することは、2モデルまたはマルチクラス・モデル構造のいずれにおいても必須でない。発明者らは、ここに示した方法のテストを、ほかのいくつかのモデル・タイプを用いても行った。
● 決定木のアンサンブル
● 勾配ブースティング・ツリー
● 代替ニューラル・ネットワーク・ソフトウエア
3 プロセッシング・アッセンブリ
3a 隠れ層
4 ライン
5 電子メモリ
6 ライン、アプリ
7 データ・バス
8 ライン、オペレーティング・システム
10 ライン
11 LCDスクリーン
12 ライン
13 タッチスクリーン・インターフェース
14 ライン
16 ライン
18 ライン
20 ライン
21 オーディオ・インターフェース・アッセンブリ
22 ライン
23 WAN/LANアッセンブリ
24 ライン
25 マイクロフォン
26 ライン
28 ライン
29 無線周波数アンテナ
31 データ通信ネットワーク
33 リモート・サーバ
36 咳嗽検出アプリ、咳嗽診断アプリ
39 咳嗽検出装置、装置
51 ニューラル・ネット・アレンジメント
53 NN、ニューラル・ネットワーク(NN)
55 出力
96 ライン
98 ライン
101 陽性ターゲット
103 陰性ターゲット
111 出力
113 出力
115 咳嗽
600 咳嗽検出器、咳嗽検出装置
601 マイクロフォン
602 フィルタ、AAFフィルタ
603 ADC、アナログ・デジタル・コンバータ
605 フィルタ、ハイ・パス・フィルタ
607 フィルタ、ロー・パス・フィルタ、LPF
609 フレーム・セグメンタ
613 レジスタ、特徴ベクトル・レジスタ
615 時間遅延ニューラル・ネット、TDNN、TDNN1
617 時間遅延ニューラル・ネット、TDNN、TDNN2
619 NN1スムージング・フィルタ、NN1出力フィルタ
621 NN2スムージング・フィルタ、NN2出力フィルタ
623 比較器、NN1比較器
625 NN2比較器
627 後NN咳嗽IDプロセッサ
628 フレームRMSパワー推定器
629 識別済み咳嗽フラッガ
1300 ニューラル・ネットワーク
57a-57d 咳嗽音
611a-611n 特徴抽出器アッセンブリ、特徴抽出器
thd1-thd3 スレッショルド値、スレッショルド・レベル
Claims (23)
- 音波から咳嗽音を検出するための方法であって、
電子形式で前記音波を獲得するステップと、
前記音波から抽出した特徴を、咳嗽音の呼気相を検出するようにトレーニングされた第1のクラシファイアおよび前記咳嗽音の1つまたは複数の呼気後の相を検出するようにトレーニングされた第2のクラシファイアを含む少なくとも2つの電子パターン・クラシファイア、に適用するステップと、
を含む方法。 - 前記音波から抽出した前記特徴を、前記第1のクラシファイアが前記咳嗽音の呼気相として前記音波の特徴を分類した後にのみ、前記第2のクラシファイアに適用することを含む、請求項1に記載の方法。
- 前記第1のクラシファイアが、前記呼気相に関して陽性かつ前記呼気相の後に続く前記咳嗽音の部分に関して陰性のトレーニングに従ってアレンジされる、請求項1または請求項2に記載の方法。
- 前記呼気相の終了と、前記呼気相の後に続く前記咳嗽音の開始の間にギャップを提供することを含む、請求項3に記載の方法。
- 前記第2のクラシファイアが、前記呼気相に関して陰性かつ前記呼気相の後に続く前記咳嗽音の部分に関して陽性のトレーニングに従ってアレンジされる、請求項3に記載の方法。
- 前記第1および第2のクラシファイアが、単一の隠れ層を有するニューラル・ネットを包含する、請求項3ないし5のいずれか一項に記載の方法。
- 前記特徴が、前記音波のメル周波数ケプストラム係数に対応する特徴を含む、請求項1ないし6のいずれか一項に記載の方法。
- さらに、前記特徴が、前記音波の対数エネルギに対応する特徴を含む、請求項7に記載の方法。
- 前記第1および第2のクラシファイアが、時間遅延ニューラル・ネットを包含する、請求項1ないし8のいずれか一項に記載の方法。
- 音波の咳嗽音を検出するための装置であって、
音波を導入するためのトランスデューサからの出力をデジタル化するためのデジタル化アッセンブリと、
前記デジタル化アッセンブリと通信する、前記音波の連続セグメントから複数の特徴を抽出するための特徴抽出アッセンブリと、
咳嗽音の呼気相を認識するようにトレーニングされた、前記特徴抽出アッセンブリに応答する第1のクラシファイアと、
前記咳嗽音の1つまたは複数の呼気後の相を認識するようにトレーニングされた、前記特徴抽出アッセンブリに応答する第2のクラシファイアと、
前記第1のクラシファイアおよび前記第2のクラシファイアからの出力に基づいて前記咳嗽音を識別するようにアレンジされたクラシファイア後咳嗽識別プロセッサと、
を含む装置。 - 前記クラシファイア後咳嗽識別プロセッサが、前記咳嗽音の前記呼気相の検出を示す前記第1のクラシファイアの前記出力の後に続いて生じる前記第2のクラシファイアの出力に応答するようにアレンジされる、請求項10に記載の装置。
- 前記第1のクラシファイアおよび前記第2のクラシファイアが、第1および第2のニューラル・ネットを包含し、前記第1のニューラル・ネットが、前記呼気相を検出する陽性トレーニングに従って重み付けされ、かつ、前記第2のニューラル・ネットが、前記1つまたは複数の呼気後の相を検出する陽性トレーニングに従って重み付けされる、請求項10または請求項11に記載の装置。
- 前記第1のニューラル・ネットが、さらに、前記呼気相に関する陽性トレーニングおよび前記呼気後の相に関する陰性トレーニングに従って重み付けされる、請求項12に記載の装置。
- 前記第2のニューラル・ネットが、さらに、前記呼気相に関する陰性トレーニングおよび前記呼気後の相に関する陽性トレーニングに従って重み付けされる、請求項12または請求項13に記載の装置。
- 前記音波からメル周波数ケプストラム係数(MFCC)を抽出するように構成された特徴抽出アッセンブリを含む、請求項10ないし14のいずれか一項に記載の装置。
- 前記特徴抽出アッセンブリが、ゼロ次のMFCCを含むMFCCを抽出するようにアレンジされている、請求項15に記載の装置。
- 前記特徴抽出アッセンブリが、さらに、前記音波から対数エネルギ特徴を抽出するようにアレンジされている、請求項15または請求項16に記載の装置。
- 前記第1および第2のクラシファイアの出力と、それぞれ、前記呼気相および前記呼気後の相の検出確率レベルを評価するためのスレッショルド値とを比較するための第1および第2の比較器を含む、請求項10ないし17のいずれか一項に記載の装置。
- 前記クラシファイア後咳嗽識別プロセッサが、前記咳嗽音を識別するために前記比較器に応答する、請求項18に記載の装置。
- 前記音波の咳嗽音を検出するための装置が、前記音波のセグメントのRMSパワーを推定するためのRMSパワー推定器を含み、前記クラシファイア後咳嗽識別プロセッサが、前記RMSパワー推定器からの出力を考慮に入れて前記咳嗽音を識別するように構成されている、請求項10ないし19のいずれか一項に記載の装置。
- 前記クラシファイア後咳嗽識別プロセッサに応答する咳嗽フラッガ・アッセンブリを含み、
前記咳嗽フラッガ・アッセンブリが、咳嗽音を含むことが識別された前記音波の部分を記録するようにアレンジされている、
請求項10ないし20のいずれか一項に記載の装置。 - 前記第1および第2のニューラル・ネットが、前記特徴抽出アッセンブリから出る一連の時間遅延された特徴ベクトルを処理するための時間遅延ニューラル・ネットを包含する、請求項12ないし14のいずれか一項に記載の装置。
- 音波から咳嗽音を検出するための方法であって、
前記音波から抽出された特徴を、咳嗽音の呼気相、前記咳嗽音の1つまたは複数の呼気後の相および非咳嗽事象の存在を検出するようにトレーニングされた前記電子パターン・クラシファイア、に適用するステップと、
前記呼気相、前記1つまたは複数の呼気後の相、および前記非咳嗽事象の存在の検出に対応する前記電子パターン・クラシファイアからの信号を考慮に入れて咳嗽が検出されたと見做すステップと、
を含む方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2017900300 | 2017-02-01 | ||
AU2017900300A AU2017900300A0 (en) | 2017-02-01 | Improved methods and apparatus | |
AU2017902184A AU2017902184A0 (en) | 2017-06-08 | Improvements to methods and apparatus | |
AU2017902184 | 2017-06-08 | ||
PCT/AU2018/050062 WO2018141013A2 (en) | 2017-02-01 | 2018-02-01 | Methods and apparatus for cough detection in background noise environments |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020508726A JP2020508726A (ja) | 2020-03-26 |
JP7092777B2 true JP7092777B2 (ja) | 2022-06-28 |
Family
ID=63039222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019542568A Active JP7092777B2 (ja) | 2017-02-01 | 2018-02-01 | 背景雑音環境における咳嗽検出のための方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11986283B2 (ja) |
EP (1) | EP3566225B1 (ja) |
JP (1) | JP7092777B2 (ja) |
CN (1) | CN110383375B (ja) |
AU (1) | AU2018214442B2 (ja) |
DK (1) | DK3566225T3 (ja) |
WO (1) | WO2018141013A2 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3566225T3 (da) | 2017-02-01 | 2021-05-31 | Resapp Health Ltd | Metode og apparat til detektering af hoste i baggrunden |
WO2020047264A1 (en) * | 2018-08-31 | 2020-03-05 | The Trustees Of Dartmouth College | A device embedded in, or attached to, a pillow configured for in-bed monitoring of respiration |
WO2020077413A1 (en) * | 2018-10-17 | 2020-04-23 | The University Of Queensland | A method and apparatus for diagnosis of maladies from patient sounds |
US11948690B2 (en) * | 2019-07-23 | 2024-04-02 | Samsung Electronics Co., Ltd. | Pulmonary function estimation |
US10709353B1 (en) | 2019-10-21 | 2020-07-14 | Sonavi Labs, Inc. | Detecting a respiratory abnormality using a convolution, and applications thereof |
US10716534B1 (en) | 2019-10-21 | 2020-07-21 | Sonavi Labs, Inc. | Base station for a digital stethoscope, and applications thereof |
US10750976B1 (en) * | 2019-10-21 | 2020-08-25 | Sonavi Labs, Inc. | Digital stethoscope for counting coughs, and applications thereof |
US10709414B1 (en) | 2019-10-21 | 2020-07-14 | Sonavi Labs, Inc. | Predicting a respiratory event based on trend information, and applications thereof |
US10702239B1 (en) | 2019-10-21 | 2020-07-07 | Sonavi Labs, Inc. | Predicting characteristics of a future respiratory event, and applications thereof |
AU2020404447A1 (en) * | 2019-12-16 | 2022-06-23 | Pfizer Inc. | Method and apparatus for automatic cough detection |
CA3164369A1 (en) * | 2019-12-16 | 2021-06-24 | ResApp Health Limited | Diagnosing respiratory maladies from subject sounds |
CN111653273A (zh) * | 2020-06-09 | 2020-09-11 | 杭州叙简科技股份有限公司 | 一种基于智能手机的院外肺炎初步识别方法 |
US11134354B1 (en) | 2020-06-15 | 2021-09-28 | Cirrus Logic, Inc. | Wear detection |
US11219386B2 (en) | 2020-06-15 | 2022-01-11 | Cirrus Logic, Inc. | Cough detection |
WO2022010232A1 (ko) * | 2020-07-09 | 2022-01-13 | 한국과학기술원 | 딥러닝 기반의 기침 인식 방법 및 장치 |
WO2022015010A1 (ko) | 2020-07-13 | 2022-01-20 | 다인기술 주식회사 | 음향 신호를 분석하여 기침을 계수하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
US11862188B2 (en) * | 2020-10-22 | 2024-01-02 | Google Llc | Method for detecting and classifying coughs or other non-semantic sounds using audio feature set learned from speech |
CN112309423A (zh) * | 2020-11-04 | 2021-02-02 | 北京理工大学 | 驾驶环境下基于智能手机音频感知的呼吸道症状检测方法 |
WO2022147566A1 (en) * | 2021-01-04 | 2022-07-07 | Covid Cough, Inc. | A method and system for machine learning using a derived machine learning blueprint |
WO2023041406A1 (en) | 2021-09-15 | 2023-03-23 | Bayer Aktiengesellschaft | Body action detection, identification and/or characterization using a machine learning model |
CN114209302B (zh) * | 2021-12-08 | 2024-03-26 | 赵永源 | 基于数据不确定性学习的咳嗽检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007525236A (ja) | 2003-04-10 | 2007-09-06 | ヴィヴォメトリクス・インコーポレーテッド | 呼吸事象検出システムおよび方法 |
JP2009532072A (ja) | 2005-11-01 | 2009-09-10 | アーリーセンス エルティディ | 臨床発作患者の監視方法及びシステム |
JP2009233103A (ja) | 2008-03-27 | 2009-10-15 | Konica Minolta Medical & Graphic Inc | 咳嗽検出装置及び咳嗽検出装置のプログラム |
US20140336537A1 (en) | 2011-09-15 | 2014-11-13 | University Of Washington Through Its Center For Commercialization | Cough detecting methods and devices for detecting coughs |
US20140343447A1 (en) | 2009-09-18 | 2014-11-20 | Speech Technology & Applied Research Corporation | Cough Analysis |
JP2015514456A (ja) | 2012-03-29 | 2015-05-21 | ザ ユニバーシティ オブ クィーンズランド | 患者音を処理するための方法および装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07376A (ja) * | 1993-06-15 | 1995-01-06 | Chiesuto M I Kk | 咳記録装置 |
US6168568B1 (en) * | 1996-10-04 | 2001-01-02 | Karmel Medical Acoustic Technologies Ltd. | Phonopneumograph system |
AU2005258237A1 (en) | 2004-06-24 | 2006-01-05 | Adidas Ag | Systems and methods for monitoring cough |
JP2007327993A (ja) | 2006-06-06 | 2007-12-20 | Konica Minolta Medical & Graphic Inc | 音声モニタシステム、音声モニタ方法、プログラム、咳検出システム |
US8411977B1 (en) | 2006-08-29 | 2013-04-02 | Google Inc. | Audio identification using wavelet-based signatures |
JP5781926B2 (ja) | 2008-06-17 | 2015-09-24 | コーニンクレッカ フィリップス エヌ ヴェ | 音声分類器とマイクロホンを用いる音響患者モニタリング |
US11315687B2 (en) * | 2012-06-18 | 2022-04-26 | AireHealth Inc. | Method and apparatus for training and evaluating artificial neural networks used to determine lung pathology |
EP3097847A1 (en) | 2015-05-28 | 2016-11-30 | Nitetronic Holding Limited | Wearable device and system for stopping airway disorders including such a wearable device |
US11980484B2 (en) | 2015-08-26 | 2024-05-14 | Resmed Sensor Technologies Limited | Systems and methods for monitoring and management of chronic disease |
DK3566225T3 (da) | 2017-02-01 | 2021-05-31 | Resapp Health Ltd | Metode og apparat til detektering af hoste i baggrunden |
-
2018
- 2018-02-01 DK DK18748530.5T patent/DK3566225T3/da active
- 2018-02-01 WO PCT/AU2018/050062 patent/WO2018141013A2/en unknown
- 2018-02-01 CN CN201880015986.6A patent/CN110383375B/zh active Active
- 2018-02-01 EP EP18748530.5A patent/EP3566225B1/en active Active
- 2018-02-01 JP JP2019542568A patent/JP7092777B2/ja active Active
- 2018-02-01 US US16/483,013 patent/US11986283B2/en active Active
- 2018-02-01 AU AU2018214442A patent/AU2018214442B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007525236A (ja) | 2003-04-10 | 2007-09-06 | ヴィヴォメトリクス・インコーポレーテッド | 呼吸事象検出システムおよび方法 |
JP2009532072A (ja) | 2005-11-01 | 2009-09-10 | アーリーセンス エルティディ | 臨床発作患者の監視方法及びシステム |
JP2009233103A (ja) | 2008-03-27 | 2009-10-15 | Konica Minolta Medical & Graphic Inc | 咳嗽検出装置及び咳嗽検出装置のプログラム |
US20140343447A1 (en) | 2009-09-18 | 2014-11-20 | Speech Technology & Applied Research Corporation | Cough Analysis |
US20140336537A1 (en) | 2011-09-15 | 2014-11-13 | University Of Washington Through Its Center For Commercialization | Cough detecting methods and devices for detecting coughs |
JP2015514456A (ja) | 2012-03-29 | 2015-05-21 | ザ ユニバーシティ オブ クィーンズランド | 患者音を処理するための方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200015709A1 (en) | 2020-01-16 |
CN110383375A (zh) | 2019-10-25 |
EP3566225A4 (en) | 2020-02-12 |
US11986283B2 (en) | 2024-05-21 |
WO2018141013A3 (en) | 2019-01-03 |
AU2018214442B2 (en) | 2022-03-10 |
EP3566225A2 (en) | 2019-11-13 |
DK3566225T3 (da) | 2021-05-31 |
CN110383375B (zh) | 2024-02-13 |
EP3566225B1 (en) | 2021-04-07 |
AU2018214442A1 (en) | 2019-08-15 |
WO2018141013A2 (en) | 2018-08-09 |
JP2020508726A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7092777B2 (ja) | 背景雑音環境における咳嗽検出のための方法および装置 | |
Chen et al. | Triple-classification of respiratory sounds using optimized s-transform and deep residual networks | |
Varghees et al. | Effective heart sound segmentation and murmur classification using empirical wavelet transform and instantaneous phase for electronic stethoscope | |
Karunajeewa et al. | Multi-feature snore sound analysis in obstructive sleep apnea–hypopnea syndrome | |
CN118141344A (zh) | 用于估计扣除用户引起的伪影的用户耳内的噪声暴露量的方法和系统 | |
US20220007964A1 (en) | Apparatus and method for detection of breathing abnormalities | |
EP3562401B1 (en) | Method of characterizing sleep disordered breathing | |
JP2013123495A (ja) | 呼吸音解析装置、呼吸音解析方法、呼吸音解析プログラムおよび記録媒体 | |
Sharan et al. | Cough sound analysis for diagnosing croup in pediatric patients using biologically inspired features | |
JP6562450B2 (ja) | 嚥下検出装置、嚥下検出方法およびプログラム | |
Markandeya et al. | Smart phone based snoring sound analysis to identify upper airway obstructions | |
Chatterjee et al. | WheezeD: Respiration phase based wheeze detection using acoustic data from pulmonary patients under attack | |
Selvakumari et al. | A voice activity detector using SVM and Naïve Bayes classification algorithm | |
CN114333901A (zh) | 呼吸异常分类模型的训练、呼吸异常检测方法及电子设备 | |
JP7061126B6 (ja) | 睡眠呼吸障害を特徴付ける方法 | |
Hamidah et al. | Effective heart sounds detection method based on signal's characteristics | |
KR20160147591A (ko) | 천식 진단을 위한 청진음 신호의 전처리 방법 및 장치 | |
Bertschinger et al. | Feasibility of cough detection and classification using artificial intelligence in an ambulatory setting with a ceiling mounted microphone | |
Leal et al. | Detection of different types of noise in lung sounds | |
JP2005010652A (ja) | 音声検出装置 | |
Dagar et al. | Analysis of Respiratory Signals in Spectral Domain for Detecting Respiratory Disorders with Emphasis on COVID-19 | |
Fahed et al. | Random forest classification of breathing phases from audio signals recorded using mobile devices | |
US11881200B2 (en) | Mask generation device, mask generation method, and recording medium | |
JP6963795B2 (ja) | 嚥下音判定装置及び嚥下音判定方法 | |
CN115644848A (zh) | 一种基于语音信号的肺功能参数测量方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220531 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7092777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |