JP7092777B2 - 背景雑音環境における咳嗽検出のための方法および装置 - Google Patents

背景雑音環境における咳嗽検出のための方法および装置 Download PDF

Info

Publication number
JP7092777B2
JP7092777B2 JP2019542568A JP2019542568A JP7092777B2 JP 7092777 B2 JP7092777 B2 JP 7092777B2 JP 2019542568 A JP2019542568 A JP 2019542568A JP 2019542568 A JP2019542568 A JP 2019542568A JP 7092777 B2 JP7092777 B2 JP 7092777B2
Authority
JP
Japan
Prior art keywords
cough
sound
classifier
phase
coughing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019542568A
Other languages
English (en)
Other versions
JP2020508726A (ja
Inventor
ツオマス クリスチャン ペルトネン,ヴェサ
ジェームズ キーティング,アンソニー
キム パートリッジ,ニコラス
Original Assignee
レスアップ ヘルス リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2017900300A external-priority patent/AU2017900300A0/en
Application filed by レスアップ ヘルス リミテッド filed Critical レスアップ ヘルス リミテッド
Publication of JP2020508726A publication Critical patent/JP2020508726A/ja
Application granted granted Critical
Publication of JP7092777B2 publication Critical patent/JP7092777B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0823Detecting or evaluating cough events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本発明は、患者等の観察対象からの音を処理して咳嗽音を検出するための方法および装置に関する。
先行技術の方法、装置、または文献に対するいかなる参照も、共通の一般的な知識の部分を形成したか、またはそれを形成する何らかの証拠または自認を構成するとして解釈されるべきではない。
先行技術において周知のとおり、咳嗽は、よく理解されている音によって特徴付けられる気道からの急激な呼気の吐き出しにより呈される。非特許文献1によれば、1つの咳嗽努力の可調咳嗽音は、次に示すとおり、2つまたは3つの相を構成する。
1.呼気相--先頭咳嗽音
2.中間相--安定気流
3.発音相--別名第2咳嗽音。この相は、常に存在するわけではない。
これら3つの相は、咳嗽音の録音の時間ドメインの振幅プロットを表した図1の典型的な咳嗽音について識別される。
非特許文献2によれば、これら3つの相は、気道の3つの異なる身体エリアに起因する。
1.気管分岐部--呼気相は、気道周辺における気管分岐部のレベルに対する病理学的状況を反映する。
2.気管--中間相は、気管内のプロセスを反映する。
3.喉頭部--発音相は、喉頭部についての情報を提供する。
近年、人間の観察対象からの音を処理して咳嗽音を検出する自動化されたアプローチを使用することが知られるようになった。
たとえば、参照によりその開示をこれに援用するアベイラトネ(Abeyratne)ほかによる特許文献1においては、患者からの音を処理し、咳嗽に対応するときのその音の導管を識別するべく特別に構成された装置が記述されている。
概して言えば、咳嗽検出方法のための応用は次の2つである。
1.咳嗽カウント--患者からの咳嗽を検出し、所定の期間内に検出される咳嗽の数をカウントする。
2.咳嗽診断--検出された咳嗽音を処理して疾病診断を作成し、その後に続く適切な治療の提供を補助する。
咳嗽カウントについては、咳嗽がいつ生じたかを識別することだけが重要であり、咳嗽の開始および終了を正確に定義することが可能である必要はない。しかしながら、咳嗽診断について、自動化された咳嗽診断方法のために咳嗽オーディオ信号全体が利用可能にすることが重要であり、したがって、咳嗽の開始および終了を正確に定義することが非常に重要である。
手前で述べた特許文献1に記述されているような自動化された咳嗽検出方法が望ましい理由は、診断サービスの低コストの引き渡しが必要とされるエリアにおいてその方法が容易に使用可能であるということである。しかしながら、その種のエリアは、高レベルの街頭雑音およびそのほかの容易な回避が可能でない背景音を含み、正確な診断にしばしば困難を呈する。たとえば、より社会経済的に低い界隈の交通量の多い通りにある込み合った診療所内において医療専門家は、より静かな環境において患者の音をサンプリングする選択肢をまったく有さないことがある。
手前で述べた特許文献1に記述されている方法は、良好に機能するが、本発明者らは、特に困難な周囲状況の中では提供された咳嗽検出が、その後に続く咳嗽診断のために必ずしも適当でない可能性があることを見出した。たとえば、困難な周囲状況には、雑音の多い背景の中で生じる咳嗽音、または観察対象が子供の場合に起こり得るような続けざまに発せられる咳嗽音を含み得る。
米国特許出願公開第2015/0073306号明細書
モリス・エー、フォンタナ・ジー、ベルビジ・エム、ビリング・エス、チャン・ケー(Morice, A., Fontana, G., Belvisi, M., Birring, S., Chung, K.)ほか著「イー・アール・エス・ガイドラインズ・オン・ザ・アセスメント・オブ・コフ(ERS guidelines on the assessment of cough)」ヨーロピアン・レスピラトリ・ジャーナル(European Respiratory Journal)vol.29、pp.1256-1276、2007年 コルパス・ジェイ、サドロノバ・ジェイ、ウラベック・エム(Korpas J, Sadlonova J, Vrabec M)著「アナリシス・オブ・ザ・コフ・サウンド:アン・オーバービュー(Analysis of the cough sound: an overview)」パルモナリ・ファーマコロジー(Pulm Pharmacol.)、1996年、9 (5-6):261-10.1006/pulp.1996.0034
本発明は、患者の音の中に存在する、背景雑音を受けやすい咳嗽を検出するための改良された方法および装置を提供することを目的とする。
本発明の第1の側面によれば、音波から咳嗽音を検出するための方法が提供され、当該方法は、
電子形式で音波を獲得するステップと、
音波から抽出した特徴を、咳嗽音の呼気相を検出するべくトレーニングされた第1のクラシファイアおよび咳嗽音の1つまたは複数の呼気後の相を検出するべくトレーニングされた第2のクラシファイアを含む少なくとも2つの電子パターン・クラシファイアに適用するステップと、を含む。
本発明の好ましい実施態様においては、この方法が、音波から抽出した特徴を、第1のクラシファイアが咳嗽音の呼気相としてその音波の特徴を分類した後にのみ、第2のクラシファイアに適用するステップを含む。
この方法の好ましい実施態様においては、第1のクラシファイアが、呼気相に関して陽性かつ呼気相の後に続く咳嗽音の部分に関して陰性のトレーニングに従ってアレンジされる。
好ましくは、この方法が、呼気相の終了と、呼気相の後に続く前記咳嗽音の開始の間にギャップを提供することを含む。
この方法の好ましい実施態様においては、第2のクラシファイアが、呼気相に関して陰性かつ呼気相の後に続く咳嗽音の部分に関して陽性のトレーニングに従ってアレンジされる。
好ましくは、第2のクラシファイアが、手前で述べたトレーニングに従ってアレンジされ、それにおいては、呼気相の終了と、呼気相の後に続く前記咳嗽音の開始の間にギャップが提供される。
本発明の好ましい実施態様においては、特徴が、音波のメル周波数ケプストラム係数に対応する特徴を含む。
好ましくは、特徴が、さらに、音波の対数エネルギに対応する特徴を含む。
好ましくは、第1および第2のクラシファイアが、時間遅延ニューラル・ネットを包含する。
本発明のさらなる側面によれば、音波の咳嗽音を検出するための装置が提供され、当該装置は、
音波を導入するためのトランスデューサからの出力をデジタル化するためのデジタル化アッセンブリと、
デジタル化アッセンブリと通信する、音波の連続セグメントから複数の特徴を抽出するための特徴抽出アッセンブリと、
咳嗽音の呼気相を認識するべくトレーニングされた、特徴抽出アッセンブリに応答する第1のクラシファイアと、
咳嗽音の1つまたは複数の呼気後の相を認識するべくトレーニングされた、特徴抽出アッセンブリに応答する第2のクラシファイアと、
第1のクラシファイアおよび第2のクラシファイアからの出力に基づいて咳嗽音を識別するべくアレンジされたクラシファイア後咳嗽識別プロセッサと、を含む。
好ましくは、クラシファイア後咳嗽識別プロセッサが、咳嗽音の呼気相の検出を示す第1のクラシファイアの出力の後に続いて生じる第2のクラシファイアの出力に応答するべくアレンジされる。
本発明の好ましい実施態様においては、第1のクラシファイアおよび第2のクラシファイアが、第1および第2のニューラル・ネットを包含し、それにおいて第1のニューラル・ネットは、呼気相を検出する陽性トレーニングに従って重み付けされ、かつそれにおいて第2のニューラル・ネットは、1つまたは複数の呼気後の相を検出する陽性トレーニングに従って重み付けされる。
第1のニューラル・ネットが、さらに、呼気相に関する陽性トレーニングおよび呼気後の相に関する陰性トレーニングに従って重み付けされると好ましい。
また、第2のニューラル・ネットが、さらに、呼気相に関する陰性トレーニングおよび呼気後の相に関する陽性トレーニングに従って重み付けされることも好ましい。
本発明の好ましい実施態様においては、特徴抽出アッセンブリが、音波からメル周波数ケプストラム係数(MFCC)を抽出するべくアレンジされる。
好ましくは、特徴抽出アッセンブリが、ゼロ次のMFCCを含むMFCCを抽出するべくアレンジされる。
特徴抽出アッセンブリは、音波から対数エネルギ特徴を抽出するべくアレンジされると好ましい。
本発明の好ましい実施態様においては、この装置が、第1および第2のクラシファイアの出力と、それぞれ、呼気相および呼気後の相の検出確率レベルを評価するためのスレッショルド値とを比較するための第1および第2の比較器を含む。
本発明の好ましい実施態様においては、咳嗽識別プロセッサが、咳嗽音を識別するために比較器に応答する。
好ましくは、咳嗽音識別器が、音波のセグメントのRMSパワーを推定するためのRMSパワー推定器を含み、それにおいて、咳嗽識別プロセッサは、RMSパワー推定器からの出力を考慮に入れて咳嗽音を識別するべくアレンジされる。
この装置が、ポスト咳嗽識別プロセッサに応答する咳嗽フラッガ・アッセンブリを含むと好ましく、それにおいて咳嗽フラッガ・アッセンブリは、咳嗽音を含むことが識別された音波の部分を記録するべくアレンジされる。
第1および第2のニューラル・ネットが、好ましくは、特徴抽出アッセンブリから出る時間遅延された特徴ベクトルのシーケンスを処理するための時間遅延ニューラル・ネットを包含する。
この装置は、手前で述べた方法に従って特別にプログラムされたポータブル演算デバイスによって実装可能である。
本発明の別の側面によれば、音波から咳嗽音を検出するための方法が提供され、当該方法は、
音波から抽出された特徴を電子パターン・クラシファイアに適用するステップであって、
咳嗽の呼気相と、
咳嗽音の1つまたは複数の呼気後の相と、
非咳嗽事象の存在と、
を検出するべく構成された電子パターン・クラシファイアに適用するステップと、
これらの呼気相、1つまたは複数の呼気後の相、および非咳嗽事象の存在の検出に対応する電子パターン・クラシファイアからの信号を考慮に入れて咳嗽が検出されたと見做すステップと、を含む。
本発明の好ましい特徴、実施態様、および変形は、この分野の当業者が本発明を実施するための充分な情報を提供する以下の詳細な説明からはっきりと認められるであろう。詳細な説明は、いかなる形においても先行する本発明の概要の範囲を限定すると見なされない。詳細な説明では、次に示す多数の図面が参照されることになる。
典型的な咳嗽音の波形を示した波形図である。 先行技術の方法に従った咳嗽の分類を上に重ね合わせて示した2つの連続的な咳嗽音の波形のプロットである。 図2に図解された分類の生成に使用された先行技術のニューラル・ネット・クラシファイアのブロック図である。 ここで論じているLW1アルゴリズムのニューラル・ネット・アーキテクチャのブロック図である。 LW1方法に従った咳嗽音の分類を上に重ね合わせて示した互いに接近した2セットの2つの咳嗽音のプロットである。 本発明の好ましい実施態様に従った咳嗽音の検出のための方法のフローチャートである。 図5Aの方法を実装するための本発明の実施態様に従った装置のブロック図である。 本発明の好ましい実施態様の実行に使用される多様なスレッショルド値を説明するための、上に重ね合わされた好ましい実施態様のクラシファイアからの出力を伴った咳嗽音のブロック図である。 図5Aのフローチャートの方法に従った咳嗽音の分類を上に重ね合わせて示した互いに接近した2セットの2つの咳嗽音のプロットである。 本発明の側面の好ましい実施態様に従った第1および第2のクラシファイアをトレーニングするための方法のフローチャートである。 咳嗽音の初期呼気相を検出するための第1のクラシファイアを肯定的および否定的にトレーニングするべく特徴が捉えられる波形の部分を示す咳嗽音の波形のプロットである。 本発明に従って使用される好ましいクラシファイアの構造を示したブロック図である。 咳嗽音の呼気後の相を検出するための第2のクラシファイアを肯定的および否定的にトレーニングするべく特徴が捉えられる波形の部分を示す咳嗽音の波形のプロットである。 第1および第2のクラシファイアからの出力を上に重ね合わせて示した一連の咳嗽音のプロットである。 特別にプログラムされたポータブル演算デバイスを構成するスマートフォン形式の咳嗽検出装置のブロック図である。 本発明の第2の実施態様に従った第2の『マルチクラス』クラシファイアの構造を示したブロック図である。 図13のマルチクラス・クラシファイアをトレーニングするべく特徴が捉えられる波形の部分を起訴する咳嗽音の波形のプロットである。
発明者らは、現在利用可能な咳嗽検出のための方法は、子供の咳嗽の録音の中によくある互いにきわめて接近した咳嗽(たとえば、次から次に生じる咳嗽の「トレイン」)をはっきりと区別できないことがあると気付いた。
図2は、先行技術のニューラル・ネット実装された咳嗽検出装置の出力2を上に重ね合わせて示した連続する4つの咳嗽c1、・・・、c4のプロットである。使用されたニューラル・ネット・アレンジメント51は、米国特許出願公開第2015/0073306号の中に記述されており、図3に示した。図2のプロットを参照すると、この例においては先行技術の方法が、きわめて接近している咳嗽、すなわちc1、c2、およびc3、c4のセットを4つの離散的な咳嗽として正しく検出できていないことがわかる。それに代えて、ライン2によって示されるとおり、c1およびc2が単一の咳嗽と見做され、ライン4によって示されるとおり、c3およびc4もまた単一の咳嗽と見做されている。これらの咳嗽の、人間の聴き取りによって達成されると思われる真の識別は、ライン6、8、10、および12によって示される。
好ましい実施態様を後述する本発明について考える前に、本発明者らは、この先行技術に改良を施すべくいくつかの異なるアプローチを試した。たとえば、ここで『LW1』方法と呼ぶ第1の試みは、手作業的特徴の数を低減し、ニューラル・ネットワークの複雑性を低減し、かつ全体の咳嗽事象の平方二乗平均(RMS)の平均を超えるRMSパワー値を有するオーディオ信号のフレームの処理のみに対してニューラル・ネットワークをトレーニングするべく設計された。
この最初のアプローチにおいて発明者らが使用した低減された特徴セットは、メル周波数ケプストラム係数(MFCC)特徴、ゼロクロス・レート、およびシャノン・エントロピを含んでいた。ニューラル・ネットワーク(NN)53のサイズは、それぞれ187、50、および10のノードを伴った3つの隠れ層から、図4に図解されているとおり、32のノードを伴う1つだけの隠れ層3aに低減された。図4のNN 3は、その後、咳嗽の平均RMSを超えるRMSパワー値を有するトレーニング音サンプルのフレームを用いてトレーニングされた。このトレーニング・プロセスにおいては、低エネルギ・フレームが無視された。それに加えて、多数の話し声、拍手、機械の音、およびそのほかの咳嗽ではない典型的な背景音が陰性の例として使用された。
次の表1から明らかになろうが、LW1は、先行技術方法を超える有意に増加した正確度を提供することがわかる。特に、互いに接近した咳嗽については、より雑音の多い環境内の咳嗽および咳嗽が異なるマイクロフォンを使用して録音された。概して言えば、これは、手前で述べた米国特許出願公開に述べられているより有意に堅牢な解決策であった。
Figure 0007092777000001
表1:非常に困難な咳嗽、すなわち、高い背景雑音レベル、録音および/または互いに接近して生じている多くの咳嗽に対する先行技術のアルゴリズムとLW1のパフォーマンス
図5は、LW1方法を実装するべくトレーニングされた図4のNN 53の出力55のプロットであり、4つの連続する咳嗽音57a-57dの上に出力が重ね合わされて示されている。LW1方法がライン14、16、および18、20によって示されるとおり、2セットの互いに接近した2つの咳嗽を正しく検出していることが観察される。しかしながら、検出された咳嗽が、ライン22、24、26、および28によって示されるとおりの手作業でマークした真の咳嗽と比較して短く切られていることも観察される。発明者らは、LW1が、正確度の高い咳嗽検出方法であり、かつ咳嗽カウント応用のために非常に有用であるが、自動化された咳嗽診断のために必要となる、咳嗽がいつ終了したかの正確な測度を与えることに失敗していると判断した。
そこで発明者らは、別の、ここで『LW1.5』方法と呼ぶ第2の試みを試すことを決めた。
LW1.5方法においては、ニューラル・ネットワークが、最初の咳嗽音、すなわち咳嗽の呼気相に対してのみトレーニングされる。トレーニングは、咳嗽の開始から4つの処理フレーム(約100ミリ秒)が陽性ターゲットとしてトレーニングされ、手作業でマークされた咳嗽の残りは、陰性ターゲットとしてトレーニングされるように行われた。別の変更は、手作業的特徴の数をさらに低減し、かつMFCCおよび信号の対数エネルギのみを含めたことである。
LW1と同様に、エネルギ・ベースのヒューリスティックがLW1.5方法に使用されて咳嗽検出を拡張した。この試みにおいて発明者らは、推定される最小背景雑音レベルに基づいて咳嗽を拡張した。背景雑音レベルは、録音の中の現在のポイントに対してもっともエネルギの低い側の1024個のフレームを取り上げて平均RMSを取ることによって推定された。咳嗽は、処理フレームのRMSが、推定された背景レベルの1.5倍より下に落ちたときに終了する。
表2から理解できるとおり、LW1.5を用いて達成された再現率は、LW1の場合のそれよりはるかに良好である。しかしながら、精度が10%落ちたことに発明者らは満足に足るものでないと感じた。
Figure 0007092777000002
表2:非常に困難な、すなわち背景雑音が高い咳嗽データに対するLW1方法とLW1.5方法のパフォーマンス
したがって、認識されることになろうが、この段階において2つの異なるアプローチが考えられ、テストされた。しかしながら、発明者らの観点においては、両方の方法ともに異なる形の改良ではあったが、LW1およびLW1.5いずれの方法も、検出された咳嗽がその後に続いて疾病診断のために処理され得るという標準に適している咳嗽検出ではなかった。
熟考の後に打開策が生じ、発明者らは、以前の自分たちの試みとは対照的に、咳嗽検出のために1つより多くのニューラル・ネットワークを試すことを決定した。
発明者らは、本発明の、ここで『LW2』と呼ぶこともある好ましい実施態様において、咳嗽事象の第2および第3の相を分類する試みに第2のニューラル・ネットワークを使用することを決定した。ここで、これらの第2および第3の相(特に、第3の相の発音相)が咳嗽事象に特有でないことに気付くことが重要である。たとえば、発音事象は、発話の間にもしばしば生じる。第2のニューラル・ネットワークがそれだけで使用された場合には、発話およびそのほかの人間の雑音に起因する偽陽性が有意な数に上ることになろう。したがって、発明者らは、その種のアプローチが成功するか否か確信が持てなかった。
概要を述べれば、本発明の好ましい実施態様において、発明者らは、2つのトレーニング済みニューラル・ネットワークからの出力を処理して咳嗽音を検出した。第1のニューラル・ネットワークは、咳嗽音の第1の呼気相を分類するべく(方法LW1.5におけるとおり)トレーニングされ、第2のニューラル・ネットワークは、咳嗽音の第2および第3の相を分類するべくトレーニングされた。発話の間に第2のネットワークが偽陽性を生み出す問題を回避するため、この方法は、好ましく、第2のNNのアクティブ化が第1のNNに続くように2つのNNの時間的な組み合わせを含む。
単一の咳嗽努力を抽出するステップ
図5Aは、本発明の好ましい実施態様に従った咳嗽検出のための方法のフローチャートである。最初に、ボックス51において、たとえば、デジタル・レコーダのマイクロフォンを用いて患者を録音することによって、咳嗽音を含んでいる可能性のあるテスト・オーディオ・データが獲得される。ボックス53においては、テスト・オーディオ・データが、ハイおよびロー・パス・フィルタリングおよびアナログ・デジタル変換によって前処理される。ボックス55においては、デジタル化された音信号がフレームにセグメント化され、時間遅延ニューラル・ネット・クラシファイアに信号を印加することが可能となるように、時間遅延が適用される。ボックス57においては、デジタル化された信号の各フレームが解析されて、特定の特徴の存在が決定され、本発明の好ましい実施態様においては、これらの特徴が、メル周波数ケプストラム係数(MFCC)および信号の対数エネルギ特徴を含む。
検出された特徴は、一連の特徴ベクトルに形作られる。ボックス61においては、咳嗽の第1の呼気相を識別するべくあらかじめトレーニング済みの時間遅延ニューラル・ネットワーク(TDNN)の形式のクラシファイアが、一連のフレームを検査して呼気相が存在するか否かを決定する。ボックス59においては、咳嗽の第2および第3の相を識別するべくあらかじめトレーニング済みの第2の時間遅延ニューラル・ネットワークが、それらのフレームを検査して第2および第3の相が存在するか否かを決定する。
ボックス63においては、TDNNクラシファイアからの出力がスムージングされ、あらかじめ決定済みのスレッショルド値と比較されて、それらのフレームが咳嗽信号に対応するか否かが決定される。ボックス65においては、これらのフレームが咳嗽の存在を示していると検出された場合に、たとえば、検出された咳嗽を伝達するオーディオ信号の特定の部分のレコードを書き込むことによって咳嗽のフラグを立てる。
ここで図6を参照すると、図5Aのフローチャートの方法を実装する本発明の第1の実施態様に従った咳嗽音を識別するための咳嗽検出器600のブロック図が図示されている。
前処理
観察対象からのオーディオ信号がマイクロフォン601によって導入され、フィルタ602によるアンチエイリアシング・フィルタリングを受ける。AAFフィルタ602からのフィルタリング後のアナログ信号が、アナログ・デジタル・コンバータ607に渡される。ADC 603からのデジタル化後の信号は、デジタル信号処理パイプラインの第1ステップとして、フィルタ605および607によりハイおよびロー・パス・フィルタリングされる。現在説明している本発明の実施態様においては、ハイ・パス・フィルタ605のカットオフ周波数が50Hzであり、ロー・パス・フィルタ607のカットオフ周波数が16kHzである。
特徴抽出
LPF 607からの、デジタル化され、フィルタリングされた後のオーディオ信号は、フレーム・セグメンタ609によって1024サンプルのオーバーラップのないフレームにセグメント化される。各フレームは、オーディオ持続時間の23.2ミリ秒を表す。各フレームについて、特徴抽出器アッセンブリ611a-611nによって14の特徴値が抽出される。現在説明している本発明の好ましい実施態様においては、抽出される特徴が、各フレームの、ゼロ次の係数を含む13のメル周波数ケプストラム係数(MFCC)、および対数エネルギに対応する特徴も包含する。特徴抽出器611a-611nの出力は、シーケンシャル特徴ベクトル・レジスタ613に渡される。レジスタ613内にストアされる各特徴ベクトルは、対応する14の抽出済みの特徴のための値を有する。
特徴ベクトル・レジスタ613からの特徴ベクトルは、2つの特別にトレーニングされた第1および第2の時間遅延ニューラル・ネット615および617のそれぞれに印加される。TDNN 615および617は、後述する態様でそれぞれトレーニング済みである。トレーニング済みのTDNN1 615は、咳嗽音の呼気相を検出し、TDNN2は、咳嗽の残り、すなわち呼気後の相を検出するべくトレーニングされている。
第1および第2のTDNN 615および617からの出力は、それぞれのNN1およびNN2スムージング・フィルタ619および621に結合されている。NN1スムージング・フィルタ619の出力は、3タップ平均フィルタである。NN2スムージング・フィルタ621は、5タップ平均フィルタである。
NN1出力フィルタ619からの出力は、NN1出力フィルタ619からの信号とスレッショルド・レベルthd1を比較する比較器623に印加される。NN1比較器623からの出力は、NN1出力フィルタからの出力がthd1より上であるか、またはそれより下であるかを示す。
同様に、NN2比較器625からの出力は、NN2出力フィルタからの出力がthd2より上であるか、またはそれより下であるかを示す。
後NN咳嗽IDプロセッサ627は、NN1およびNN2出力フィルタ619および621からの出力、およびNN1およびNN2比較器からの出力が、処理中の音信号の中に咳嗽音が存在することを示すか否かを決定するべく構成されたロジック・アッセンブリを包含する。後NN咳嗽IDプロセッサ627は、離散的なロジック・ボードとして実装することができるか、またはそれに代えてフィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラム済みのコントローラまたは適切なプログラム済みのマイクロプロセッサを包含してもよい。
後NN咳嗽IDプロセッサ627は、次に示す規則に従って動作するべく構成されている。
1.可能性のある咳嗽の識別は、NN1が固定スレッショルド(thd1)より高いときにのみ開始する。咳嗽の開始は、常にNN1の開始を必要とすることになる。
2.可能性のある咳嗽の識別は、次の場合に継続する:
I.NN1が、スレッショルド(thd1)より上である。
II.NN1が、スレッショルド(thd1)より下であり、NN2が、スレッショルド(thd2)より上である。
III.フレームRMSパワー推定器628からの出力が、フレームのRMSパワーが、推定された背景雑音RMSレベルの10倍より高いことを示す。フレームRMSパワー推定器は、それまでの録音の間における最下位側の1024のRMSフレームを平均することによって背景雑音レベルを推定するべくアレンジされている。NN1とNN2の間にギャップが存在することもあるため、RMSベースの継続が組み込まれる。RMSベースのブリッジングは、NN2フレームがまだ検出されていないときにのみ行われる。
3.咳嗽は、次の場合に終了する:
I.NN1出力フィルタ619からの出力が、上向きの方向においてNN2出力フィルタ621からの出力と交差する。
II.NN1比較器623からの出力が、NN1出力フィルタ619からの出力がthd1より下であることを示し;NN2比較器625からの出力が、NN2出力フィルタ621からの出力がthd2より下であることを示し、かつフレームRMSパワー推定器628からの出力が、フレームのRMSパワーが推定された背景雑音レベルの10倍より低いことを示す。
III.現在のフレーム(t)のためのNN1出力フィルタ619の出力がthd1より大きく、以前のフレーム(t-1)のためのNN1出力フィルタ619の出力がthd1より小さく、かつ現在の(可能性のある)検出された咳嗽事象において、NN2フレーム(1つまたは複数)が、NN2比較器からの出力がハイに向かう(すなわち、NN2出力フィルタ621からの出力がthd2を超える)結果をもたらすことが検出されている。
4.見つかった咳嗽は、次の場合に破棄される:
I.咳嗽の持続時間が、咳嗽の最小長(150ミリ秒)より短い。
II.咳嗽の持続時間が、咳嗽の最大長(750ミリ秒)より長い。
III.咳嗽のNN1出力フィルタ619とNN2出力フィルタ621の組み合わせ後のRMSパワー出力が、トレーニング・プロセスの間に決定されたあらかじめ決定済みのスレッショルド値thd3より低い。
IV.咳嗽の中でスレッショルド・レベルthd1より上を示すNN1比較器623の出力のフレームが3つ未満である。
V.咳嗽の中でスレッショルドthd2より上であるとして示されるNN2比較器625の出力のフレームが2つ未満である。
5.検出された咳嗽の初めは、短い処理フレーム(128サンプル)上のエネルギの急激な開始に対してトリミングされる。開始が検出された場合には、それに応じて咳嗽の開始時間を調整する。エネルギ・レベルのジャンプがまったく検出されなかった場合には、開始時間を処理フレームの境界のまま残す。
ここで図6Aを参照し、上の4.IIIの中で述べたthd3値の導出を説明する。
TDNN1出力のRMSをX1からX2まで計算する(=rms_nn1)。
TDNN2出力のRMSをX2からX3まで計算する(=rms_nn2)。
X1=TDNN1>thd1
X2=TDNN2>thd2、かつTDNN2>TDNN1
X3=TDNN2<=thd2。
咳嗽の確率の合計RMSは、rms_nn1+rms_nn2である。このことは、両方のネットワークより上となる確率の強度がthd1およびthd2より上であることを意味する。この合計RMSをthd3と比較して、可能性のある咳嗽が、2つのニューラル・ネットワークの出力に関して充分に高いRMSを有しているか否かを決定する。
thd3値は、トレーニング段階において、偽陽性および真陽性が、スレッショルドの範囲のサーチによって最適化されるように決定される。
注意される必要があるが、X2は、2つに分割されることがある。この場合においては、nn1およびnn2の両方が、中間相において、スレッショルド1および2より低く、次に示すようになる:
rms_nn1=[(TDNN1>thd1)から(TDNN1<=thd1)までのnn1のrms]
rms_nn2=[(TDNN2>thd2)から(TDNN2<=thd2)までのnn2のrms]
言い換えると、確率RMSは、両方のネットワークがスレッショルドより下にある場合には計算されない。
咳嗽検出装置600は、後NN咳嗽IDプロセッサ627から、検出済み咳嗽音の開始および終了を示す出力を受け取る識別済み咳嗽フラッガ・アッセンブリ629を含む。後NN咳嗽IDプロセッサ627は、後NN咳嗽IDプロセッサからの信号に対して、識別済みの咳嗽にフラグを立てることによって応答する。識別済みの咳嗽にフラグを立てることは、咳嗽のためのID番号を、音波内におけるそれの開始時間および終了時間とともに含むデータ・レコードの書き込みを含んでもよい。識別済み咳嗽フラッガ629は、咳嗽IDおよび関連付けされた開始および終了時間を表示する視覚的な表示器を含んでもよい。
好ましい実施態様のパフォーマンス
咳嗽識別アルゴリズムの予期される研究が行われ、インドの経験を積んだヘルスケア専門家によって子供の咳嗽が録音された。これらの録音は、話し声、自動車のクラクション、音楽、および機械から発生する雑音を含む有意の背景雑音が含まれる環境内で行われた。NNが、ほかの参照データに対してトレーニングされ、52の録音に対してテストされた。
Figure 0007092777000003
表2:非常に困難な咳嗽録音に対する先行技術の方法、LW1、LW1.5、およびLW2のパフォーマンス。いずれのアルゴリズムにも、このデータに対するトレーニングはなされていない。
図7は、LW2を用いた咳嗽検出を図解したグラフである。図7から理解できるとおり、検出された咳嗽のラインが実際の咳嗽と緊密に整合する。LW2は、LW1より良好に咳嗽の持続時間を捕捉している。
NN1およびNN2のトレーニング
手前で述べたとおり、本発明の好ましい実施態様は、2つの時間遅延ニューラル・ネットワークがトレーニングされることを必要とする。TDNN1 615は、初期の咳嗽音、すなわち各咳嗽の呼気相を検出するべくトレーニングされる。第2のネットワークTDNN2 617は、中間相および、存在する場合には発音咳嗽音を含む咳嗽の残りの部分を検出するべくトレーニングされる。
最初の咳嗽音が非常にはっきりと区別される特性を有し、咳嗽音のほかの部分より観察対象間において一貫性が高いことは共通の一般知識である。たとえば、以前の研究者らは、次のような見解を述べている:
『我々のアプローチにおいて、我々は、咳嗽音の最初の150ミリ秒がその咳嗽反射の呼気相のみに対応し、観察者にわたり概して一貫しているという事実をてこ入れする。我々は、我々のモデルが観察者にわたって一般化が可能となるように、咳嗽反射のこの呼気段階のみをモデリングする。』エリック・シー・ラーソン、チェンジュイ・リー、シーン・リウ、マーガレット・ローゼンフェルト、およびシュウェタク・エヌ・パテル(Eric C.Larson、TienJui Lee、Sean Liu、Margaret Rosenfeld、およびShwetak N.Patel)著、2011年、「アキュレート・アンド・プライバシー・プレザービング・コフ・センシング・ユージング・ア・ローコスト・マイクロフォン(Accurate and privacy preserving cough sensing using a low-cost microphone)」。第13回インターナショナル・カンファレンス・オン・ユビキタス・コンピューティング(the 13th international conference on Ubiquitous computing)(UbiComp ’11)論文集内、ACM、ニューヨーク、NY、USA、pp.375-384。
DOI=http://dx.doi.org/10.1145/2030112.2030163;および
『我々のアプローチは、呼気相の音響的かつスペクトル的にはっきりと区別される特性、および咳嗽音の正確な開始検出のためのそれのポテンシャルから、それの検出を頼る。』ルシオ・シー、テイシェイラ・シー、エンリケシュ・ジェイ、デカーバロー・ピー、パイバ・アールピー(Lucio C、Teixeira C、Henriques J、de Carvalho P、Paiva RP)。「ボランタリー・コフ・ディテクション・バイ・インターナル・サウンド・アナリシス(Voluntary cough detection by internal sound analysis)」。バイオメディカル・エンジニアリング・アンド・インフォマティクス(Biomedical Engineering and Informatics)(BMEI)、2014年第7回インターナショナル・カンファレンス、2014年、pp.405-409。
本発明の好ましい実施態様においては、可能性のある咳嗽の開始が、咳嗽の呼気相を見つけるべくトレーニングされた第1のニューラル・ネットワークのみに基づいて検出される。第2のニューラル・ネットワークは、咳嗽事象の残りの検出に使用される。
図7Aは、第1のクラシファイア、たとえば呼気相ニューラル・ネット(TDNN1)615および第2のクラシファイア、たとえば呼気後の相ニューラル・ネット(TDNN2)617をトレーニングするための方法の高レベルのブロック・フローチャート700を表している。
第1のニューラル・ネットワークのトレーニング--咳嗽の呼気相の分類
第1のネットワークのトレーニングを、RMS(平方二乗平均)が全体の咳嗽音の平均RMSより高い、手作業でマーク付けした咳嗽の第1のフレームから開始する4つの処理フレームに対して行う。手作業でマーク付けした咳嗽の残りは、陰性ターゲットとしてトレーニングされる。ターゲットと陰性ターゲットの間の2つの処理フレームは、混乱を低減するためにトレーニングされない。陰性の例は、そのままトレーニングされる。図8は、第1のニューラル・ネットワーク615のための陽性(ライン96)および陰性(ライン98)のターゲットとしてトレーニングされる咳嗽の部分を図解している。それに加えて、話し声、泣き声、拍手、および機械が発生する雑音の例が、陰性のトレーニングの例として使用される。
TDNN1 615の入力は、中央の1つをターゲット・フレームとする7つのフレームの処理から導出された特徴ベクトルを含む。言い換えると、入力ベクトルは、ターゲット・フレームの前に隣接する3つのフレーム、後の3つのフレームを『見込む』。したがって、TDNNのための入力ベクトルのサイズは、7x14=98の値となる。図9は、TDNN1 615のためのアーキテクチャのブロック図である。図9に図解されているアーキテクチャは、良好に機能するが、発明者らは、隠れ層内の16のノードの方が、それを30とするより、わずかに良好に機能する可能性があることを見出した。認識されるであろうが、TDNN1およびTDNN2のためのこのほかの構成も機能し得る。
第2のニューラル・ネットワークのトレーニング--咳嗽の終了相の分類
第2のネットワークTDNN2 617は、第1のそれとは反対の態様でトレーニングされる。咳嗽の一番最初、および開始から数えて最初の4つのフレームが、陰性ターゲットとしてトレーニングされる。合間の1つのフレームをスキップし、その後、咳嗽の残りすべてのフレームのRMSが、全体の咳嗽信号の平均RMSの0.1倍より高ければ、それらを陽性ターゲットとしてトレーニングする。背景雑音を多くリサンプルしている非常にエネルギの低いフレームは、外される。この場合においても、陰性の例は、そのままトレーニングされる。図10は、第2のニューラル・ネットワークのための陽性ターゲット101および陰性ターゲット103としてトレーニングされる咳嗽の部分を図解している。
手前で論じたとおり、咳嗽検出は、オーディオ信号から抽出され、かつ2つのネットワークに供給される特徴の連続ストリームの、それら2つのトレーニング済みニューラル・ネットワークの出力に基づく。図11は、3つの接続された咳嗽115のバーストに応答するトレーニング済みの初期相検出ニューラル・ネットワークTDNN1 615の出力111、およびその後に続く相検出ニューラル・ネットワークTDNN2 617の出力113を示している。
図5Aのフローチャートに示されている咳嗽検出方法は、スマートフォン等のポータブル演算デバイスを特別にプログラムすることによって実装可能である。図12は、咳嗽検出装置39を実装するべくプログラムされた代表的なスマートフォンのブロック図である。装置39は、電子メモリ5にアクセスするプロセッシング・アッセンブリ3を含む。電子メモリ5は、プロセッシング・アッセンブリ3による実行のための、たとえば、アンドロイド(Android)オペレーティング・システムまたはアップル・アイオーエス(Apple iOS)オペレーティング・システム等のオペレーティング・システム8を含む。また電子メモリ5は、本発明の好ましい実施態様に従った咳嗽検出アプリケーション・ソフトウエア製品または『アプリ』6も含む。咳嗽検出アプリ36は、咳嗽検出装置39が図5Aのフローチャートの方法を実装するために、プロセッシング・アッセンブリ3によって実行可能なインストラクションを含む。
プロセッシング・アッセンブリ3は、図1に示されているとおり、データ・バス7を介して複数の周辺アッセンブリ9-23とデータ通信する。その結果、咳嗽検出装置39は、WAN/WLANアッセンブリ23および無線周波数アンテナ29を介して、データ通信ネットワーク31とのデータ通信を確立することが可能になる。使用においては、装置39が、リモート・サーバ33とのデータ通信を確立し、そこからアプリ36に対するアップデートをダウンロードできるか、またはそこへ、検出された咳嗽音を診断のためにアップロードできる。
使用においては、医療提供者が、咳嗽診断アプリ36を実行することによって咳嗽検出装置39を動作させる。アプリ36は、タッチスクリーン・インターフェース13を介する『録音開始』ボタンを含む録音画面をLCDスクリーン11上に表示する。医療提供者は、咳嗽検出装置39を充分に患者の近くに位置決めした後、『録音開始』ボタンをクリックする。患者からの音が、咳嗽音を含めてマイクロフォン25によって録音される。これらの音は、オーディオ・インターフェース・アッセンブリ21によってフィルタリングされ、デジタル・データ・ストリームに変換される。咳嗽診断アプリ36を包含するインストラクションを実行しているプロセッシング・アッセンブリ3は、図6の専用装置600の多様な機能ブロックを実装する。咳嗽を検出すると、プロセッシング・アッセンブリ3は、録音済みの音波の咳嗽が格納されている部分のレコードを書き込み、それによって咳嗽を識別し、かつ咳嗽が検出されたことを臨床医に対して視覚的に示すべくスクリーン11を動作させることができる。このようにして識別された咳嗽は、その後に続いて、それらが患者の疾病状態を示しているか否か、および抗生物質、水分補給、および安静等の、患者に提供する適切な治療を決定する診断方法によって処理可能である。咳嗽の数、および音波の中におけるそれらの位置は、その後、スクリーン11の表示のために利用可能になる。検出された咳嗽を含んでいる音波の部分は、その後に続く診断処理のために、メモリ5内にストアすることもできる。
本発明の変形およびさらなる実施態様は可能である。たとえば、本発明の好ましい実施態様においては、音の分類にニューラル・ネットワークが使用されているが、それに代えて、決定木(バギングまたはブースティング・ツリーを含む)等のそのほかのクラシファイアを使用してもよい。これについても注意することが重要であり、好ましい実施態様においては、2つのクラシファイア、すなわち咳嗽の第1相のためにTDNN1 615、咳嗽の第2および第3相のためにTDNN2 617が使用されていた。本発明のほかの実施態様においては、3つ(咳嗽のそれぞれ個別の相のために1つ)のクラシファイアを使用してもよい。
本発明の別の実施態様においては、候補咳嗽音を処理し、咳嗽の第1の部分と第2の部分の間を同時に弁別するべくトレーニングされた単一のマルチクラス・パターン・クラシファイアが提供され、使用される。図13は、一度に咳嗽の第1の部分と第2の部分の間を弁別するべくトレーニングされた例示的なニューラル・ネットワーク1300のブロック図である。注意する必要があるが、図13のニューラル・ネット1300は、手前で論じた単一の出力を生み出す図9のニューラル・ネット615とは対照的に、3つの出力を生成することからマルチクラスである。
図13のニューラル・ネット1300は、オーディオ信号の各フレームについて3つのクラスを検出するべくトレーニングされる。3つのクラスは、第1の咳嗽部分、第2の咳嗽部分、または第1の咳嗽部分および第2の咳嗽部分がない場合の陰性トレーニング例である。ニューラル・ネットワーク1300からの3つの出力信号は、3つのクラスのそれぞれについての検出確率に対応する。2つの咳嗽部分のそれぞれについての確率は、その後、本発明の先の実施態様の2つのニューラル・ネットワークからの出力と同じ方法で使用することが可能である。マルチクラス・アプローチに従った咳嗽検出器は、本発明の実施態様の1つ、たとえば、図12のスマートフォン・ハードウエアについて先に述べた汎用ハードウエア・プラットフォームを使用して実装できる。
3つのクラスのためのトレーニング・ターゲットを図14のプロットに図解する。図14において、実線は、オーディオ特徴の中の咳嗽発作がアクティブなセクション(クラス1)を表す。点線は、咳嗽の第2の部分(クラス2)に対応し、破線は、陰性トレーニング例(クラス3)を表している。
発明者らは、次の表3に示されるとおり、図13および14に図解されているマルチクラス・アプローチのパフォーマンスが、手前で論じた先の2つのニューラル・ネットワーク実施態様のパフォーマンスよりわずかに劣ることを見出した。
Figure 0007092777000004
表3:異なる実装についてのパフォーマンスの比較
代替モデル
咳嗽フレームの分類にニューラル・ネットワークを使用することは、2モデルまたはマルチクラス・モデル構造のいずれにおいても必須でない。発明者らは、ここに示した方法のテストを、ほかのいくつかのモデル・タイプを用いても行った。
● 決定木のアンサンブル
● 勾配ブースティング・ツリー
● 代替ニューラル・ネットワーク・ソフトウエア
これらのモデルは、すべて、表3に示されているとおり、オリジナルの実装と類似するパフォーマンスを達成した。
法令に従い、構造的または方法的特徴に多少なりとも特化した言い回しで本発明を説明してきた。用語『包含する』および、『包含している』および『からなる』といったその変形は、全体を通じ、含んでいるという意味で使用されており、何らかの追加の特徴を排除することはない。理解されるものとするが、この中で述べている手段は、本発明を具体化する好ましい態様を構成するのであって、そのことから、ここに示し、あるいは説明した特定の特徴に本発明が限定されることはない。したがって、本発明は、この分野の当業者によって適切に解釈される付随する特許請求の範囲の適正な範囲内となるあらゆるその形式または修正において請求される。
明細書および特許請求の範囲(存在する場合)の全体を通じ、文脈からほかの解釈が求められない限り、『実質的に』または『約』といった用語が、その用語によって制限された範囲に対する値に限定されないことは理解されるであろう。
本発明のあらゆる実施態様は、例証に過ぎないことを意味し、本発明の限定を意味しない。
2 出力、ライン
3 プロセッシング・アッセンブリ
3a 隠れ層
4 ライン
5 電子メモリ
6 ライン、アプリ
7 データ・バス
8 ライン、オペレーティング・システム
10 ライン
11 LCDスクリーン
12 ライン
13 タッチスクリーン・インターフェース
14 ライン
16 ライン
18 ライン
20 ライン
21 オーディオ・インターフェース・アッセンブリ
22 ライン
23 WAN/LANアッセンブリ
24 ライン
25 マイクロフォン
26 ライン
28 ライン
29 無線周波数アンテナ
31 データ通信ネットワーク
33 リモート・サーバ
36 咳嗽検出アプリ、咳嗽診断アプリ
39 咳嗽検出装置、装置
51 ニューラル・ネット・アレンジメント
53 NN、ニューラル・ネットワーク(NN)
55 出力
96 ライン
98 ライン
101 陽性ターゲット
103 陰性ターゲット
111 出力
113 出力
115 咳嗽
600 咳嗽検出器、咳嗽検出装置
601 マイクロフォン
602 フィルタ、AAFフィルタ
603 ADC、アナログ・デジタル・コンバータ
605 フィルタ、ハイ・パス・フィルタ
607 フィルタ、ロー・パス・フィルタ、LPF
609 フレーム・セグメンタ
613 レジスタ、特徴ベクトル・レジスタ
615 時間遅延ニューラル・ネット、TDNN、TDNN1
617 時間遅延ニューラル・ネット、TDNN、TDNN2
619 NN1スムージング・フィルタ、NN1出力フィルタ
621 NN2スムージング・フィルタ、NN2出力フィルタ
623 比較器、NN1比較器
625 NN2比較器
627 後NN咳嗽IDプロセッサ
628 フレームRMSパワー推定器
629 識別済み咳嗽フラッガ
1300 ニューラル・ネットワーク
57a-57d 咳嗽音
611a-611n 特徴抽出器アッセンブリ、特徴抽出器
thd1-thd3 スレッショルド値、スレッショルド・レベル

Claims (23)

  1. 音波から咳嗽音を検出するための方法であって、
    電子形式で前記音波を獲得するステップと、
    前記音波から抽出した特徴を、咳嗽音の呼気相を検出するようにトレーニングされた第1のクラシファイアおよび前記咳嗽音の1つまたは複数の呼気後の相を検出するようにトレーニングされた第2のクラシファイアを含む少なくとも2つの電子パターン・クラシファイアに適用するステップと、
    を含む方法。
  2. 前記音波から抽出した前記特徴を、前記第1のクラシファイアが前記咳嗽音の呼気相として前記音波の特徴を分類した後にのみ、前記第2のクラシファイアに適用することを含む請求項1に記載の方法。
  3. 前記第1のクラシファイア、前記呼気相に関して陽性かつ前記呼気相の後に続く前記咳嗽音の部分に関して陰性のトレーニングに従ってアレンジされる、請求項1または請求項2に記載の方法。
  4. 前記呼気相の終了と、前記呼気相の後に続く前記咳嗽音の開始の間にギャップを提供することを含む、請求項3に記載の方法。
  5. 前記第2のクラシファイア、前記呼気相に関して陰性かつ前記呼気相の後に続く前記咳嗽音の部分に関して陽性のトレーニングに従ってアレンジされる、請求項3に記載の方法。
  6. 前記第1および第2のクラシファイア、単一の隠れ層を有するニューラル・ネットを包含する、請求項3ないし5のいずれか一項に記載の方法。
  7. 前記特徴、前記音波のメル周波数ケプストラム係数に対応する特徴を含む、請求項1ないし6のいずれか一項に記載の方法。
  8. さらに、前記特徴、前記音波の対数エネルギに対応する特徴を含む、請求項7に記載の方法。
  9. 前記第1および第2のクラシファイア、時間遅延ニューラル・ネットを包含する、請求項1ないし8のいずれか一項に記載の方法。
  10. 音波の咳嗽音を検出するための装置であって、
    音波を導入するためのトランスデューサからの出力をデジタル化するためのデジタル化アッセンブリと、
    前記デジタル化アッセンブリと通信する、前記音波の連続セグメントから複数の特徴を抽出するための特徴抽出アッセンブリと、
    咳嗽音の呼気相を認識するようにトレーニングされた、前記特徴抽出アッセンブリに応答する第1のクラシファイアと、
    前記咳嗽音の1つまたは複数の呼気後の相を認識するようにトレーニングされた、前記特徴抽出アッセンブリに応答する第2のクラシファイアと、
    前記第1のクラシファイアおよび前記第2のクラシファイアからの出力に基づいて前記咳嗽音を識別するようにアレンジされたクラシファイア後咳嗽識別プロセッサと、
    を含む装置。
  11. 前記クラシファイア後咳嗽識別プロセッサ、前記咳嗽音の前記呼気相の検出を示す前記第1のクラシファイアの前記出力の後に続いて生じる前記第2のクラシファイアの出力に応答するようにアレンジされる、請求項10に記載の装置。
  12. 前記第1のクラシファイアおよび前記第2のクラシファイア、第1および第2のニューラル・ネットを包含し前記第1のニューラル・ネット、前記呼気相を検出する陽性トレーニングに従って重み付けされ、かつ、前記第2のニューラル・ネット、前記1つまたは複数の呼気後の相を検出する陽性トレーニングに従って重み付けされる、請求項10または請求項11に記載の装置。
  13. 前記第1のニューラル・ネット、さらに、前記呼気相に関する陽性トレーニングおよび前記呼気後の相に関する陰性トレーニングに従って重み付けされる、請求項12に記載の装置。
  14. 前記第2のニューラル・ネット、さらに、前記呼気相に関する陰性トレーニングおよび前記呼気後の相に関する陽性トレーニングに従って重み付けされる、請求項12または請求項13に記載の装置。
  15. 前記音波からメル周波数ケプストラム係数(MFCC)を抽出するように構成された特徴抽出アッセンブリを含む、請求項10ないし14のいずれか一項に記載の装置。
  16. 前記特徴抽出アッセンブリ、ゼロ次のMFCCを含むMFCCを抽出するようにアレンジされている、請求項15に記載の装置。
  17. 前記特徴抽出アッセンブリ、さらに、前記音波から対数エネルギ特徴を抽出するようにアレンジされている、請求項15または請求項16に記載の装置。
  18. 前記第1および第2のクラシファイアの出力と、それぞれ、前記呼気相および前記呼気後の相の検出確率レベルを評価するためのスレッショルド値とを比較するための第1および第2の比較器を含む、請求項10ないし17のいずれか一項に記載の装置。
  19. 前記クラシファイア後咳嗽識別プロセッサ、前記咳嗽音を識別するために前記比較器に応答する、請求項18に記載の装置。
  20. 前記音波の咳嗽音を検出するための装置が、前記音波のセグメントのRMSパワーを推定するためのRMSパワー推定器を含み、前記クラシファイア後咳嗽識別プロセッサ、前記RMSパワー推定器からの出力を考慮に入れて前記咳嗽音を識別するように構成されている、請求項10ないし19のいずれか一項に記載の装置。
  21. 前記クラシファイア後咳嗽識別プロセッサに応答する咳嗽フラッガ・アッセンブリを含み、
    前記咳嗽フラッガ・アッセンブリ、咳嗽音を含むことが識別された前記音波の部分を記録するようにアレンジされている、
    請求項10ないし20のいずれか一項に記載の装置。
  22. 前記第1および第2のニューラル・ネット、前記特徴抽出アッセンブリから出る一連の時間遅延された特徴ベクトルを処理するための時間遅延ニューラル・ネットを包含する、請求項12ないし14のいずれか一項に記載の装置。
  23. 音波から咳嗽音を検出するための方法であって、
    前記音波から抽出された特徴を、咳嗽音の呼気相前記咳嗽音の1つまたは複数の呼気後の相および非咳嗽事象の存在検出するようにトレーニングされた前記電子パターン・クラシファイアに適用するステップと、
    前記呼気相、前記1つまたは複数の呼気後の相、および前記非咳嗽事象の存在の検出に対応する前記電子パターン・クラシファイアからの信号を考慮に入れて咳嗽が検出されたと見做すステップと、
    を含む方法。
JP2019542568A 2017-02-01 2018-02-01 背景雑音環境における咳嗽検出のための方法および装置 Active JP7092777B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
AU2017900300 2017-02-01
AU2017900300A AU2017900300A0 (en) 2017-02-01 Improved methods and apparatus
AU2017902184A AU2017902184A0 (en) 2017-06-08 Improvements to methods and apparatus
AU2017902184 2017-06-08
PCT/AU2018/050062 WO2018141013A2 (en) 2017-02-01 2018-02-01 Methods and apparatus for cough detection in background noise environments

Publications (2)

Publication Number Publication Date
JP2020508726A JP2020508726A (ja) 2020-03-26
JP7092777B2 true JP7092777B2 (ja) 2022-06-28

Family

ID=63039222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019542568A Active JP7092777B2 (ja) 2017-02-01 2018-02-01 背景雑音環境における咳嗽検出のための方法および装置

Country Status (7)

Country Link
US (1) US11986283B2 (ja)
EP (1) EP3566225B1 (ja)
JP (1) JP7092777B2 (ja)
CN (1) CN110383375B (ja)
AU (1) AU2018214442B2 (ja)
DK (1) DK3566225T3 (ja)
WO (1) WO2018141013A2 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK3566225T3 (da) 2017-02-01 2021-05-31 Resapp Health Ltd Metode og apparat til detektering af hoste i baggrunden
WO2020047264A1 (en) * 2018-08-31 2020-03-05 The Trustees Of Dartmouth College A device embedded in, or attached to, a pillow configured for in-bed monitoring of respiration
WO2020077413A1 (en) * 2018-10-17 2020-04-23 The University Of Queensland A method and apparatus for diagnosis of maladies from patient sounds
US11948690B2 (en) * 2019-07-23 2024-04-02 Samsung Electronics Co., Ltd. Pulmonary function estimation
US10709353B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Detecting a respiratory abnormality using a convolution, and applications thereof
US10716534B1 (en) 2019-10-21 2020-07-21 Sonavi Labs, Inc. Base station for a digital stethoscope, and applications thereof
US10750976B1 (en) * 2019-10-21 2020-08-25 Sonavi Labs, Inc. Digital stethoscope for counting coughs, and applications thereof
US10709414B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Predicting a respiratory event based on trend information, and applications thereof
US10702239B1 (en) 2019-10-21 2020-07-07 Sonavi Labs, Inc. Predicting characteristics of a future respiratory event, and applications thereof
AU2020404447A1 (en) * 2019-12-16 2022-06-23 Pfizer Inc. Method and apparatus for automatic cough detection
CA3164369A1 (en) * 2019-12-16 2021-06-24 ResApp Health Limited Diagnosing respiratory maladies from subject sounds
CN111653273A (zh) * 2020-06-09 2020-09-11 杭州叙简科技股份有限公司 一种基于智能手机的院外肺炎初步识别方法
US11134354B1 (en) 2020-06-15 2021-09-28 Cirrus Logic, Inc. Wear detection
US11219386B2 (en) 2020-06-15 2022-01-11 Cirrus Logic, Inc. Cough detection
WO2022010232A1 (ko) * 2020-07-09 2022-01-13 한국과학기술원 딥러닝 기반의 기침 인식 방법 및 장치
WO2022015010A1 (ko) 2020-07-13 2022-01-20 다인기술 주식회사 음향 신호를 분석하여 기침을 계수하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11862188B2 (en) * 2020-10-22 2024-01-02 Google Llc Method for detecting and classifying coughs or other non-semantic sounds using audio feature set learned from speech
CN112309423A (zh) * 2020-11-04 2021-02-02 北京理工大学 驾驶环境下基于智能手机音频感知的呼吸道症状检测方法
WO2022147566A1 (en) * 2021-01-04 2022-07-07 Covid Cough, Inc. A method and system for machine learning using a derived machine learning blueprint
WO2023041406A1 (en) 2021-09-15 2023-03-23 Bayer Aktiengesellschaft Body action detection, identification and/or characterization using a machine learning model
CN114209302B (zh) * 2021-12-08 2024-03-26 赵永源 基于数据不确定性学习的咳嗽检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525236A (ja) 2003-04-10 2007-09-06 ヴィヴォメトリクス・インコーポレーテッド 呼吸事象検出システムおよび方法
JP2009532072A (ja) 2005-11-01 2009-09-10 アーリーセンス エルティディ 臨床発作患者の監視方法及びシステム
JP2009233103A (ja) 2008-03-27 2009-10-15 Konica Minolta Medical & Graphic Inc 咳嗽検出装置及び咳嗽検出装置のプログラム
US20140336537A1 (en) 2011-09-15 2014-11-13 University Of Washington Through Its Center For Commercialization Cough detecting methods and devices for detecting coughs
US20140343447A1 (en) 2009-09-18 2014-11-20 Speech Technology & Applied Research Corporation Cough Analysis
JP2015514456A (ja) 2012-03-29 2015-05-21 ザ ユニバーシティ オブ クィーンズランド 患者音を処理するための方法および装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07376A (ja) * 1993-06-15 1995-01-06 Chiesuto M I Kk 咳記録装置
US6168568B1 (en) * 1996-10-04 2001-01-02 Karmel Medical Acoustic Technologies Ltd. Phonopneumograph system
AU2005258237A1 (en) 2004-06-24 2006-01-05 Adidas Ag Systems and methods for monitoring cough
JP2007327993A (ja) 2006-06-06 2007-12-20 Konica Minolta Medical & Graphic Inc 音声モニタシステム、音声モニタ方法、プログラム、咳検出システム
US8411977B1 (en) 2006-08-29 2013-04-02 Google Inc. Audio identification using wavelet-based signatures
JP5781926B2 (ja) 2008-06-17 2015-09-24 コーニンクレッカ フィリップス エヌ ヴェ 音声分類器とマイクロホンを用いる音響患者モニタリング
US11315687B2 (en) * 2012-06-18 2022-04-26 AireHealth Inc. Method and apparatus for training and evaluating artificial neural networks used to determine lung pathology
EP3097847A1 (en) 2015-05-28 2016-11-30 Nitetronic Holding Limited Wearable device and system for stopping airway disorders including such a wearable device
US11980484B2 (en) 2015-08-26 2024-05-14 Resmed Sensor Technologies Limited Systems and methods for monitoring and management of chronic disease
DK3566225T3 (da) 2017-02-01 2021-05-31 Resapp Health Ltd Metode og apparat til detektering af hoste i baggrunden

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525236A (ja) 2003-04-10 2007-09-06 ヴィヴォメトリクス・インコーポレーテッド 呼吸事象検出システムおよび方法
JP2009532072A (ja) 2005-11-01 2009-09-10 アーリーセンス エルティディ 臨床発作患者の監視方法及びシステム
JP2009233103A (ja) 2008-03-27 2009-10-15 Konica Minolta Medical & Graphic Inc 咳嗽検出装置及び咳嗽検出装置のプログラム
US20140343447A1 (en) 2009-09-18 2014-11-20 Speech Technology & Applied Research Corporation Cough Analysis
US20140336537A1 (en) 2011-09-15 2014-11-13 University Of Washington Through Its Center For Commercialization Cough detecting methods and devices for detecting coughs
JP2015514456A (ja) 2012-03-29 2015-05-21 ザ ユニバーシティ オブ クィーンズランド 患者音を処理するための方法および装置

Also Published As

Publication number Publication date
US20200015709A1 (en) 2020-01-16
CN110383375A (zh) 2019-10-25
EP3566225A4 (en) 2020-02-12
US11986283B2 (en) 2024-05-21
WO2018141013A3 (en) 2019-01-03
AU2018214442B2 (en) 2022-03-10
EP3566225A2 (en) 2019-11-13
DK3566225T3 (da) 2021-05-31
CN110383375B (zh) 2024-02-13
EP3566225B1 (en) 2021-04-07
AU2018214442A1 (en) 2019-08-15
WO2018141013A2 (en) 2018-08-09
JP2020508726A (ja) 2020-03-26

Similar Documents

Publication Publication Date Title
JP7092777B2 (ja) 背景雑音環境における咳嗽検出のための方法および装置
Chen et al. Triple-classification of respiratory sounds using optimized s-transform and deep residual networks
Varghees et al. Effective heart sound segmentation and murmur classification using empirical wavelet transform and instantaneous phase for electronic stethoscope
Karunajeewa et al. Multi-feature snore sound analysis in obstructive sleep apnea–hypopnea syndrome
CN118141344A (zh) 用于估计扣除用户引起的伪影的用户耳内的噪声暴露量的方法和系统
US20220007964A1 (en) Apparatus and method for detection of breathing abnormalities
EP3562401B1 (en) Method of characterizing sleep disordered breathing
JP2013123495A (ja) 呼吸音解析装置、呼吸音解析方法、呼吸音解析プログラムおよび記録媒体
Sharan et al. Cough sound analysis for diagnosing croup in pediatric patients using biologically inspired features
JP6562450B2 (ja) 嚥下検出装置、嚥下検出方法およびプログラム
Markandeya et al. Smart phone based snoring sound analysis to identify upper airway obstructions
Chatterjee et al. WheezeD: Respiration phase based wheeze detection using acoustic data from pulmonary patients under attack
Selvakumari et al. A voice activity detector using SVM and Naïve Bayes classification algorithm
CN114333901A (zh) 呼吸异常分类模型的训练、呼吸异常检测方法及电子设备
JP7061126B6 (ja) 睡眠呼吸障害を特徴付ける方法
Hamidah et al. Effective heart sounds detection method based on signal's characteristics
KR20160147591A (ko) 천식 진단을 위한 청진음 신호의 전처리 방법 및 장치
Bertschinger et al. Feasibility of cough detection and classification using artificial intelligence in an ambulatory setting with a ceiling mounted microphone
Leal et al. Detection of different types of noise in lung sounds
JP2005010652A (ja) 音声検出装置
Dagar et al. Analysis of Respiratory Signals in Spectral Domain for Detecting Respiratory Disorders with Emphasis on COVID-19
Fahed et al. Random forest classification of breathing phases from audio signals recorded using mobile devices
US11881200B2 (en) Mask generation device, mask generation method, and recording medium
JP6963795B2 (ja) 嚥下音判定装置及び嚥下音判定方法
CN115644848A (zh) 一种基于语音信号的肺功能参数测量方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220616

R150 Certificate of patent or registration of utility model

Ref document number: 7092777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150