JP7385299B2 - スピーチ分析による肺気量の推定 - Google Patents

スピーチ分析による肺気量の推定 Download PDF

Info

Publication number
JP7385299B2
JP7385299B2 JP2021517971A JP2021517971A JP7385299B2 JP 7385299 B2 JP7385299 B2 JP 7385299B2 JP 2021517971 A JP2021517971 A JP 2021517971A JP 2021517971 A JP2021517971 A JP 2021517971A JP 7385299 B2 JP7385299 B2 JP 7385299B2
Authority
JP
Japan
Prior art keywords
speech
subject
sequence
frames
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021517971A
Other languages
English (en)
Other versions
JP2022502189A (ja
Inventor
シャロム、イラン、ディ.
Original Assignee
コルディオ メディカル リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コルディオ メディカル リミテッド filed Critical コルディオ メディカル リミテッド
Publication of JP2022502189A publication Critical patent/JP2022502189A/ja
Application granted granted Critical
Publication of JP7385299B2 publication Critical patent/JP7385299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/091Measuring volume of inspired or expired gases, e.g. to determine lung capacity
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/087Measuring breath flow

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)

Description

本発明は、一般に、医療診断の分野、特に肺気量の推定に関する。
医学界は、肺気量のさまざまな測定値を認知している。たとえば、肺活量(VC)は、深い吸気後の肺内の空気量と、深い呼気後の肺内の空気量との差として定義される。一回換気量(TV)は、通常の吸気後の空気量と通常の呼気後の空気量の差である。(安静時、TVはVCの10%まで低下する可能性がある。)従来、肺気量は病院または診療所で肺活量計を使用して測定されていた。喘息、慢性閉塞性肺疾患(COPD)、うっ血性心不全(CHF)などの疾患に苦しむ患者は、肺気量の低下を経験する可能性がある。
米国特許出願公開第2015/0216448号(特許文献1)は、その開示が参照により本明細書に組み込まれ、慢性心不全、COPDまたは喘息を検出するための、ユーザの肺活量およびスタミナを測定するためのコンピュータ化された方法およびシステムを記載している。この方法は、ユーザのモバイル通信装置上にクライアントアプリケーションを提供することを含み、そのクライアントアプリケーションは、以下のための実行可能なコンピュータコードを含む:ユーザに対し、空気で肺を満たし、そして息を吐きながら一定の大きさの範囲(デシベル)のスピーチを発声させ;モバイル通信装置によりユーザのスピーチを受信および登録し;スピーチの登録を停止し;上記の大きさの範囲内のスピーチ受信時間の長さを測定し;受信時間の長さをモバイル通信装置の画面に表示する。
国際特許出願公開WO/2017/060828(特許文献2)、その開示は参照により本明細書に組み込まれる、は、ネットワークインターフェースおよびプロセッサを含む装置を記載している。プロセッサは、ネットワークインターフェースを介して、過剰な体液の蓄積に関連する肺の状態に苦しむ被験者のスピーチを受信し、スピーチを分析することによって、スピーチの1つまたは複数のスピーチ関連パラメータを識別し、スピーチ関連パラメータに応答して、肺の状態のステータスを評価し、それに応答して、肺の状態のステータスを示す出力を生成する、ように構成される。
国際特許出願公開WO/2018/021920(特許文献3)は、少なくとも第1のセンサおよび第2のセンサからユーザに関連する入力信号を受信し、入力信号の少なくとも一部から推定された気流の形状および/または速度を決定するように構成された特徴抽出モジュールを含むスピーチ気流測定システムを記載している。システムは、少なくともユーザの第1の気流内に配置された第1のセンサ;少なくともユーザの第2の気流内に配置された第2のセンサ;そして第1のセンサを第2の気流から遮蔽するように適合されたシールド部材;を含むヘッドセットを備え、遮蔽部材は、ヘッドセットがユーザによって使用されている間、遮蔽部材とユーザの顔との間にエアギャップを提供するように適合される。
米国特許出願公開第2016/0081611号(特許文献4)は、および人の健康に関連する気流を分析するための情報処理システム、コンピュータ可読記憶媒体、および方法を記載している。方法は、人の言葉でのコミュニケーションのスピーチサンプルを取得するステップと、人の地理情報を取得するステップと、地理情報に基づいてリモートサーバに問い合わせるステップと、およびリモートサーバから地理情報に関連する追加情報を取得するステップと、ある期間にわたる少なくとも1つのスピーチサンプルから振幅変化の輪郭を抽出するステップと、を含み、振幅変化の輪郭は、人の気流プロファイルの変化に対応する。この方法はさらに、振幅変化の輪郭を気流関連の健康問題に典型的な周期的エピソードと相関させ、少なくともその追加情報に基づいて、振幅変化の輪郭が地理情報に関連する少なくとも1つの局所的環境要因に起因するかどうかを決定するステップを含む。
米国特許第6,289,313号(特許文献5)は、デジタルスピーチエンコーダから出力される声道パラメータの値を観察することによって、人間の生理学的および/または心理的状態のステータスを推定するための方法を記載している。ユーザは自分の装置に話しかけ、装置は入力スピーチをアナログ形式からデジタル形式に変換し、導出されたデジタル信号に対しスピーチエンコードを実行し、さらに分析のためにスピーチコーディングパラメーターの値をローカルに提供する。保存された数学的関係、例えばユーザ固有の声道変換行列は、メモリから取得され、対応する条件パラメータの計算に使用される。これらの計算されたパラメータに基づいて、ユーザの状態の現在のステータスの推定値を導き出すことができる。
米国特許出願公開第2015/0126888号(特許文献6)は、被験者の強制呼気動作の音のデジタル音響ファイルを処理することによって呼気流れベース呼吸機能データを生成するための装置、システム、および方法を記載している。呼気流れベース呼吸機能データを生成するように構成されたモバイル装置には、マイクロフォン、プロセッサ、およびデータ記憶装置が含まれる。マイクは、被験者の強制呼気動作の音をデジタルデータファイルに変換するように操作可能である。プロセッサは、マイクロフォンと動作可能に結合されている。データ記憶装置は、プロセッサと動作可能に結合され、プロセッサによって実行されると、プロセッサにデジタルデータファイルを処理させて、被験者の肺機能を評価するための呼気流れベース呼吸機能データを生成させる命令を格納する。被験者の強制呼気動作の音は、被験者の口とモバイル装置が接触することなくデジタルデータファイルに変換できる。
Murton、Olivia M.氏他著「非代償性心不全患者の音響スピーチ分析:パイロット研究」、The Journal of the Acoustical Society of America 142.4(2017):EL401-EL407(非特許文献1)は、心臓内充満圧の上昇と末梢性浮腫を特徴とする心不全(HF)の患者を監視するための、音響スピーチ分析を使用したパイロット研究について記載している。声帯と肺のHF関連浮腫は、発声とスピーチ呼吸に影響を与えると仮定された。音声の摂動とスピーチの呼吸特性の音響測定値は、入院利尿薬治療を受けているHFの10人の患者から毎日記録された持続的な母音と発話のパッセージから計算された。治療後、患者は自動的に識別されたきしみ声の割合が高くなり、基本周波数が増加し、ケプストラムのピークプロミネンスの変動が減少した。これは、スピーチバイオマーカーがHFの初期の指標になり得ることを示唆している。
米国特許出願公開第2015/0216448号 国際特許出願公開WO/2017/060828 国際特許出願公開WO/2018/021920 米国特許出願公開第2016/0081611号 米国特許第6,289,313号 米国特許出願公開第2015/0126888号
Murton、Olivia M.氏他著「非代償性心不全患者の音響スピーチ分析:パイロット研究」、The Journal of the Acoustical Society of America 142.4(2017):EL401-EL407
本発明のいくつかの実施形態によれば、回路と;そして1つまたは複数のプロセッサと;を有するシステムが提供される。プロセッサは: 回路から、被験者によって発話された、1つまたは複数のスピーチセグメントを含む、スピーチを表すスピーチ信号を受信するステップと;フレームの1つまたは複数のシーケンスがそれぞれスピーチセグメントを表すように、スピーチ信号を複数のフレームに分割するステップと;を実行するようにこうせいされる。プロセスはさらにシーケンスごとに、シーケンスに属するフレーム中に被験者が吐き出す空気のそれぞれの推定流量を計算するステップと;推定流量に基づいて、推定総空気量のそれぞれを計算するステップと;によりスピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップを有する。プロセスはさらに推定総空気量に応じて、アラートを生成するステップを含む。
いくつかの実施形態では、回路がネットワークインターフェースを含む。
いくつかの実施形態では、回路が、スピーチを表すアナログ信号をスピーチ信号に変換するように構成されたアナログ-デジタル変換器を備える。
いくつかの実施形態では、1つまたは複数のプロセッサが単一のプロセッサからなる。
いくつかの実施形態では、各フレームの持続時間は、5~40ミリ秒の間である。
いくつかの実施形態では、1つまたは複数のスピーチセグメントは、それぞれの休止によって互いに分離された複数のスピーチセグメントを有し、プロセスは、スピーチセグメントを表すフレームのシーケンスと休止を表すフレームのシーケンスとを区別することによって、フレームのシーケンスを識別するステップをさらに含む。
いくつかの実施形態では、それぞれの推定流量を計算するステップは、シーケンスに属するフレームの各フレームについて、フレームの1つまたは複数の特徴を計算するステップと;そして少なくとも1つの特徴に対し、少なくとも1つの特徴を推定流量にマッピングする関数を適用することによって、推定流量を計算するステップと;を有する。
いくつかの実施形態では、プロセスは、信号を受信する前に、被験者が発した他のスピーチを表す較正スピーチ信号を受信するステップと;他のスピーチを発話している間に被験者によって吐き出された空気の測定された流量を表す風量信号を受信するステップと;そして 較正スピーチ信号と風量信号を使用して、少なくとも1つの特徴を推定流量にマッピングする関数を学習するステップと;をさらに含む。
いくつかの実施形態では、少なくとも1つの特徴は、フレームのエネルギーを含む。
いくつかの実施形態では、関数が、少なくとも1つの特徴の多項式関数である。
いくつかの実施形態では、プロセスは、特徴に基づいて、フレームが属する音響スピーチユニット(APU)を識別するステップと;そしてAPUに応答して関数を選択するステップと;をさらに含む。
いくつかの実施形態では、APUのタイプは、音素、ダイフォン、トライフォン、および合成音響ユニットからなるAPUタイプのグループから選択される。
いくつかの実施形態では、1つまたは複数のスピーチセグメントは、複数のスピーチセグメントを含み、プロセスは、推定総空気量の1つまたは複数の統計値を計算するステップをさらに含み、アラートを生成するステップは、ベースライン統計値から逸脱している少なくとも1つの統計値に応答してアラートを生成するステップを有する。
いくつかの実施形態では、スピーチは、被験者が横になっている間に被験者によって発話される。
いくつかの実施形態では、プロセスは、被験者が横になっていない間に被験者が発した他のスピーチを表す別のスピーチ信号を受信するステップと;そして別のスピーチ信号からベースライン統計を計算するステップと;をさらに含む。
いくつかの実施形態では、プロセスは、被験者の以前のスピーチを表す別のスピーチ信号からベースライン統計を計算するステップをさらに含む。
いくつかの実施形態では、少なくとも1つの統計値は、平均、標準偏差、およびパーセンタイルからなる統計値のグループから選択された統計値である。
いくつかの実施形態では、スピーチが音響センサによって獲得され、プロセスは、それぞれの推定総空気量を計算する前に、スピーチが発話中に取得された口の画像に基づいて、被験者の口に対する音響センサの位置を考慮するためにスピーチ信号を正規化するステップをさらに含む。
本発明のいくつかの実施形態によれば、ネットワークインターフェースおよびプロセッサを含む装置がさらに提供される。プロセッサは、ネットワークインターフェースを介して、被験者によって発話された、1つまたは複数のスピーチセグメントを含む、スピーチを表すスピーチ信号を受信するように構成される。プロセッサはさらに、フレームの1つまたは複数のシーケンスがそれぞれスピーチセグメントを表すように、スピーチ信号を複数のフレームに分割するように構成される。プロセッサはさらに、シーケンスのそれぞれについて、シーケンスに属するフレーム中に被験者によって吐き出される空気のそれぞれの推定流量を計算することによって、スピーチセグメントが発話されている間に被験者によって吐き出される空気のそれぞれの推定総量を計算し、そして推定された流量に基づいて、推定された総空気量のそれぞれを計算するように構成される。プロセッサはさらに、推定総空気量に応じてアラートを生成するように構成されている。
いくつかの実施形態では、各フレームの持続時間は、5~40ミリ秒の間である。
いくつかの実施形態では、1つまたは複数のスピーチセグメントは、それぞれの休止によって互いに分離された複数のスピーチセグメントを有し、プロセッサは、スピーチセグメントを表すフレームのシーケンスと休止を表すフレームのシーケンスとを区別することによって、フレームのシーケンスを識別するようにさらに構成される。
いくつかの実施形態では、プロセッサは、シーケンスに属するフレームの各フレームについて、フレームの1つまたは複数の特徴を計算し;そして少なくとも1つの特徴に対し、少なくとも1つの特徴を推定流量にマッピングする関数を適用することによって、推定流量を計算するように構成される。
いくつかの実施形態では、プロセッサは、信号を受信する前に、前記被験者が発した他のスピーチを表す較正スピーチ信号を受信し;前記他のスピーチを発話している間に前記被験者によって吐き出された空気の測定された流量を表す風量信号を受信し;そして 前記較正スピーチ信号と前記風量信号を使用して、前記少なくとも1つの特徴を前記推定流量にマッピングする関数を学習するようにさらに構成される。
いくつかの実施形態では、少なくとも1つの特徴は、フレームのエネルギーを含む。
いくつかの実施形態では、関数が、前記少なくとも1つの特徴の多項式関数である。
いくつかの実施形態では、プロセッサは、特徴に基づいて、フレームが属する音響音声ユニット(APU)を識別し;そしてAPUに応答して関数を選択するようにさらに構成される。
いくつかの実施形態では、PUのタイプは、音素、ダイフォン、トライフォン、および合成音響ユニットからなるAPUタイプのグループから選択される。
いくつかの実施形態では、1つまたは複数のスピーチセグメントは、複数のスピーチセグメントを含み、プロセッサは、推定総空気量の1つまたは複数の統計値を計算するようにさらに構成され、プロセッサは、ベースライン統計値から逸脱している少なくとも1つの統計値に応答してアラートを生成するように構成される。
いくつかの実施形態では、スピーチは、被験者が横になっている間に被験者によって発話される。
いくつかの実施形態では、プロセッサは、被験者が横になっていない間に被験者が発した他のスピーチを表す別のスピーチ信号を受信し;そして別のスピーチ信号からベースライン統計を計算するようにさらに構成される。
いくつかの実施形態では、少なくとも1つの統計値は、平均、標準偏差、およびパーセンタイルからなる統計値のグループから選択された統計値である。
いくつかの実施形態では、プロセッサは、被験者の以前のスピーチを表す別のスピーチ信号からベースライン統計を計算するようにさらに構成される。
いくつかの実施形態では、声が音響センサによって獲得され、プロセッサは、それぞれの推定総空気量を計算する前に、スピーチが発話中に取得された口の画像に基づいて、被験者の口に対する音響センサの位置を考慮するためにスピーチ信号を正規化するようにさらに構成される。
さらに、本発明のいくつかの実施形態によれば、被験者によって発話された、1つ以上のスピーチセグメントを含むスピーチを表すアナログ信号をデジタルスピーチ信号に変換するように構成されたアナログ-デジタル変換器を含むシステムが提供される。システムはさらに、1つまたは複数のプロセッサを含み、プロセッサは、アナログ-デジタル変換器からスピーチ信号を受信し、スピーチ信号を複数のフレームに分割し、それによりフレームの1つまたは複数のシーケンスがそれぞれスピーチセグメントを表し、シーケンスのそれぞれについて、シーケンスに属するフレーム中に被験者によって吐き出された空気のそれぞれの推定流量を計算し、そして推定流量に基づいて、推定総空気量のそれぞれを計算することによって、スピーチセグメントが発話されている間に被験者によって吐き出された空気のそれぞれの推定総量を計算し、そして、推定総空気量に応じて、アラートを生成する、ように構成される。
さらに、本発明のいくつかの実施形態によれば、被験者によって発話された、1つまたは複数のスピーチセグメントを含むスピーチを表すスピーチ信号を受信するステップを有する方法が提供される。方法はさらに、フレームの1つまたは複数のシーケンスがそれぞれスピーチセグメントを表すように、スピーチ信号を複数のフレームに分割するステップを含む。方法はさらに、シーケンスごとに:シーケンスに属するフレーム中に被験者が吐き出す空気のそれぞれの推定流量を計算するステップと;推定流量に基づいて、推定総空気量のそれぞれを計算するステップと;によりスピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップと;を含む。方法はさらに推定総空気量に応じて、アラートを生成するステップを含む。
本発明のいくつかの実施形態によれば、プログラム命令が格納される有形非一過性コンピュータ可読媒体を含むコンピュータソフトウェア製品が提供される。命令はプロセッサによって読み取られると、プロセッサに対し:回路から、被験者によって発話されたスピーチを表すスピーチ信号を受信するステップであって、スピーチは、1つまたは複数のスピーチセグメントを含むステップと;フレームの1つまたは複数のシーケンスがそれぞれスピーチセグメントを表すように、スピーチ信号を複数のフレームに分割するステップと;シーケンスごとに、シーケンスに属するフレーム中に被験者が吐き出す空気のそれぞれの推定流量を計算するステップと;推定流量に基づいて、推定総空気量のそれぞれを計算するステップと;によりスピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップと;そして推定総空気量に応じて、アラートを生成するステップと;を実行させる。
本発明は、その実施形態の以下の図面を参照する詳細な説明から、より完全に理解されるであろう:
本発明のいくつかの実施形態による、被験者の肺気量を測定するためのシステムの概略図である。 本発明のいくつかの実施形態による、図1のシステムを較正するための技術を概略的に示す図である。 本発明のいくつかの実施形態による、図1のシステムを較正するための技術を概略的に示す図である。 本発明のいくつかの実施形態による、スピーチ信号の処理の概略図である。
(前書き)
話している間、人は呼吸の短い休止中に吸気する傾向があるが、呼気は延長されて制御される。本明細書で使用される「スピーチ呼気量」(SEV)という用語は、呼吸休止直後の肺内の空気量と、次の呼吸休止直前の肺内の空気量との間の差を指す。SEVは通常、休憩中の一回呼気量(TV)よりも大幅に大きく、肺活量(VC)の25%にもなる場合がある。SEVは通常、スピーチの音量、スピーチのスピーチ上のコンテンツ、およびスピーチの韻律に基づいて、呼吸ごとに異なる。
以下の説明では、ベクトルを表す記号に下線が引かれている。たとえば、「」という表記はベクトルを示す。
(概要)
肺の状態に苦しむ多くの患者は、患者の状態が悪化した場合に早期の医学的介入を可能にするために、定期的に、時には毎日でも、肺気量を監視する必要がある。ただし、病院や診療所での定期的な肺活量計の検査は、不便で費用がかかる場合がある。
したがって、本発明の実施形態は、患者が診療所に行くことを必要とせずに、患者の肺気量、特に患者のSEVを効果的かつ便利に測定するための手順を提供する。手順は、医療関係者の直接の関与なしに、患者の自宅で、電話(例えば、スマートフォンまたは他の携帯電話)、タブレットコンピュータ、または他の適切な装置を使用して、患者自身によって実行され得る。
より具体的には、本明細書に記載の実施形態では、患者のスピーチは装置によって獲得される。次に、スピーチが自動的に分析され、患者の平均SEVなど、患者のSEVに関連する統計値が獲得されたスピーチから計算される。続いて、統計は、患者の状態が安定している間に実施された以前のセッションからの統計値などのベースライン統計値と比較される。比較の結果、肺気量の減少、つまり患者の状態の悪化が明らかになった場合、アラートが生成される。
上記の手順の前に、通常は病院または診療所で較正手順が実行される。較正中、患者の瞬間的な風量が、例えば、ニューモタクとも呼ばれるニューモタコグラフによって測定されている間、患者はマイクロフォンに向かって話す。患者からのスピーチ信号はサンプリングされてデジタル化され、次に同じサイズのフレーム{ ,… }に分割される。各フレームの長さは通常5~40ミリ秒(たとえば、10~30ミリ秒)で、複数のサンプルが含まれる。次に、特徴ベクトル が各フレーム から抽出される。続いて、特徴ベクトル{ 、… }およびニューモタク測定から導き出される対応する風量{Φ、Φ、…Φ}に基づいて、所与のスピーチフレーム中に吐き出される空気の流量をフレームの特徴から予測するスピーチ対風量関数Φ(v)が学習される。
たとえば、特徴ベクトルには、フレームの総エネルギーである単一の量
Figure 0007385299000001
のみが含まれる場合がある。そのような実施形態では、スピーチ風量関数Φ()=Φ(u)は、風量をフレームエネルギーに回帰することによって学習することができる。したがって、たとえば、関数は
Φ(u)= b + bu + b +…+ b
の形式の多項式である可能性がある。
あるいは、特徴ベクトルは、フレームの他の特徴を含み得る。これらの特徴に基づいて、スピーチ認識技術を使用して、各フレームまたはフレームのシーケンスを、音素、ダイフォン、トライフォン、または合成音響ユニットなどの音響音声ユニット(APU)にマッピングすることができる。言い換えると、フレームのシーケンス{ ,… }は、APUのシーケンス{y,y,…y}にマッピングでき、ここでR≦Nでありそれらは、一意のAPUのセット{h,h,…h}から抽出される。続いて、フレームが属するAPUhによって変化するスピーチ風量関数Φ()=Φ(u|h)を学習することができる。たとえば、風量は、APUごとに個別にフレームエネルギーに回帰され、APUごとに異なる多項式係数{b、b、…b}のセットが取得される。したがって、有利には、スピーチ風量関数は、スピーチのエネルギーだけでなく、上記のように、SEVに影響を与えるスピーチのコンテンツも考慮に入れることができる。
較正手順に続いて、上記のように患者のスピーチが獲得される。次に、獲得されたスピーチは、較正手順について前述したように、フレームに分割される。続いて、特徴ベクトル が各フレームから抽出され、吸気の休止が識別される。次に、連続する吸気休止の間に位置するスピーチフレーム{ ,… }の各シーケンスは、異なるそれぞれの単一呼気スピーチセグメント(SESS)として識別される。続いて、SEVが各SESSに対して計算される。詳細には、SESSの特徴ベクトル{ 、… }が与えられると、SEVは
Figure 0007385299000002
として計算される。ここで、TはSESSの存続期間である。したがって、M個の SESSが与えられると、M個のSEV値{SEV、SEV、…SEV}が計算される。
続いて、SEV値の統計値が計算される。これらの統計値には、たとえば、平均、中央値、標準偏差、最大値、または80パーセンタイルなどの他のパーセンタイルが含まれうる。上記のように、これらの統計値は、例えば、統計値間の様々な差異または比率を計算することによって、以前の分析からの統計値と比較することができる。比較により患者の状態が悪化していることが示された場合、アラームが生成されうる。例えば、患者の平均SEVの有意な減少に応答してアラームが生成され得る。
幾つかの場合には、患者の病状の悪化を明らかにする可能性が高い姿勢でスピーチを発するように患者に指示することがある。例えば、うっ血性心不全(CHF)は、起座呼吸、すなわち、横になっているときの息切れを伴うことが多く、その結果、CHF患者の肺機能の小さな変化は、患者が横になっているときにのみ検出され得る。したがって、CHF患者のより効果的な診断のために、患者は、例えば仰臥位で横になっている間に話すように指示され得る。次に、この位置に対して計算されたSEV統計値を、別の位置(たとえば、座位)に対して計算されたSEV統計値と比較し、横臥位でより低いSEVが観察された場合にアラームを生成することができる。代替的または追加的に、横たわっている位置のSEV統計値、および/または横たわっている位置と他の位置との間の不一致を以前のセッションと比較することができ、それに応じてアラームを生成することができる。
本明細書に記載の実施形態は、うっ血性心不全(CHF)、慢性閉塞性肺疾患(COPD)、間質性肺疾患(ILD)、喘息、急性呼吸窮迫症候群(ARDS)、パーキンソン病、筋萎縮性側索硬化症(ALD)または嚢胞性線維症(CF)など、肺気量に影響を与える任意のタイプの疾患を有する患者に適用され得る。
(システムの説明)
本発明のいくつかの実施形態による、被験者22の肺気量を測定するためのシステム20の概略図である図1を最初に参照する。
システム20は、被験者22によって使用される、携帯電話、タブレットコンピュータ、ラップトップコンピュータ、またはデスクトップコンピュータなどの音響受信機器32を備える。音響受信機器32は、音響センサ38(例えば、マイクロフォン)、プロセッサ36、および典型的には音響デジタル(A/D)変換器42およびネットワークインターフェースコントローラ(NIC)34などのネットワークインターフェースを含む他の回路を備える。典型的には、音響受信機器32は、ソリッドステートフラッシュドライブのようなデジタル記憶装置、画面(タッチスクリーンなど)、および/またはキーボードなどの他のユーザインターフェス要素をさらに備える。いくつかの実施形態では、音響センサ38(および、選択肢として、A/D変換器42)は、音響受信機器32の外部にあるユニットに属する。例えば、音響センサ38は、有線またはBluetooth接続などの無線接続により音響受信機器32に接続されるヘッドセットに属することができる。
システム20は、さらにサーバ40を備え、サーバ40は、プロセッサ28、ハードドライブまたはフラッシュドライブなどのデジタル記憶装置30(「メモリ」とも呼ばれる)、および典型的にはネットワークインターフェースコントローラ(NIC)26などのネットワークインターフェースを含む他の回路を含む。サーバ40は、画面、キーボード、および/または他の任意の適切なユーザインターフェス要素をさらに備え得る。典型的には、サーバ40は、音響受信機器32から離れて、例えば、コントロールセンターに配置され、サーバ40および音響受信機器32は、セルラーネットワークおよび/またはインターネットを含み得るネットワーク24を介して、それぞれのネットワークインターフェースを介して互いに通信する。
通常、音響受信機器32のプロセッサ36とサーバ40のプロセッサ28は、以下で詳細に説明する肺気量評価手法を協調して実行する。例えば、ユーザが音響受信機器32に話しかけると、ユーザのスピーチの音波は、音響センサ38によってアナログスピーチ信号に変換され得、次に、音響センサ38は、A/D変換器42によってサンプリングおよびデジタル化され得る。(通常ユーザのスピーチは、8~45kHzのレートなどの任意の適切なレートでサンプリングされ得る。)結果として生じるデジタルスピーチ信号は、プロセッサ36によって受信され得る。次に、プロセッサ36は、NIC34を介してスピーチ信号をサーバに通信し、それによりプロセッサ28はNIC26からスピーチ信号を受信することができる。
続いて、図4を参照して以下に説明するようにスピーチ信号を処理することにより、プロセッサ28は、スピーチの様々なセグメントが被験者によって発話される間に、被験者22によって吐き出された空気の総量を推定することができる。次に、プロセッサ28は、推定総空気量の1つまたは複数の統計値を計算し、これらの統計値の少なくとも1つを、記憶装置30に格納されたベースライン統計値と比較することができる。プロセッサ28は音響または視覚的アラートなどのアラートを生成することができる。例えば、プロセッサ28は、電話をかけるか、または被験者および/または被験者の医師にテキストメッセージを送信することができる。あるいは、プロセッサ28は、プロセッサ36に逸脱を通知することができ、次に、プロセッサ36は、例えば、被験者に逸脱を通知するメッセージを音響受信機器32の画面上に表示することによって、アラートを生成することができる。
他の実施形態では、プロセッサ36は、デジタルスピーチ信号の処理の少なくとも一部を実行する。例えば、プロセッサ36は、被験者22によって吐き出された空気の総量を推定し、次いで、これらの推定された量の統計値を計算することができる。続いて、プロセッサ36は、統計値をプロセッサ28に伝達することができ、次に、プロセッサ28は、ベースラインとの比較を実行し、適切な場合、アラートを生成することができる。あるいは、方法は、システム20が必ずしもサーバ40を含む必要がないように、プロセッサ36によってその全体が実行され得る。
さらに他の実施形態では、音響受信機器32は、A/D変換器またはプロセッサを含まないアナログ電話器を含む。そのような実施形態では、音響受信機器32は、電話網を介して音響センサ38からサーバ40にアナログ音響信号を送信する。通常、電話網では、スピーチ信号はデジタル化され、デジタルで通信され、次にサーバ40に到達する前にアナログに戻り変換される。したがって、サーバ40は、適切な電話インターフェースを介して受信した入力アナログスピーチ信号をデジタルスピーチ信号へ変換するA/D変換器を備え得る。プロセッサ28は、A/D変換器からデジタルスピーチ信号を受信し、次に、本明細書で説明されるように信号を処理する。あるいは、サーバ40は、信号がアナログに変換される前に電話網から信号を受信することができ、その結果、サーバは、必ずしもA/D変換器を備える必要はない。
通常、サーバ40は、複数の異なる被験者に属する複数の機器と通信し、これらの複数の被験者のスピーチ信号を処理するように構成される。典型的には、記憶装置30は、ベースライン統計値および/または他の履歴情報が被験者について記憶されるデータベースを記憶する。記憶装置30は、図1に示されるように、サーバ40の内部にあり得、またはサーバ40の外部にあり得る。プロセッサ28は、単一のプロセッサとして、または協調的にネットワーク化またはクラスタ化されたプロセッサのセットとして具現化され得る。例えば、制御センターは、本明細書に記載の技術を協調的に実行する、それぞれのプロセッサを含む複数の相互接続されたサーバを含み得る。
いくつかの実施形態では、本明細書で説明するプロセッサ28および/またはプロセッサ36の機能は、例えば、1つまたは複数の特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)を使用して、ハードウェアのみで実装される。他の実施形態では、プロセッサ28およびプロセッサ36の機能は、少なくとも部分的にソフトウェアに実装されている。例えば、いくつかの実施形態では、プロセッサ28および/またはプロセッサ36は、少なくとも中央処理装置(CPU)およびランダムアクセスメモリ(RAM)を含むプログラムされたデジタルコンピューティング装置として具体化される。ソフトウェアプログラムを含むプログラムコードおよび/またはデータは、CPUによる実行および処理のためにRAMにロードされる。プログラムコードおよび/またはデータは、例えば、ネットワークを介して、電子形式でプロセッサにダウンロードされ得る。代替的または追加的に、プログラムコードおよび/またはデータは、磁気、光学、または電子メモリなどの非一過性有形媒体に提供および/または格納され得る。そのようなプログラムコードおよび/またはデータは、プロセッサに提供されると、本明細書に記載のタスクを実行するように構成されたマシンまたは専用コンピュータを形成する。
(較正)
ここで、本発明のいくつかの実施形態による、システム20を較正するための技術を概略的に示す図2~3を参照する。
被験者22の肺気量を測定する前に、サーバ40が被験者のスピーチの特徴ベクトル を被験者の肺からの空気の流量Φにマッピングする関数Φ()を学習する較正手順が、通常、病院またはその他の臨床現場で実施される。較正は、被験者のスピーチを獲得し、同時に被験者の肺からの風量を測定する機器を使用して実行され、これにより、スピーチが風量と相関するようになる。
例えば、較正は、ニューモタッハ44を使用して実行され得る。被験者22がニューモタッハ44に話しかけると、例えば、マイクロフォンおよびA/D変換器を含む、ニューモタッハの内部に配置されたスピーチ捕捉ユニット52が、被験者が発話したスピーチを捕捉し、そして発話されたスピーチを表す、デジタル較正スピーチ信号56をサーバ40に出力する。同時に、ニューモタッハは、スピーチを発話中に被験者が吐き出した風量を測定する。特に、ニューモタッハに属する圧力センサ48は、ニューモタッハ画面46の近位および遠位の両方で圧力を感知し、感知された圧力を示すそれぞれの信号を出力する。これらの信号に基づいて、回路50は、画面46を横切る圧力降下を計算し、さらに、圧力降下に比例する被験者の呼気の流量を計算する。回路50は、例えば、リットル/分単位で風量を表すデジタル風量信号54をサーバ40に出力する。(回路50がアナログ信号を出力する場合、この信号は、サーバ40に属するA/D変換器によってデジタル風量信号54に変換され得る。)
ニューモタッハ44は、日本のHOYA株式会社のペンタックスメディカルが提供する発声空力システム(登録商標)など、任意の適切な既製の製品を含むことができる。集音ユニット52は、その製造中にニューモタッハと統合されてもよく、または較正の前に特別に設置されてもよい。
較正スピーチ信号56および風量信号54を受信した後、サーバ40のプロセッサ28は、2つの信号を使用して、Φ()を学習する。第1に、プロセッサは、較正スピーチ信号を複数の較正信号フレーム58に分割し、各フレームは、任意の適切な持続時間(例えば、5~40ミリ秒)および任意の適切な数のサンプルを有する。通常、すべてのフレームの継続時間とサンプル数は同じである。(図3では、各フレームの開始と終了は、水平軸に沿った短い垂直の目盛りでマークされている。)
次に、プロセッサは、フレーム58のそれぞれに関連する特徴を計算する。そのような特徴は、例えば、フレームのエネルギー、フレーム内のゼロ交差率、および/またはフレームの線形予測係数(LPC)またはケプストラル係数など、フレームのスペクトルエンベロープを特徴付ける特徴を含み得る。これらの係数は、古井貞熙、「デジタルスピーチ処理:合成および認識」、CRC Press、2000に記載されているように計算することができ、この文献は参照により本明細書に組み込まれる。これらの特徴に基づいて、プロセッサは、フレームの1つまたは複数のより高いレベルの特徴を計算することができる。例えば、エネルギーおよびゼロ交差率に基づいて、プロセッサは、例えば、Bachu,R氏他著、「エネルギーおよびゼロ交差率を使用する有声および無声スピーチ信号の分離」、ASEE地域会議、ウェストポイント、2008年、に記載されているように、フレームが有声または無声のスピーチを含むか否かを示す特徴を計算することができる。この文献は参照により本明細書に組み込まれる。続いて、プロセッサは、フレームの特徴ベクトルに計算された1つまたは複数の特徴を包含する。
さらに、フレームのそれぞれについて、プロセッサは、例えば、フレームが及ぶ間隔にわたって、風量信号54の平均値または中央値を取得することによって、またはフレームの中央で信号54の値を取得することによって、風量Φを計算する。次に、プロセッサは、特徴と風量値の間の相関関係を学習する。
例えば、プロセッサは、較正スピーチ信号56から、各フレームのそれぞれのフレームエネルギーuを含む、フレームエネルギー信号60を導出することができる。次に、プロセッサは、風量をフレームエネルギーに回帰しうる。したがって、プロセッサは、
Φ(u)= b + bu + b +…+ b
の形式の多項式を計算できる。この式は、任意のフレームエネルギーuが与えられると、推定風量Φ(u)を返す。通常、この多項式の場合、b = 0である。いくつかの実施形態では、q = 2(つまり、ΦU(u)は2次多項式であり)、そしてb> 0である。一般に、b、b、および高次の係数は、音響センサ38のゲイン、A/D変換器42のステップサイズ、および気流およびスピーチ信号が表現される単位などの様々なパラメータに依存する。
いくつかの実施形態では、プロセッサは、スピーチ認識技術(以下に説明する隠れマルコフモデル技術など)を使用して、フレームの特徴に基づいて、各フレームまたはフレームのシーケンスが属する音響音声ユニットAPU hを識別する。次に、プロセッサは、APUごと、または同様のAPUのグループごとに、個別のマッピング関数Φ(|h)を学習する。
たとえば、上記の回帰は、APU(音響音声ユニット)ごとに個別に実行できるため、APUごとにそれぞれの多項式Φ(u)が学習される。一般に、有声音素、特に母音の場合、話者は比較的少量の呼気気流を使用して比較的高いスピーチエネルギーレベルを生成するが、無声音素は同じ量のスピーチエネルギーを生成するためにより多くの気流を必要とする。したがって、bは、無声音素と比較して、無声音素の方が大きくなる可能性がある(たとえば、4~10倍大きい)。したがって、純粋に説明的な例として、Φ(u|/a/)(音素「/a/」に対して)が0.2u - 0.005uの場合、Φ(u|/s/)は1.4u -0.06uになる。明確な遷移を持つ子音(破裂音など)の場合、持続する子音と比較して、エネルギーと気流の関係はより非線形になる可能性があり、Φには前者のより高次の項が含まれる可能性がある。したがって、上記の例を続けると、破裂音/p/の場合、Φ(u|/p/)はu - 0.2u - 0.07uになる可能性がある。
一般に、Φ()には、フレームエネルギーに関して前述したような単変量多項式関数、または複数の特徴の多変量多項式関数が含まれうる。たとえば、にK個の成分v、v、…v(フレームエネルギーは通常これらの成分の1つ)が含まれる場合、Φ()は:
+b +…+b +b11 +b12 +…+b1K +b22 +b23 +…+b2K +…+bKK
の形式の多変量2次多項式になる。代替的または追加的に、Φ()は、三角多項式(例えば、フレームエネルギーuの単変量三角多項式)または指数関数などの他のタイプの関数を含み得る。
幾つかのケースでは、被験者の口とスピーチ捕捉ユニット52との間の距離d1は、被験者の口と音響センサ38との間の予想距離d2とは異なる(たとえば、より小さい)場合がある。あるいは、ニューモタッハは被験者のスピーチの録音と干渉する場合がある。代替的または追加的に、スピーチ捕捉ユニット52の特性は、音響センサ38の特性とは異なり得る。
これらの違いを補正するために、予備的な較正手順を実行することができる。この手順の間、適切なスピーチ信号がスピーカーからニューモタッハに再生され、その結果、スピーチ信号はスピーチ捕捉ユニット52によって記録される。同じスピーチ信号がニューモタッハなしで再生され、スピーカーから距離d2に配置された音響センサ38(または別の同一の音響センサ)によって記録される。この予備較正に基づいて、スピーチ捕捉ユニット52の記録を音響センサ38の記録にマッピングする伝達関数が学習される。続いて、Φ()を学習する前に、この伝達関数が信号56に適用される。
いくつかの実施形態では、上記の較正手順を使用して、それぞれのΦ()が各被験者について学習される。(Φ()がAPU(音響音声ユニット)に依存する実施形態の場合、較正中に被験者から得られるスピーチサンプルは、通常、被験者の各APUに対して十分な数のサンプルを含むように、十分に大きく多様である。)あるいは、被験者と独立したΦ()は、複数の被験者から得られた対応するスピーチおよび風量信号の大規模なセットから導出できる。さらに別の代替案として、Φ()は、複数の被験者からのデータを使用して初期化され(したがって、被験者のすべてのAPUがカバーされることを保証する)、次に、上記の較正手順を使用して、被験者ごとに別々に修正され得る。
(気流量の推定)
次に、本発明のいくつかの実施形態による、スピーチ信号の処理の概略図である図4を参照する。
上記の較正手順に続いて、サーバ40のプロセッサ28は、Φ()を使用して、被験者のスピーチに基づいて被験者22の肺気量を推定する。詳細には、プロセッサ28は、最初に、音響受信機器32(図1)を介して、被験者によって発話されたスピーチを表すスピーチ信号62を受信する。次に、プロセッサは、スピーチ信号62を複数のフレームに分割し、図3を参照して信号56について前述したように、各フレームに関連する特徴を計算する。続いて、プロセッサは、特徴に基づいて、それぞれ、スピーチのスピーチセグメント(概要では「SESS」と呼ばれる)を表すフレームのシーケンス66をそれぞれ識別する。
たとえば、被験者のスピーチは、複数のスピーチセグメントを含むことができ、その間、被験者は、スピーチが生成されない各休止によって互いに分離された有声または無声のスピーチを生成し、それにより、信号62は、休止を表す他のフレーム64によって互いに分離された複数のシーケンス66を含む。この場合、プロセッサは、スピーチセグメントを表すフレームと他のフレーム64とを区別することによって、シーケンス66を識別する。これを行うために、プロセッサは、フレームをAPUにマッピングするために使用されるのと同じスピーチ認識技術を使用することができる。(言い換えれば、プロセッサは、「非スピーチ」APUにマッピングされていない任意のフレームを、シーケンス66に属するスピーチフレームとして識別し得る。)あるいは、プロセッサは、Ramirez, Javier氏他著、「スピーチ活動検出-基礎およびスピーチ認識システムのロバスト性」、InTech、2007に記載されているアルゴリズムのいずれかのアルゴリズムのようなスピーチ活動検出(VAD)アルゴリズムを使用し得る。その文献の開示は参照により本明細書に組み込まれる。次に、各シーケンス66は単一の呼気に対応すると想定され、一方、シーケンス間の休止はそれぞれの吸気に対応すると想定される。
続いて、プロセッサは、スピーチセグメントが発話されている間に被験者によって吐き出された空気のそれぞれの推定総量を計算する。この計算を実行するために、プロセッサは、各シーケンス66について、シーケンスに属するフレーム中に被験者によって吐き出された空気のそれぞれの推定流量を計算し、次に、推定流量に基づいて、上記でスピーチ呼気量(SEV)と呼ばれるそのシーケンスの推定総呼気量を計算する。例えば、プロセッサは、推定された流量にフレームの持続時間を乗ずることによって各フレームの推定された体積を計算し、次に推定された体積を合計することができる。(シーケンス内のフレームの期間が等しい場合、これは、推定流量の平均にシーケンスの合計期間を乗じることと同じである。)
たとえば、図4は、14フレーム{ 、… 14}を含むシーケンスの例を示している。このシーケンス中に被験者によって吐き出される空気の推定総量を計算するために、プロセッサは、最初に、フレーム{ 、… 14}のそれぞれについて、図3を参照して前述したように、フレームの1つまたは複数の特徴を計算する。 言い換えると、プロセッサは特徴ベクトル{ 、… 14}を計算する。または、単一の特徴(フレームエネルギーなど)のみが使用される場合は、特徴スカラー{v、v、…v14}を計算する。次に、プロセッサは、フレームの少なくとも1つの特徴に、較正手順中に学習された適切なマッピング関数Φ(v)を適用することによって、各フレームの推定流量を計算する。例えば、プロセッサは、フレームの特徴に基づいて、フレームが属するAPUを識別し、APUに応答して適切なマッピング関数を選択し、次いで、選択されたマッピング関数を適用することができる。したがって、プロセッサは推定流量{Φ( )、Φ( )、…Φ( 14)}を取得する。最後に、プロセッサは推定流量を使用して、総呼気量を計算する。
1つまたは複数の計算されたスピーチ呼気量(SEV)値に応答して、プロセッサは、図1を参照して前述したように、アラートを生成しうる。たとえば、単一のスピーチセグメント、したがって単一のSEV値の場合、プロセッサはSEVをベースラインSEVと比較しうる。現在のSEVがベースラインSEVよりも小さい(たとえば、事前定義されたしきい値パーセンテージを超えている)ことに応答して、アラートが生成されうる。あるいは、(図4に示されるように)複数のスピーチセグメントの場合、プロセッサは、SEVの1つまたは複数の統計値を計算し、次にこれらの統計値をそれぞれのベースライン統計値と比較することができる。ベースラインから逸脱している統計値の少なくとも1つに応答して(たとえば、事前定義されたしきい値パーセンテージを超えてベースラインよりも小さいか大きいために)、アラートが生成されうる。統計値の例には、SEV値の平均、標準偏差、および50パーセンタイル(中央値)や100パーセンタイル(最大値)などの適切なパーセンタイルが含まれる。SEVは通常、呼吸ごとに異なるため、複数のSEVの統計値を使用すると、より正確な診断が容易になる。
いくつかの実施形態では、プロセッサは、被験者の以前のスピーチを表す別のスピーチ信号から、ベースラインSEV、または複数のSEVのベースライン統計値を計算する。前のスピーチは、たとえば、被験者の状態が安定している前の時間に発話されうる。
いくつかの実施形態では、信号62が横になっている間の被験者のスピーチを表すように、被験者は横になっている間に話すように促される。そのような実施形態では、ベースラインSEVまたはベースライン統計値は、横になっていない間に被験者によって発せられた他のスピーチから計算され得る。(この他のスピーチは、被験者の状態が安定している間、または現時点で、信号62を獲得する前または後に発話されうる。)横たわっている位置と横たわっていない位置の間の差異がしきい値の差異を超える場合、アラートが生成されうる。たとえば、横たわっていない位置の関連する統計値(平均SEVなど)と横たわっている位置の関連する統計値の差異パーセンテージが事前定義されたしきい値パーセンテージより大きい場合、またはこれらの2つの統計値間の比率が、事前定義されたしきい値を超えた数値だけ1から逸脱している場合、アラートが生成されうる。代替的または追加的に、この差異が前回よりも大きい場合、アラートが生成されうる。たとえば、被験者の状態が安定しているときに、横臥位での被験者の平均SEVが非横臥位よりもわずか5%少なかったが、現在、被験者の平均SEVが横臥位で10%少ない場合、アラート生成されうる。
いくつかの実施形態では、被験者22は、各セッション中に同じ事前定義されたスピーチを発するように指示される。他の実施形態では、スピーチはセッション間で異なる。例えば、被験者は、各セッション中に音響受信機器32の画面から異なるそれぞれのテキストを読むように指示され得る。あるいは、被験者は自由に話すように、および/または「今日はどのように感じますか?」などのさまざまな質問に答えるように指示される場合がある。さらに別の代替案として、被験者は全く話すように促されず、むしろ、被験者のスピーチは、被験者が通常の電話会話などの通常の会話に従事している間に獲得され得る。
いくつかの実施形態では、図3および図4の両方に示されているように、プロセッサ28によって定義されたフレームは互いに重なり合わない。むしろ、各フレームの最初のサンプルは、前のフレームの最後のサンプルの直後に続く。他の実施形態では、信号56および/または信号62において、フレームは互いに重なり合うことができる。この重複は修正される可能性がある。たとえば、フレーム期間が20ミリ秒であると仮定すると、各フレームの最初の10ミリ秒は、前のフレームの最後の10ミリ秒とオーバーラップする可能性がある。(言い換えると、フレーム内のサンプルの最初の50%は、前のフレーム内のサンプルの最後の50%でもある。)あるいは、オーバーラップのサイズは、信号の過程で変化しうる。
上記の説明で想定されているように、各フレームの継続時間は通常同じである。あるいは、フレーム持続時間は信号の過程で変化しうる。上記の技術は、様々なフレーム持続時間に容易に適合させることができることに留意されたい。たとえば、各フレーム のエネルギー
Figure 0007385299000003
は、フレーム内のサンプル数を考慮して正規化されうる。
(スピーチ信号の正規化)
一般に、音響センサ38によって獲得されたスピーチの振幅は、被験者の口に対する音響センサの位置と向きに依存する。異なるセッションからのSEV統計値を比較すると、意味のある結果が得られない可能性があるため、これには課題がある。
この課題を克服するために、音響センサの位置と向きを固定することができる。たとえば、被験者に音響受信機器32を常に耳に当てるように指示するか、音響センサの位置と向きが常に固定されているヘッドセットを使用するように指示する。あるいは、各セッション中に、上記のように、被験者は、音響受信機器32の画面からテキストを読み取るように指示され得、その結果、被験者は、被験者の口に対してほぼ同じ位置および向きで装置を常に保持する。
別の代替案として、推定風量を計算する前に、被験者の口に対する音響センサの位置および/または向きを考慮するなど、信号62を正規化することができる。位置および向きを確認するために、音響受信機器32に属するカメラは、被験者が話している間に被験者の口の画像を取得し、次いで、画像処理技術を使用して、画像から音響センサの位置および/または向きを計算し得る。代替的または追加的に、赤外線センサなどの装置に属する他のセンサをこの目的のために使用することができる。
より具体的には、各フレーム は、正規化方程式 = G(p-1 に従って信号62内の生のフレーム を正規化することによって計算され得る。ここで は、 が発話されている間の被験者の口に対する音響センサの位置および向きを表すベクトルであり、そしてG( )は、 が与えられた場合に、音響センサへの音の伝播の効果をモデル化する線形時間不変演算子である。(フレームが正規化される特定の位置と方向に対してG( )= 1)。G( )は、有限インパルス応答(FIR)システムまたは無限インパルス応答(IIR)システムとしてモデル化できる。幾つかのケースでは、G( )は、スカラー値関数g( )に対して、
= G( -1
/ g(
に減少するように、純粋な減衰システムとしてモデル化されうる。一般に、G( )は、さまざまな方向での音響センサのゲインなど、音響センサの関連する特性とともに、音の伝播の物理的原理から導き出すことができる。
(フレームをAPUにマッピングする)
一般に、フレームをAPU(音響音声ユニット)にマッピングするには、任意の適切な手法が使用されうる。しかしながら、典型的には、本発明の実施形態は、隠れマルコフモデル(HMM)技術、動的タイムワーピング(DTW)、およびニューラルネットワークなどの、スピーチ認識で一般的に使用される技術を利用する。(スピーチ認識では、フレームのAPUへのマッピングは通常、最終的に破棄される中間出力を構成する。)以下では、スピーチ認識を容易にするためにスピーチの生成に簡略化された確率モデルを使用するHMM手法について簡単に説明する。
人間のスピーチ生成システムには、複数の調音器官が含まれている。スピーチ生成中、生成される音に応じて、スピーチ生成システムの状態が変化する(例えば、各器官の位置および張力に関して)。HMM手法は、各フレーム の間、スピーチ生成システムが特定の状態sにあることを前提としている。モデルは、あるフレームから次のフレームへの状態遷移がマルコフランダムプロセスに従うことを前提としている。つまり、次のフレームの状態の確率は、現在のフレームの状態にのみ依存する。
HMM手法は、特徴ベクトルを、確率密度関数(pdf)f)が現在のフレームの状態「s」によって決定されるランダムベクトルのインスタンスとして扱う。したがって、状態シーケンス{s1、s2、…sN}がわかっている場合、特徴ベクトル{ 、… }のシーケンスの条件付きpdfはfs1 )* fs2 )*…*fsN )として表すことができる。
各APUは、特定の初期状態確率、および状態間の特定の遷移確率を持つ特定の状態シーケンスによって表される。(上記にかかわらず、「合成音響ユニット」として知られる1つのタイプのAPUには、単一の状態のみが含まれることに注意されたい。)各単語は、その単語を構成する、APUのそれぞれの状態シーケンスを連結した状態シーケンスで表される。単語が異なって発音できる場合、単語はいくつかの状態シーケンスで表され、各シーケンスには、発音においてその変化形が発生する可能性に対応する初期確率がある。
被験者の発話を構成する単語が事前にわかっている場合、その発話は、構成単語のそれぞれの状態シーケンスを連結した状態シーケンスで表すことができる。ただし、実際には、特定のテキストを読むように指示された場合でも、間違った単語を読んだり、単語をスキップしたり、単語を繰り返したりするなどして、単語が事前にわかっている可能性は少ない。したがって、HMM状態は、ある単語から次の単語への遷移だけでなく、単語またはAPUの挿入または削除も許可するように編成されている。テキストが事前にわからない場合、すべてのAPUの状態は、任意のAPUから他のAPUへの移行を許可するように編成され、任意の2つのAPUの移行確率は、被験者によって話された言語で2番目のAPUが最初のAPUに続く頻度を反映する。
(上記のように、APUには、たとえば、音素、ダイフォン、トライフォン、または合成音響ユニットが含まれる場合がある。各合成音響ユニットは、単一のHMM状態で表される。)
HMM手法はさらに、状態シーケンスがマルコフシーケンスであり、状態シーケンスの事前確率がπ[s]*a[s,s]*a[s,s]*…*a[sN-1,s]で与えられると想定する。 ここで、π[s]は初期状態がsである確率であり、a [s、s]はsに続くsの遷移確率である。したがって、特徴ベクトルのシーケンスと状態のシーケンスの同時確率は、π[s]*a[s,s]*a[s,s]*…*a[sN-1,s]*fs1(v)*fs2(v)*…* fsN(v)に等しい。HMM手法は、任意の特徴ベクトルシーケンス{v、v、…v}に対しこの同時確率を最大化する状態シーケンス{s、s、…s}を見つける。(これは、例えば、Rabiner氏およびJuang氏、スピーチ認識の基礎、Prentice Hall、1993に記載されているビタビ(Viterbi)アルゴリズムを使用して行うことができ、その開示は参照により本明細書に組み込まれる。)各状態は特定のAPUに対応するため、HMM技術は、その発話に対するAPUシーケンス{y、y、…y}を与える。
確率密度関数f)のパラメータ、および初期確率と遷移確率は、大規模なスピーチデータベースでトレーニングすることによって学習される。通常、このようなデータベースを構築するには、HMMモデルが被験者固有ではないように、複数の被験者からスピーチサンプルを収集する必要がある。それにもかかわらず、一般的なHMMモデルは、較正手順中に記録された被験者のスピーチに基づいて、特定の被験者に適合させることができる。このような適応は、肺気量の推定に使用されるスピーチの内容が事前にわかっていて、このスピーチのサンプル発話が較正手順中に被験者から取得される場合に特に役立ちうる。
本発明は、本明細書でとくに示され、説明されたものに限定されないことが当業者には理解されよう。本発明の実施形態の範囲はむしろ、上記のさまざまな特徴の組合せおよびサブ組合せの両方、ならびに上記の記載を読んだときに当業者に想起される先行技術にはないその変形および修正を含む。本明細書に参照により組み込まれた文書は、本明細書の不可欠な部分と見做されるべきであり、本明細書において明示的または暗黙的になされた定義と組み込まれた文書の定義が異なる場合は、本明細書の定義が優先する。本明細書の定義を考慮すべきである。

Claims (32)

  1. システムであって:
    回路と;そして1つまたは複数のプロセッサと;を有し、
    前記1つまたは複数のプロセッサは:
    前記回路から、1つまたは複数のスピーチセグメントを含む、被験者によって発話された、スピーチを表すスピーチ信号を受信するステップと;
    フレームの1つまたは複数のシーケンスがそれぞれ前記スピーチセグメントを表すように、前記スピーチ信号を複数の前記フレームに分割するステップと;
    前記シーケンスごとに、
    前記シーケンスに属する前記フレームの各フレームについて、前記フレームの1つまたは複数の特徴を計算するステップと;
    前記シーケンスに属する前記フレーム中に被験者が吐き出す空気の、それぞれの推定流量を、前記シーケンスに属する前記フレームの各フレームの前記特徴に対し、前記特徴を前記各フレームの前記推定流量にマッピングする関数を適用することによって、計算するステップと;
    前記推定流量に基づいて、それぞれの推定総空気量を計算するステップと;により
    前記スピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップと;そして
    前記空気の推定総量に応じて、アラートを生成するステップと;
    を含むプロセスを協調的に実行するように構成される、
    ことを特徴とするシステム。
  2. 前記回路がネットワークインターフェースを含む、ことを特徴とする請求項1に記載のシステム。
  3. 前記回路が、前記スピーチを表すアナログ信号を前記スピーチ信号に変換するように構成されたアナログ-デジタル変換器を備える、ことを特徴とする請求項1に記載のシステム。
  4. 前記1つまたは複数のプロセッサが単一のプロセッサからなる、ことを特徴とする請求項1に記載のシステム。
  5. 前記各フレームの持続時間は、5~40ミリ秒の間である、ことを特徴とする請求項1に記載のシステム。
  6. 前記1つまたは複数のスピーチセグメントは、それぞれの休止によって互いに分離された複数のスピーチセグメントを有し、前記プロセスは、スピーチセグメントを表すフレームのシーケンスと休止を表すフレームのシーケンスとを区別することによって、フレームのシーケンスを識別するステップをさらに含む、ことを特徴とする請求項1に記載のシステム。
  7. 前記プロセスは、前記スピーチ信号を受信する前に、前記被験者が発した他のスピーチを表す較正スピーチ信号を受信するステップと;前記他のスピーチを発話している間に前記被験者によって吐き出された空気の測定された流量を表す風量信号を受信するステップと;そして 前記較正スピーチ信号と前記風量信号を使用して、前記少なくとも1つの特徴を前記推定流量にマッピングする関数を学習するステップと;をさらに含む、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  8. 前記少なくとも1つの特徴は、前記フレームのエネルギーを含む、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  9. 前記関数が、前記少なくとも1つの特徴の多項式関数である、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  10. 前記プロセスは、前記特徴に基づいて、前記フレームが属する音響音声ユニット(APU)を識別するステップと;そして前記APUに応答して前記関数を選択するステップと;をさらに含む、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  11. 前記APUのタイプは、音素、ダイフォン、トライフォン、および合成音響ユニットからなるAPUタイプのグループから選択される、ことを特徴とする請求項10に記載のシステム。
  12. 前記1つまたは複数のスピーチセグメントは、複数のスピーチセグメントを含み、前記プロセスは、前記推定総空気量の1つまたは複数の統計値を計算するステップをさらに含み、前記アラートを生成するステップは、ベースライン統計値から逸脱している少なくとも1つの前記統計値に応答してアラートを生成するステップを有する、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  13. 前記スピーチは、前記被験者が横になっている間に前記被験者によって発話される、ことを特徴とする請求項12に記載のシステム。
  14. 前記プロセスは、前記被験者が横になっていない間に前記被験者が発した他のスピーチを表す別のスピーチ信号を受信するステップと;そして前記別のスピーチ信号からベースライン統計値を計算するステップと;をさらに含む、ことを特徴とする請求項13に記載のシステム。
  15. 前記プロセスは、前記被験者の以前のスピーチを表す別のスピーチ信号からベースライン統計値を計算するステップをさらに含む、ことを特徴とする請求項12に記載のシステム。
  16. 前記少なくとも1つの統計値は、平均、標準偏差、およびパーセンタイルからなる統計値のグループから選択された統計値である、ことを特徴とする請求項12に記載のシステム。
  17. 前記スピーチが音響センサによって獲得され、前記プロセスは、それぞれの前記推定総空気量を計算する前に、前記スピーチの発話中に取得された口の画像に基づいて、前記被験者の口に対する前記音響センサの位置を考慮するために前記スピーチ信号を正規化するステップをさらに含む、ことを特徴とする請求項1~6のいずれか一項に記載のシステム。
  18. 被験者によって発話された、1つまたは複数のスピーチセグメントを含むスピーチを表すスピーチ信号を受信するステップと;
    フレームの1つまたは複数のシーケンスがそれぞれ前記スピーチセグメントを表すように、前記スピーチ信号を複数のフレームに分割するステップと;
    前記シーケンスごとに:
    前記シーケンスに属する前記フレームの各フレームについて、前記フレームの1つまたは複数の特徴を計算するステップと;
    前記シーケンスに属する前記フレーム中に被験者が吐き出す空気の、それぞれの推定流量を、前記シーケンスに属する前記フレームの各フレームの前記特徴に対し、前記特徴を前記各フレームの前記推定流量にマッピングする関数を適用することによって、計算するステップと;
    前記推定流量に基づいて、推定総空気量のそれぞれを計算するステップと;により
    前記スピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップと;そして
    前記推定総空気量に応じて、アラートを生成するステップと;
    を有することを特徴とするコンピュータ装置により実行される方法。
  19. 前記各フレームの持続時間は、5~40ミリ秒の間である、ことを特徴とする求項18に記載の方法。
  20. 前記1つまたは複数のスピーチセグメントは、それぞれの休止によって互いに分離された複数のスピーチセグメントを有し、前記方法は、スピーチセグメントを表すフレームのシーケンスと休止を表すフレームのシーケンスとを区別することによって、フレームのシーケンスを識別するステップをさらに含む、ことを特徴とする請求項18に記載の方法。
  21. 前記スピーチ信号を受信する前に、前記被験者が発した他のスピーチを表す較正スピーチ信号を受信するステップと;前記他のスピーチを発話している間に前記被験者によって吐き出された空気の測定された流量を表す風量信号を受信するステップと;そして 前記較正スピーチ信号と前記風量信号を使用して、前記少なくとも1つの特徴を前記推定流量にマッピングする関数を学習するステップと;をさらに含む、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  22. 前記少なくとも1つの特徴は、前記フレームのエネルギーを含む、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  23. 前記関数が、前記少なくとも1つの特徴の多項式関数である、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  24. 前記特徴に基づいて、前記フレームが属する音響音声ユニット(APU)を識別するステップと;そして前記APUに応答して前記関数を選択するステップと;をさらに含む、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  25. 前記APUのタイプは、音素、ダイフォン、トライフォン、および合成音響ユニットからなるAPUタイプのグループから選択される、ことを特徴とする請求項24に記載の方法。
  26. 前記1つまたは複数のスピーチセグメントは、複数のスピーチセグメントを含み、前記方法は、前記推定総空気量の1つまたは複数の統計値を計算するステップをさらに含み、前記アラートを生成するステップは、ベースライン統計値から逸脱している少なくとも1つの前記統計値に応答してアラートを生成するステップを有する、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  27. 前記スピーチは、前記被験者が横になっている間に前記被験者によって発話される、ことを特徴とする請求項26に記載の方法。
  28. 前記方法は、前記被験者が横になっていない間に前記被験者が発した他のスピーチを表す別のスピーチ信号を受信するステップと;そして前記別のスピーチ信号からベースライン統計値を計算するステップと;をさらに含む、ことを特徴とする請求項27に記載の方法。
  29. 前記被験者の以前のスピーチを表す別のスピーチ信号からベースライン統計値を計算するステップをさらに含む、ことを特徴とする請求項26に記載の方法。
  30. 前記少なくとも1つの統計値は、平均、標準偏差、およびパーセンタイルからなる統計値のグループから選択された統計値である、ことを特徴とする請求項26に記載の方法。
  31. 前記スピーチが音響センサによって獲得され、前記方法は、それぞれの前記推定総空気量を計算する前に、前記スピーチの発話中に取得された口の画像に基づいて、前記被験者の口に対する前記音響センサの位置を考慮するために前記スピーチ信号を正規化するステップをさらに含む、ことを特徴とする請求項18~20のいずれか一項に記載の方法。
  32. プログラム命令が格納される有形非一過性コンピュータ可読媒体を含むコンピュータソフトウェア製品であって、前記命令はプロセッサによって読み取られると、前記プロセッサに対し:
    験者によって発話された、1つまたは複数のスピーチセグメントを含む、スピーチを表すスピーチ信号を受信するステップと;
    フレームの1つまたは複数のシーケンスがそれぞれ前記スピーチセグメントを表すように、前記スピーチ信号を複数のフレームに分割するステップと;
    前記シーケンスごとに、
    前記シーケンスに属する前記フレームの各フレームについて、前記フレームの1つまたは複数の特徴を計算するステップと;
    前記シーケンスに属する前記フレーム中に被験者が吐き出す空気の、それぞれの推定流量を、前記シーケンスに属する前記フレームの各フレームの前記特徴に対し、前記特徴を前記各フレームの前記推定流量にマッピングする関数を適用することによって、計算するステップと;
    前記推定流量に基づいて、推定総空気量のそれぞれを計算するステップと;により
    前記スピーチセグメントが発話されている間に被験者が吐き出した空気のそれぞれの推定総量を計算するステップと;そして
    前記推定総空気量に応じて、アラートを生成するステップと;
    を実行させる、ことを特徴とするコンピュータソフトウェア製品。
JP2021517971A 2018-10-11 2019-10-03 スピーチ分析による肺気量の推定 Active JP7385299B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/157,118 US10847177B2 (en) 2018-10-11 2018-10-11 Estimating lung volume by speech analysis
US16/157,118 2018-10-11
PCT/IB2019/058408 WO2020075015A1 (en) 2018-10-11 2019-10-03 Estimating lung volume by speech analysis

Publications (2)

Publication Number Publication Date
JP2022502189A JP2022502189A (ja) 2022-01-11
JP7385299B2 true JP7385299B2 (ja) 2023-11-22

Family

ID=68242253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021517971A Active JP7385299B2 (ja) 2018-10-11 2019-10-03 スピーチ分析による肺気量の推定

Country Status (9)

Country Link
US (2) US10847177B2 (ja)
EP (1) EP3637433A1 (ja)
JP (1) JP7385299B2 (ja)
KR (1) KR20210076921A (ja)
CN (1) CN112822976B (ja)
AU (1) AU2019356224B2 (ja)
CA (1) CA3114864A1 (ja)
IL (2) IL269807B (ja)
WO (1) WO2020075015A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11484211B2 (en) 2020-03-03 2022-11-01 Cordio Medical Ltd. Diagnosis of medical conditions using voice recordings and auscultation
US20210298711A1 (en) * 2020-03-25 2021-09-30 Applications Technology (Apptek), Llc Audio biomarker for virtual lung function assessment and auscultation
US11417342B2 (en) 2020-06-29 2022-08-16 Cordio Medical Ltd. Synthesizing patient-specific speech models
US20220110542A1 (en) * 2020-10-08 2022-04-14 International Business Machines Corporation Multi-modal lung capacity measurement for respiratory illness prediction
US20220257175A1 (en) * 2021-02-11 2022-08-18 Samsung Electronics Co., Ltd Speech-based pulmonary assessment
WO2024074687A1 (en) * 2022-10-07 2024-04-11 F. Hoffmann-La Roche Ag Assessment of lung capacity, respiratory function, abdominal strength and/or thoracic strength or impairment
WO2024074694A1 (en) * 2022-10-07 2024-04-11 F. Hoffmann-La Roche Ag Speech function assessment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002519091A (ja) 1998-06-30 2002-07-02 ノキア モービル フォーンズ リミティド 音声パラメータ分析による肺機能評価装置
WO2014045257A1 (en) 2012-09-24 2014-03-27 Koninklijke Philips N.V. System and method for determining a person's breathing

Family Cites Families (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1219618A (en) 1968-08-07 1971-01-20 Vsesojusny Nii Med Priborostro Apparatus for acoustic examination of the lungs
US4838275A (en) 1985-11-29 1989-06-13 Lee Arnold St J Home medical surveillance system
JPH0482538A (ja) 1990-07-25 1992-03-16 Hitachi Ltd 呼吸音診断装置
US5864810A (en) 1995-01-20 1999-01-26 Sri International Method and apparatus for speech recognition adapted to an individual speaker
JPH09173320A (ja) 1995-12-25 1997-07-08 Casio Comput Co Ltd 音声検査装置
US5729694A (en) * 1996-02-06 1998-03-17 The Regents Of The University Of California Speech coding, reconstruction and recognition using acoustics and electromagnetic waves
US5853005A (en) 1996-05-02 1998-12-29 The United States Of America As Represented By The Secretary Of The Army Acoustic monitoring system
FI2607U1 (fi) 1996-06-17 1996-09-27 Nokia Mobile Phones Ltd Lisäyksikkö, joka on tarkoitettu kytkettäväksi digitaaliseen langattomaan puhelimeen
US6168568B1 (en) 1996-10-04 2001-01-02 Karmel Medical Acoustic Technologies Ltd. Phonopneumograph system
SE508439C2 (sv) 1997-04-21 1998-10-05 Siemens Elema Ab Mätanordning för samtidig bestämning av flöde av en strömmande gasblandning och koncentration av en specifik gas i gasblandningen.
US6241683B1 (en) 1998-02-20 2001-06-05 INSTITUT DE RECHERCHES CLINIQUES DE MONTRéAL (IRCM) Phonospirometry for non-invasive monitoring of respiration
US6389393B1 (en) 1998-04-28 2002-05-14 Texas Instruments Incorporated Method of adapting speech recognition models for speaker, microphone, and noisy environment
IL128000A0 (en) 1999-01-11 1999-11-30 Univ Ben Gurion A method for the diagnosis of thought states by analysis of interword silences
US6527729B1 (en) 1999-11-10 2003-03-04 Pacesetter, Inc. Method for monitoring patient using acoustic sensor
US6600949B1 (en) 1999-11-10 2003-07-29 Pacesetter, Inc. Method for monitoring heart failure via respiratory patterns
SE517026C2 (sv) 2000-11-17 2002-04-02 Forskarpatent I Syd Ab Metod och anordning för talanalys
US7016833B2 (en) 2000-11-21 2006-03-21 The Regents Of The University Of California Speaker verification system using acoustic data and non-acoustic data
US7035797B2 (en) 2001-12-14 2006-04-25 Nokia Corporation Data-driven filtering of cepstral time trajectories for robust speech recognition
WO2003081578A1 (en) 2002-03-21 2003-10-02 U.S. Army Medical Research And Materiel Command Methods and systems for detecting, measuring, and monitoring stress in speech
US6983246B2 (en) 2002-05-21 2006-01-03 Thinkengine Networks, Inc. Dynamic time warping using frequency distributed distance measures
DE10228497B4 (de) 2002-06-21 2012-01-26 Nicolay Verwaltungs-Gmbh Verfahren und Vorrichtung zum Ermitteln eines Anteils eines für die Stoffwechselfunktion eines atmenden Lebewesens charakteristischen Bestandteils in der von dem Lebewesen ausgeatmeten Luft
DE10232916B4 (de) 2002-07-19 2008-08-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
US7226422B2 (en) 2002-10-09 2007-06-05 Cardiac Pacemakers, Inc. Detection of congestion from monitoring patient response to a recumbent position
KR100596099B1 (ko) 2002-11-11 2006-07-06 독립행정법인전자항법연구소 심신 진단 시스템
US7267652B2 (en) 2003-04-10 2007-09-11 Vivometrics, Inc. Systems and methods for respiratory event detection
IL155955A0 (en) 2003-05-15 2003-12-23 Widemed Ltd Adaptive prediction of changes of physiological/pathological states using processing of biomedical signal
US7033323B2 (en) * 2004-02-04 2006-04-25 Deepbreeze Ltd. Method and system for analyzing respiratory tract air flow
DE102004023824B4 (de) 2004-05-13 2006-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Beurteilung einer Güteklasse eines zu prüfenden Objekts
JP2006075447A (ja) 2004-09-13 2006-03-23 Hitachi Ltd 携帯ヘルスチェック装置およびそれを用いた呼気分析サービス方法
US20060116878A1 (en) 2004-11-30 2006-06-01 Kenji Nagamine Asthma diagnostic apparatus, asthma diagnostic method, and storage medium storing asthma diagnostic program
US7762264B1 (en) 2004-12-14 2010-07-27 Lsvt Global, Inc. Total communications and body therapy
US20060167385A1 (en) 2005-01-24 2006-07-27 3M Innovative Properties Company Analysis of auscultatory sounds using voice recognition
US9089275B2 (en) 2005-05-11 2015-07-28 Cardiac Pacemakers, Inc. Sensitivity and specificity of pulmonary edema detection when using transthoracic impedance
US7529670B1 (en) * 2005-05-16 2009-05-05 Avaya Inc. Automatic speech recognition system for people with speech-affecting disabilities
US7398213B1 (en) 2005-05-17 2008-07-08 Exaudios Technologies Method and system for diagnosing pathological phenomenon using a voice signal
US7457753B2 (en) 2005-06-29 2008-11-25 University College Dublin National University Of Ireland Telephone pathology assessment
JP4786384B2 (ja) 2006-03-27 2011-10-05 株式会社東芝 音声処理装置、音声処理方法および音声処理プログラム
US8684900B2 (en) 2006-05-16 2014-04-01 Bao Tran Health monitoring appliance
US20080013747A1 (en) 2006-06-30 2008-01-17 Bao Tran Digital stethoscope and monitoring instrument
US20080275349A1 (en) 2007-05-02 2008-11-06 Earlysense Ltd. Monitoring, predicting and treating clinical episodes
US8221323B2 (en) 2007-08-03 2012-07-17 Cardiac Pacemakers, Inc. Using acoustic energy to compute a lung edema fluid status indication
US20090043586A1 (en) 2007-08-08 2009-02-12 Macauslan Joel Detecting a Physiological State Based on Speech
WO2009036327A1 (en) 2007-09-14 2009-03-19 Corventis, Inc. Adherent device for respiratory monitoring and sleep disordered breathing
US20090099848A1 (en) 2007-10-16 2009-04-16 Moshe Lerner Early diagnosis of dementia
WO2010123483A2 (en) 2008-02-28 2010-10-28 Mcclean Hospital Corporation Analyzing the prosody of speech
US20090326937A1 (en) 2008-04-21 2009-12-31 Microsoft Corporation Using personalized health information to improve speech recognition
EP2124223B1 (en) 2008-05-16 2018-03-28 Beyond Verbal Communication Ltd. Methods and systems for diagnosing a pathological phenomenon using a voice signal
GB0814442D0 (en) 2008-08-08 2008-09-10 Health Smart Ltd Breathing Monitor
US8320588B2 (en) 2009-02-10 2012-11-27 Mcpherson Jerome Aby Microphone mover
EP2411799B1 (en) 2009-03-23 2020-05-06 Koninklijke Philips N.V. Gas sensing using ultrasound
US20120116186A1 (en) 2009-07-20 2012-05-10 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
US20110021940A1 (en) 2009-07-21 2011-01-27 Edmond Chu Incentive audio for pulmonary function diagnostics
US9138167B1 (en) 2009-09-25 2015-09-22 Krispin Johan Leydon Means for rendering key respiratory measurements accessible to mobile digital devices
US9357921B2 (en) 2009-10-16 2016-06-07 At&T Intellectual Property I, Lp Wearable health monitoring system
US9492096B2 (en) 2009-11-03 2016-11-15 Vivaquant Llc ECG sensing apparatuses, systems and methods
US8758262B2 (en) 2009-11-25 2014-06-24 University Of Rochester Respiratory disease monitoring system
CN102971755A (zh) 2010-01-21 2013-03-13 阿斯玛西格诺斯公司 用于慢性病管理的早期告警方法和系统
CA2805124C (en) 2010-08-13 2017-11-14 Respiratory Motion, Inc. Devices and methods for respiratory variation monitoring by measurement of respiratory volumes, motion and variability
EP2609587B1 (en) 2010-08-24 2015-04-01 Veovox SA System and method for recognizing a user voice command in noisy environment
US10376197B2 (en) 2010-09-07 2019-08-13 Penina Ohana Lubelchick Diagnosing system for consciousness level measurement and method thereof
WO2012038903A2 (en) 2010-09-22 2012-03-29 Lior Gonnen Modular acoustic spirometer
EP2438863A1 (en) 2010-10-05 2012-04-11 Phibio Science AB System and methods for analysis of pause time durations in speech.
US8784311B2 (en) 2010-10-05 2014-07-22 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
EP2636369A4 (en) 2010-11-04 2014-09-24 Panasonic Corp DEVICE AND METHOD FOR ANALYZING BIOMETRIC SOUNDS
MX340734B (es) 2011-01-25 2016-07-22 Novartis Ag Sistemas y metodos de captura y formacion de imagenes de movimiento para uso medico.
CN102125427B (zh) 2011-01-29 2012-08-22 清华大学 一种手机体检系统
WO2012104743A2 (en) 2011-01-31 2012-08-09 Koninklijke Philips Electronics N.V. Automated spirogram analysis and interpretation
US9055861B2 (en) 2011-02-28 2015-06-16 Samsung Electronics Co., Ltd. Apparatus and method of diagnosing health by using voice
CN103458782B (zh) 2011-03-16 2016-02-17 皇家飞利浦有限公司 呼吸困难和水肿症状评估
US9070357B1 (en) 2011-05-11 2015-06-30 Brian K. Buchheit Using speech analysis to assess a speaker's physiological health
US20130018274A1 (en) 2011-07-13 2013-01-17 O'neill Alfonso V System and device for testing pulmonary function
GB201113572D0 (en) 2011-08-05 2011-09-21 Morgan David A portable device for the monitoring of medical conitions
JP2014530670A (ja) 2011-09-20 2014-11-20 イソネア リミテッド 呼吸速度を測定し、呼吸発作症状を動的に予測するするシステム、方法及びキット
CN202261466U (zh) 2011-10-09 2012-05-30 江苏省莱科信息技术有限公司 一种具有肺活量检测功能的移动终端
CN102423262A (zh) 2011-10-09 2012-04-25 江苏省莱科信息技术有限公司 一种具有肺活量检测功能的移动终端及其肺活量检测方法
CN102497472B (zh) 2011-11-29 2014-09-10 惠州Tcl移动通信有限公司 基于手机麦克风的肺活量测试系统
US20130158434A1 (en) 2011-12-20 2013-06-20 Delta Electronics, Inc. Apparatus for voice assisted medical diagnosis
US10098569B2 (en) 2012-03-29 2018-10-16 The University Of Queensland Method and apparatus for processing patient sounds
EP2846690B1 (en) 2012-05-10 2020-10-28 University Of Washington Through Its Center For Commercialization Sound-based spirometric device
US20140073993A1 (en) 2012-08-02 2014-03-13 University Of Notre Dame Du Lac Systems and methods for using isolated vowel sounds for assessment of mild traumatic brain injury
BR112015004844A2 (pt) 2012-09-05 2017-08-08 Countingapp Medical Ltd sistema e método para medir a capacidade e vigor pulmonar
US9922641B1 (en) 2012-10-01 2018-03-20 Google Llc Cross-lingual speaker adaptation for multi-lingual speech synthesis
WO2014062441A1 (en) 2012-10-16 2014-04-24 University Of Florida Research Foundation, Inc. Screening for neurologial disease using speech articulation characteristics
CA2798337A1 (en) 2012-12-04 2014-06-04 University Of Winnipeg Cardiovascular pulse wave analysis method and system
US20160045161A1 (en) 2013-01-14 2016-02-18 University Health Network Mask and method for breathing disorder identification, characterization and/or diagnosis
CN105592788A (zh) 2013-03-06 2016-05-18 塞罗拉公司 用于脑健康的多模态生理评估的形成因素
US9153231B1 (en) 2013-03-15 2015-10-06 Amazon Technologies, Inc. Adaptive neural network speech recognition models
US20140302472A1 (en) * 2013-04-09 2014-10-09 Xerox Business Services, Llc Lamaze breathing coach
US20140378810A1 (en) 2013-04-18 2014-12-25 Digimarc Corporation Physiologic data acquisition and analysis
US20140314212A1 (en) * 2013-04-22 2014-10-23 Avaya Inc. Providing advisory information associated with detected auditory and visual signs in a psap environment
WO2014188408A1 (en) 2013-05-20 2014-11-27 Beyond Verbal Communication Ltd Method and system for determining a pre-multisystem failure condition using time integrated voice analysis
US9183830B2 (en) 2013-11-01 2015-11-10 Google Inc. Method and system for non-parametric voice conversion
US9685174B2 (en) 2014-05-02 2017-06-20 The Regents Of The University Of Michigan Mood monitoring of bipolar disorder using speech analysis
JP2017532082A (ja) 2014-08-22 2017-11-02 エスアールアイ インターナショナルSRI International 患者の精神状態のスピーチベース評価のためのシステム
US10201307B2 (en) 2014-09-24 2019-02-12 International Business Machines Corporation System and method to measure, analyze, and model pulmonary function and disease utilizing temporal, spatial, and contextual data
US10306359B2 (en) * 2014-10-20 2019-05-28 Sony Corporation Voice processing system
RU2017124900A (ru) 2014-12-12 2019-01-14 Конинклейке Филипс Н.В. Система для мониторинга, способ мониторинга и компьютерная программа для мониторинга
US20160302003A1 (en) 2015-04-08 2016-10-13 Cornell University Sensing non-speech body sounds
WO2016166318A1 (en) 2015-04-16 2016-10-20 Koninklijke Philips N.V. Device, system and method for detecting a cardiac and/or respiratory disease of a subject
US10672385B2 (en) 2015-09-04 2020-06-02 Honeywell International Inc. Method and system for remotely training and commanding the speech recognition system on a cockpit via a carry-on-device in a connected aircraft
US10706873B2 (en) 2015-09-18 2020-07-07 Sri International Real-time speaker state analytics platform
DE102015218948A1 (de) 2015-09-30 2017-03-30 Brandenburgische Technische Universität Cottbus-Senftenberg Vorrichtung und Verfahren zur Bestimmung eines medizinischen Gesundheitsparameters eines Probanden mittels Stimmanalyse
WO2017060828A1 (en) 2015-10-08 2017-04-13 Cordio Medical Ltd. Assessment of a pulmonary condition by speech analysis
US20180303413A1 (en) 2015-10-20 2018-10-25 Healthymize Ltd System and method for monitoring and determining a medical condition of a user
WO2017187712A1 (ja) 2016-04-26 2017-11-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2018021920A1 (en) 2016-07-27 2018-02-01 The University Of Canterbury Maskless speech airflow measurement system
CA3040703A1 (en) 2016-10-17 2018-04-26 Context Ai, Llc Systems and methods for medical diagnosis and biomarker identification using physiological sensors and machine learning
JP7208977B2 (ja) 2017-05-05 2023-01-19 カナリー・スピーチ,エルエルシー 音声に基づく医療評価
CN108875463B (zh) 2017-05-16 2022-08-12 富士通株式会社 多视角向量处理方法和设备
CN107440721A (zh) * 2017-08-31 2017-12-08 安徽信息工程学院 肺活量检测的方法
CN107622797B (zh) 2017-09-26 2020-07-28 李涵之 一种基于声音的身体状况确定系统及方法
US10896763B2 (en) 2018-01-12 2021-01-19 Koninklijke Philips N.V. System and method for providing model-based treatment recommendation via individual-specific machine learning models
CA3098581A1 (en) 2018-04-27 2019-10-31 Respira Labs, Inc. Systems, devices, and methods for performing active auscultation and detecting sonic energy measurements
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US11055575B2 (en) 2018-11-13 2021-07-06 CurieAI, Inc. Intelligent health monitoring
KR102655628B1 (ko) 2018-11-22 2024-04-09 삼성전자주식회사 발화의 음성 데이터를 처리하는 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002519091A (ja) 1998-06-30 2002-07-02 ノキア モービル フォーンズ リミティド 音声パラメータ分析による肺機能評価装置
WO2014045257A1 (en) 2012-09-24 2014-03-27 Koninklijke Philips N.V. System and method for determining a person's breathing

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ABUSHAKRA,A. et al.,Lung Capacity Estimation Through Acoustic Signal of Breath,Proceedings of the 2012 IEEE 12th International Conference on Bioinformatics & Bioengineering (BIBE),2012年11月11日,p.386-391

Also Published As

Publication number Publication date
EP3637433A1 (en) 2020-04-15
IL289561A (en) 2022-03-01
IL269807A (en) 2020-04-30
WO2020075015A1 (en) 2020-04-16
KR20210076921A (ko) 2021-06-24
US10847177B2 (en) 2020-11-24
US20200118583A1 (en) 2020-04-16
CN112822976A (zh) 2021-05-18
JP2022502189A (ja) 2022-01-11
US20210056983A1 (en) 2021-02-25
CN112822976B (zh) 2024-05-07
AU2019356224B2 (en) 2022-07-14
IL289561B2 (en) 2024-05-01
IL289561B1 (en) 2024-01-01
IL269807B (en) 2022-02-01
CA3114864A1 (en) 2020-04-16
AU2019356224A1 (en) 2021-05-06
US11610600B2 (en) 2023-03-21

Similar Documents

Publication Publication Date Title
JP7385299B2 (ja) スピーチ分析による肺気量の推定
JP6780182B2 (ja) 音声分析による肺疾患の評価
Nallanthighal et al. Deep sensing of breathing signal during conversational speech
US11207049B2 (en) System and method for characterizing an upper airway using speech characteristics
JP6272308B2 (ja) 音ベースの肺活量測定のデバイス、システムおよび方法
EP2744408B1 (en) A system for characterizing an upper airway using speech characteristics
CN111315302A (zh) 认知功能评估装置、认知功能评估系统、认知功能评估方法及程序
JP7183483B1 (ja) 自動的で客観的な症状の重症度スコア
KR20230109645A (ko) 음성 분석을 통해 추출된 내쉬는 기체 농도와 스펙트럼 포락선으로부터 손상된 생리학적 기능 검출
US11752288B2 (en) Speech-based breathing prediction
JP2023517175A (ja) 音声録音と体内からの音の聴音を使用した医学的状態の診断
Nallanthighal et al. COVID-19 detection based on respiratory sensing from speech
CN1263423C (zh) 利用呼吸系统所发出之声音来检测呼吸系统状况的装置
EP4000529A1 (en) Detecting impaired physiological function by speech analysis
JP2018033540A (ja) 舌位・舌癖判定装置、舌位・舌癖判定方法及びプログラム
Huber et al. Obtaining Objective Data in Clinical Settings: Basic Techniques for the Clinician

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231102

R150 Certificate of patent or registration of utility model

Ref document number: 7385299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150