JP7307507B2 - 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム - Google Patents

病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム Download PDF

Info

Publication number
JP7307507B2
JP7307507B2 JP2021567508A JP2021567508A JP7307507B2 JP 7307507 B2 JP7307507 B2 JP 7307507B2 JP 2021567508 A JP2021567508 A JP 2021567508A JP 2021567508 A JP2021567508 A JP 2021567508A JP 7307507 B2 JP7307507 B2 JP 7307507B2
Authority
JP
Japan
Prior art keywords
speech
subject
disease
pathology
analysis system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021567508A
Other languages
English (en)
Other versions
JPWO2021132289A1 (ja
JPWO2021132289A5 (ja
Inventor
康宏 大宮
頼夫 熊本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PST CORPORATION,INC.
Original Assignee
PST CORPORATION,INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PST CORPORATION,INC. filed Critical PST CORPORATION,INC.
Publication of JPWO2021132289A1 publication Critical patent/JPWO2021132289A1/ja
Publication of JPWO2021132289A5 publication Critical patent/JPWO2021132289A5/ja
Application granted granted Critical
Publication of JP7307507B2 publication Critical patent/JP7307507B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4082Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7282Event detection, e.g. detecting unique waveforms indicative of a medical condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Neurology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physiology (AREA)
  • Developmental Disabilities (AREA)
  • Neurosurgery (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Epidemiology (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラムに関し、特に音声を用いて病態を解析する病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラムに関する。
近年、発話による音声を解析することにより、感情や心的状態を推定する技術(特許文献1、特許文献2参照)が開示されており、音声を解析して人の状態を測り数値化することが可能になってきている。
また、声紋による個人認証を行いデバイスにアクセスする権利を付与する技術(特許文献3参照)や、スマートホーム対応家電等の声によって機械を操作するための音声認識技術(特許文献4参照)が開示されている等、声をコミュニケーション以外に積極的に利用する場面も生じてきている。
加えてスマートフォンの普及により、一人ひとりが通話デバイスを携帯していることから、必要であればいつでも発話が可能な状況となっている。
更に、声は録音され電子データとして保存しておけば、血液や尿のように劣化することがないので、何時でも必要に応じ、過去にさかのぼって解析することができるという利点を有する。
一方で、昔から医師は患者のあり姿から病気を推測することが行われており、特に精神・神経系疾患は有効なバイオマーカーが無いことから、患者の体の動きや声の出しかた、表情などが情報源となっている。例えば、抑うつがあると、口数が減り、声は小さくなり話す速度が遅くなること等が経験的に知られていたが、特定の疾患を判定するための指標には至っていなかった。
特開2007-296169号公報 国際公開第2006/132159号 米国特許出願公開第2016/0119338号明細書 特開2014-206642号公報
病気の予防や早期発見に繋がる検診率を高めるには、簡単に、自分で行え、費用も安く、日常生活の中でわざわざそのための機会を作る必要のない検査が求められている。
そこで、本発明の目的の一つは、誰でも、何処にいても、短時間で、非侵襲的に、他人に知られることなく、極めて簡便に測定し疾患を推定できる音声を用いた病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラムを提供することにある。
本発明者らは、このような課題に基づき鋭意検討した結果、音の強さ(Intensity)に関連する音声特徴量を用いることにより、特定の疾患の可能性があること、またその疾患の重症度を推定できることを見出し、本発明に到達した。
本発明は、被検者の病態を解析する病態解析システムであって、被験者の音声データを取得する入力手段と、前記入力手段で取得した音声データから抽出される音声特徴量に基づいて被験者の疾患を推定する推定手段と、前記推定手段による推定結果を表示する表示手段と、を備え、前記音声特徴量は、音声の大きさを含み、前記音声の大きさを含む音声特徴量は、ピーク位置のばらつき若しくはピーク間隔の平均値、又は音声全体を通してのピーク位置直線近似の傾き若しくはピーク位置の平均値であることを特徴とする。
本発明は、音の強さに関連する音声特徴量を用いることにより、簡便で、非侵襲で特定の疾患の可能性を推定することができる。
また、音の強さという汎用性の高い音声特徴量を用いており、特別高度な音声の前処理を必要とせず、簡単な推定プログラムで特定の疾患の可能性を推定することができる。
本発明に係る推定システムの構成例を示すブロック図である。 本発明に係る推定システムの構成例であって図1とは別の例を示すブロック図である。 図1に示した推定システム100による推定処理の一例を示すフローチャートである。 音声特徴量の算出結果を示す表図である。 健常者又は特定疾患と、それ以外の分離性能を示すROC曲線のグラフを示すとともに、AUCを求め、正解率が最大となるポイントにおいて作製した混同行列を示す図である。 健常者又は特定疾患と、それ以外の分離性能を示すROC曲線のグラフを示すとともに、AUCを求め、正解率が最大となるポイントにおいて作製した混同行列を示す図である。 健常者又は特定疾患と、それ以外の分離性能を示すROC曲線のグラフを示すとともに、AUCを求め、正解率が最大となるポイントにおいて作製した混同行列を示す図である。 ピーク位置のばらつきの算出結果を示す表図である。 BDIの相関及びHAMDの相関を示す表図である。 BDIの相関を示すグラフである。 BDIの相関を示すグラフである。 HAMDの相関を示すグラフである。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明に係る推定システムの構成例を示すブロック図である。
図1の推定システム100は、被験者の音声を取得するための入力部110と、被験者へ推定結果等を表示するための表示部130と、サーバ120と、を備える。サーバ120は、演算処理装置120A(例えばCPU)と、演算処理装置120Aが実行するプログラムである推定プログラムを記録したハードディスク等の第1記録装置120Bと、被験者の検診データ及び被験者へ送信するためのメッセージ集を記録したハードディスク等の第2記録装置120Cと、を備える。サーバ120は、有線又は無線を介して入力部110及び表示部130に接続される。演算処理装置120Aは、ソフトウェアによって実現されてもよいし、ハードウェアによって実現されてもよい。
入力部110は、マイクロホン等の音声の取得部111と、取得した音声データをサーバ120へ送信する第1送信部112を備える。取得部111は、被験者の音声をアナログ信号からデジタル信号の音声データを生成する。音声データは第1送信部112からサーバ120へ送信される。
入力部110は、マイクロホン等の音声の取得部111を介して被験者が発話する音声信号を取得し、音声信号を所定のサンプリング周波数(例えば、11025ヘルツ等)でサンプリングすることでデジタル信号の音声データを生成する。
入力部110は、音声データを記録する記録部をサーバ120側の記録装置とは別個に備えていてもよい。この場合、入力部110は、ポータブルレコーダーでもよい。入力部110の記録部は、CD、DVD、USBメモリ、SDカード、ミニディスク等の記録媒体でもよい。
表示部130は、推定結果等のデータを受信する第1受信部131と、当該データを表示する出力部132と、を備える。出力部132は、推定結果等のデータを表示するディスプレイである。ディスプレイは、有機EL(Organic Electro-Luminescence)や液晶等であってもよい。
なお、入力部110は、健康診断の結果のデータや、ストレスチェックに関する回答のデータを予め入力するために、タッチパネル等の機能を備えていてもよい。この場合、入力部110及び表示部130は、入力部110及び表示部130の機能を有する同一のハードウェアにより実現されてもよい。
演算処理装置120Aは、第1送信部112から送信された音声データを受信する第2受信部121と、被験者の音声データから抽出される音の大きさに関連する音声特徴量に基づき疾患の予測値を算出する算出部122と、疾患の予測値を入力として被験者の疾患を推定する推定部123と、推定結果に関するデータ等を表示部130へ送信する第2送信部124と、を備える。なお、算出部122と推定部123とは、機能を説明するために分けて記載したが、算出部と推定部の機能を同時に行ってもよい。また算出部と推定部は学習データを用いて機械学習により学習済みモデルを作成し、被験者のデータ(テストデータ)を学習済みモデルへ入力することにより疾患を推定することも可能である。ただし、本発明において疾患の推定に用いる声の大きさ(Intensity)を含む音声特徴量は、通常の計算機により計算可能であるので、必ずしも機械学習を用いる必要はない。なお、本明細書では「メンタル値」という用語を疾患の予測値と同義に用いる。
図2は、本発明に係る推定システムの構成例であって図1とは別の例を示すブロック図である。
図2の推定システム100は、図1の推定システム100のサーバ120と、入力部110及び表示部130との接続を、ネットワークNWを介して行う。この場合、入力部110及び表示部130は、通信端末200である。通信端末200は、例えば、スマートフォン、タブレット型の端末、またはマイクロホンを備えるノートパソコンやデスクトップパソコン等である。
ネットワークNWは、携帯電話通信網またはWi-Fi(登録商標)(Wireless Fidelity)等の通信規格に基づく無線LANを介して通信端末200とサーバ120とを接続する。推定システム100は、ネットワークNWを介して複数の通信端末200とサーバ120とを接続してもよい。
推定システム100は、通信端末200により実現されてもよい。この場合、サーバ120に格納される推定プログラムは、ネットワークNWを介して通信端末200にダウンロードされ、通信端末200の記録装置に記録される。通信端末200に含まれるCPUは、通信端末200の記録装置に記録された推定プログラムを実行することにより、通信端末200が算出部122、推定部123として機能してもよい。推定プログラムは、DVD等の光ディスクやUSBメモリ等の可搬型記録媒体に記録して頒布されてもよい。
(第1実施形態)
図3は、図1に示した推定システム100による推定処理の一例を示すフローチャートである。
図3に示す処理は、推定システム100において、演算処理装置120Aが第1記録装置120Bに記録された推定プログラムを実行することにより実現される。図3を用いて、演算処理装置120Aの第2受信部121、算出部122、推定部123及び第2送信部124の各機能についてそれぞれ説明する。
(算出部122)
処理を開始すると、ステップS101において、算出部122は、取得部111により音声データが取得されたか否かを判定する。既に音声データが取得されている場合には、ステップS104へ進む。音声データが取得されていない場合には、ステップS102において、算出部122は、表示部130の出力部132に所定の定型文を表示させるように命令する。
本推定プログラムは被験者の発話の意味や内容によって精神・神経系疾患を推定するものではない。そのため、取得部111により取得される音声データは、発話時間の合計が2秒から300秒程度となるものであれば何でもよい。使用言語は、特に制限しないが、推定プログラムを作成する際に母集団が使用した言語と一致することが望ましい。従って、出力部132に表示される定型文は、母集団と同一の言語であって、発話時間の合計が2秒から300秒程度となる定型文であれば何でもよい。好ましくは、発話時間の合計が3秒から180秒程度になる定型文が望ましい。
例えば、特定の感情を含まない“いろはにほへと”や“あいうえおかきくけこ”等でもよく、“あなたのお名前は”や“あなたの誕生日はいつですか”等の質問に対する返答でもよい。
中でも、濁音(口蓋音)であるガ、ギ、グ、ゲ、ゴ、半濁音(口唇音)であるパ、ピ、プ、ぺ、ポ、及び舌音であるラ、リ、ル、レ、ロを含む言葉が好ましく用いられる。「パタカ」の繰り返しが更に好ましく、典型的には、「パタカ」を3秒乃至10秒、あるいは5回~10回程度繰り返す言葉が用いられる。
音声の取得環境は、被験者の発話した音声のみを取得できる環境であれば特に制限はないが、40bB以下の環境で取得されることが好ましい。被験者の発話した音声は、30dB以下の環境で取得されることがより好ましい。
被験者が定型文を読み上げると、ステップS103において、算出部122は、被験者の発話した音声から音声データを取得してステップS104へ進む。
次に、ステップS104において、算出部122は、音声データが第1送信部112を介して入力部110からサーバ120の第2受信部121へ送信されるように命令する。
次に、ステップS105において、算出部122は、被験者のメンタル値、すなわち被験者の疾患の予測値が算出済みであるか否かを判定する。本発明において、疾患の予測値とは、1つまたは2以上の音響パラメータを抽出して生成する音声特徴量の組合せからなる特徴量F(a)であり、特定疾患の予測値である。音響パラメータは、音が伝わる際の特徴をパラメータ化したものである。疾患の予測値が既に算出されている場合は、ステップS107へ進む。疾患の予測値が算出されていない場合は、ステップS106において、算出部122は、被験者の音声データと推定プログラムに基づき、疾患の予測値を算出する。
ステップS107において、算出部122は、予め取得された被験者の健診データを第2記録装置120Cから取得する。なお、演算処理装置120Aは、ステップS107を省略して、健診データの取得を行わずに疾患の予測値から疾患を推定してもよい。
次に、ステップS108において、推定部123は、算出部122で算出した疾患の予測値単独で、または疾患の予測値と健診データを合わせて疾患を推定する。
推定部123は、疾患の予測値に関して、特定の疾患とその他とを区別するための個々の閾値を設けることにより、疾患の予測値を算出した複数の患者を、特定すべき対象とその他とに判別することができる。後述する実施例では、閾値を超えた場合とそうでない場合とに分類して判定している。
次に、ステップS109において、推定部123は、疾患に対応する助言データが選択済みであるか否かを判定する。疾患に対応する助言データとは、被験者が助言データを受け取った際に疾患を予防、又は疾患の重症化を回避するための助言である。助言データが選択済みであれば、ステップS111へ進む。
助言データが選択済みでない場合、ステップS110において、推定部123は、第2記録装置120Cから被験者の症状に対応する助言データを選択する。
次に、ステップS111において、推定部123は、疾患の推定結果と選択された助言データを第2送信部124を介して表示部130の第1受信部131へ送信するように命令する。
次に、ステップS112において、推定部123は、表示部130の出力部132に対して推定結果と助言データを出力するように命令する。最後に、推定システム100は、推定処理を終了する。
(実施形態2)
1.病態解析の方法
(1)発話と、その音声の取得
本発明において、図1の取得部111で取得する発話の種類(フレーズ)は特に限定されないが、音の強さに関する音声特徴量を用いるため、いくつかの音の繰り返しであるほうが、解析が容易になるため好ましい。
いくつかの音の繰り返しとしては例えば、「あいうえお あいうえお ・・・」「いろはにほへと いろはにほへと ・・・」「パタカパタカパタカ・・・」等が挙げられる。
これらのフレーズを、通常3~10回程度、好ましくは4~6回程度繰り返して、又は通常2~20秒、好ましくは3~7秒程度繰り返して、被験者に発話してもらう。
こうして発話された音声は、取得部111としての、レコーダー等で録音して記録される。
(2)音量の正規化
音量正規化(ノーマライズ)とは、音響信号処理のひとつであり、ある音声データ全体の音量(プログラムレベル)を分析し、特定の音量へ調整する処理である。音声データを適正な音量に整え、複数の音声データの音量を統一する目的で用いられる。
(3)音の強さを計算
音声は波形(音圧を電圧値で測定したもの)として表示されるが、音の強さ(波形がどのくらい振れているか)を求めるには、絶対値を取る、あるいは2乗を取るなどの処理を行い、正の数値に変換する。
(4)ピーク位置の検出
音の強さのグラフにおいて、ピーク閾値の設定とピーク位置の検出を行う。
(5)ピーク位置(即ち音声の大きさ)に関係する音声特徴量を抽出する。例えば、以下のような音声特徴量が挙げられる。
A:音素毎のピーク値直線近似の傾き
B:音素毎のピーク位置の平均値
C:音素毎のピーク位置のばらつき
D:音声全体を通してのピーク位置直線近似の傾き
E:音素毎のピーク間隔の平均値
F:音素毎のピーク間隔のばらつき
ここで音素とは、例えば「パタカ」の繰り返しであれば「パ」「タ」「カ」というそれぞれの発音を指す。
(6)各疾患の患者の音声に基づき、上記音声特徴量に有意な差があるかどうかを検証する。
(実施例1)
アルツハイマー型認知症患者(図中、ADと示す)、パーキンソン病患者(図中、PDと示す)、及び健常人(図中、HEと示す)のそれぞれ20人を被験者とする。この被検者の音声(「パタカ」を5回程度繰り返し発話したもの)について、音声特徴量を算出した。図4は、音声特徴量の算出結果を示す表図である。
上記(5)におけるA~Fで示した音の強さに関する音声特徴量を解析したところ、「ピーク位置のばらつき」に関しては、パーキンソン病患者(PD)と健常者(HE)とで音声特徴量に有意な差を認めた。
また、「ピーク間隔の平均値」に関しては、アルツハイマー型認知症患者(AD)と健常者(HE)とで音声特徴量に有意な差を認め、またアルツハイマー型認知症患者(AD)とパーキンソン病患者(PD)とで音声特徴量に有意な差を認めた。
上記算出結果を基に、機械学習の評価指標として、ROC曲線を描き、AUCを求めた。ROCは、Receiver Operating Characteristicの略称である。AUCは、Area under the ROC curveの略称である。
図5、図6、及び図7は、健常者又は特定疾患と、それ以外の分離性能を示すROC曲線のグラフを示すとともに、AUCを求め、正解率が最大となるポイントにおいて作製した混同行列を示す図である。図5は健常者とパーキンソン病患者について示し、図6は健常者とアルツハイマー型認知症患者について示し、図7はアルツハイマー型認知症患者とパーキンソン病患者について示す。図5、図6、及び図7は、横軸が1-特異度を示し、縦軸が感度を示す。
(実施例2)
同じ施設で録音したアルツハイマー型認知症患者10名、パーキンソン病患者、健常人7名の音声(「パタカ」を5回程度繰り返し発話したもの)について、ピーク位置を検出し、ピーク位置のばらつきを算出した。算出結果を図8に示す。図8は、ピーク位置のばらつきの算出結果を示す表図である。
(実施例3)
うつ病の検査指標として広く用いられているBDIと、音声特徴量の相関関係を検証した。BDIは、Beck Depression Inventoryの略称である。また、HAMDと音声特徴量との相関関係を検証した。HAMDは、ハミルトンうつ病評価尺度の略称である。
方法:
・大うつ病性障害の患者から音声(96kHz、24ビット、wavファイル)データを収集した。データは、病院の診察室で、9人の男性と14人の女性の参加者(平均年齢:31.6±7.0;年齢範囲:19-41歳)からポータブルレコーダーとピンマイクを使用して取得した。参加者の声は、約5秒間「パタカ」と繰り返し発音された。さらに、記録を開始する前に、「ハミルトンうつ病評価尺度」(HAMD-21)、「ベックうつ病インベントリー」(BDI)の心理テストを実施した。最初の訪問時と症状が半分になったとき(症状が半減した時)に録音と心理テストの結果を収集した。
・うつ病が声の強さに影響すると考え、録音された各声の強度に関連する前記6つの特徴を調べた。次に、強度データと心理テストの結果との相関分析を調査した。
図9は、BDIの相関及びHAMDの相関を示す表図である。図10及び図11は、BDIの相関を示すグラフである。図12は、HAMDの相関を示すグラフである。
結果:
・6つの特徴と心理テストのスコアの分析により、下記の3つの組み合わせの相関が明らかになった。
・発話した「音声全体を通してのピーク位置直線近似の傾き」と、BDIスコアと有意な相関があった。
・即ち、BDIスコアが高いほど(うつの症状が重いほど)開始直後よりも発話が進むほどだんだん声が大きくなる傾向にある。
・また、「音素毎ピーク位置の平均値」は、BDIスコア及びHAMD21スコアと有意な相関があった。
このことから、音声の大きさを含む音声特徴量を用いて解析することにより、うつ症状の程度を推定することができることが示された。
〔ソフトウェアによる実現〕
図3に示した各処理は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
図3に示した各処理をソフトウェアによって実現する場合、利用者クライアント端末100、皮膚疾患解析装置200及び管理者クライアント端末300は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(又はCPU)で読み取り可能に記録されたROM(Read Only Memory)又は記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(又はCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した実施形態に限定されるものではなく、開示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本出願は、2019年12月26日に出願された日本出願である特願2019-236829号に基づく優先権を主張し、当該日本出願に記載された全ての記載内容を援用するものである。
100 推定システム
110 入力部
120 サーバ
130 表示部

Claims (9)

  1. 被検者の病態を解析する病態解析システムであって、
    被験者の音声データを取得する入力手段と、
    前記入力手段で取得した音声データから抽出される音声特徴量に基づいて被験者の疾患を推定する推定手段と、
    前記推定手段による推定結果を表示する表示手段と、
    を備え、
    前記音声特徴量は、音声の大きさを含み、
    前記音声の大きさを含む音声特徴量は、ピーク位置のばらつき若しくはピーク間隔の平均値、又は音声全体を通してのピーク位置直線近似の傾き若しくはピーク位置の平均値である
    ことを特徴とする病態解析システム。
  2. 前記推定手段が推定する疾患は、アルツハイマー型認知症、及びパーキンソン病を含む、
    ことを特徴とする請求項1に記載の病態解析システム。
  3. 前記推定手段が、パーキンソン病とアルツハイマー型認知症のいずれであるかを推定することを特徴とする請求項1に記載の病態解析システム。
  4. 前記推定手段が、うつ症状の程度を推定するものであることを特徴とする請求項1に記載の病態解析システム。
  5. 前記音声データが、口蓋音、口唇音又は舌音を含む言葉を発話したものである請求項1乃至のいずれか1項に記載の病態解析システム。
  6. 前記音声データが、「パタカ」の繰り返しを発話したものである請求項に記載の病態解析システム。
  7. 被検者の病態を解析する病態解析装置であって、
    被験者の音声データを取得する入力部と、
    前記入力部で取得した音声データから抽出される音声特徴量に基づいて被験者の疾患を推定する推定部と、
    前記推定部による推定結果を表示する表示部と、
    を備え、
    前記音声特徴量は、音声の大きさを含み、
    前記音声の大きさを含む音声特徴量は、ピーク位置のばらつき若しくはピーク間隔の平均値、又は音声全体を通してのピーク位置直線近似の傾き若しくはピーク位置の平均値である
    ことを特徴とする病態解析装置。
  8. 被検者の病態を解析する病態解析システムで実行される方法であって、
    被験者の音声データを取得する入力工程と、
    前記入力工程で取得した音声データから抽出される音声特徴量に基づいた疾患の予測値を入力として機械学習により被験者の疾患を推定する推定工程と、
    前記推定工程による推定結果を表示する表示工程と、
    を備え、
    前記音声特徴量は、音声の大きさを含み、
    前記音声の大きさを含む音声特徴量は、ピーク位置のばらつき若しくはピーク間隔の平均値、又は音声全体を通してのピーク位置直線近似の傾き若しくはピーク位置の平均値である
    ことを特徴とする病態解析方法。
  9. 請求項1乃至のいずれか1項に記載の病態解析システムの各手段としてコンピュータを機能させるためのプログラム。
JP2021567508A 2019-12-26 2020-12-22 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム Active JP7307507B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019236829 2019-12-26
JP2019236829 2019-12-26
PCT/JP2020/048056 WO2021132289A1 (ja) 2019-12-26 2020-12-22 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム

Publications (3)

Publication Number Publication Date
JPWO2021132289A1 JPWO2021132289A1 (ja) 2021-07-01
JPWO2021132289A5 JPWO2021132289A5 (ja) 2022-11-07
JP7307507B2 true JP7307507B2 (ja) 2023-07-12

Family

ID=76573285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021567508A Active JP7307507B2 (ja) 2019-12-26 2020-12-22 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム

Country Status (4)

Country Link
US (1) US20230113656A1 (ja)
JP (1) JP7307507B2 (ja)
TW (1) TW202137939A (ja)
WO (1) WO2021132289A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023074119A1 (ja) * 2021-10-27 2023-05-04

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255106A (ja) 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20120265024A1 (en) 2010-10-05 2012-10-18 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
US20170084295A1 (en) 2015-09-18 2017-03-23 Sri International Real-time speaker state analytics platform
JP6268628B1 (ja) 2017-11-02 2018-01-31 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
US20190189148A1 (en) 2017-12-14 2019-06-20 Beyond Verbal Communication Ltd. Means and methods of categorizing physiological state via speech analysis in predetermined settings
JP2019187492A (ja) 2018-04-18 2019-10-31 Pst株式会社 推定方法および推定装置
WO2019225242A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2567826B (en) * 2017-10-24 2023-04-26 Cambridge Cognition Ltd System and method for assessing physiological state
US20220044697A1 (en) * 2018-11-11 2022-02-10 Connectalk Yel Ltd Computerized system and method for evaluating a psychological state based on voice analysis
JP7327987B2 (ja) * 2019-04-25 2023-08-16 キヤノン株式会社 医療診断支援システム、医療診断支援装置、医療診断支援方法及びプログラム
IL277650A (en) * 2019-10-03 2021-04-29 Ninispeech Ltd Voice assistant speech language pathologist (va slp), systems and methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011255106A (ja) 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20120265024A1 (en) 2010-10-05 2012-10-18 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors
US20170084295A1 (en) 2015-09-18 2017-03-23 Sri International Real-time speaker state analytics platform
JP6268628B1 (ja) 2017-11-02 2018-01-31 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
US20190189148A1 (en) 2017-12-14 2019-06-20 Beyond Verbal Communication Ltd. Means and methods of categorizing physiological state via speech analysis in predetermined settings
JP2019187492A (ja) 2018-04-18 2019-10-31 Pst株式会社 推定方法および推定装置
WO2019225242A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 摂食嚥下機能評価方法、プログラム、摂食嚥下機能評価装置および摂食嚥下機能評価システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG, J. et al.,Acoustic differences between healthy and depressed people: a cross-situation study,BMC Psychiatry,2019年10月15日,Vol.19, Article No.300,pp.1-12

Also Published As

Publication number Publication date
JPWO2021132289A1 (ja) 2021-07-01
US20230113656A1 (en) 2023-04-13
TW202137939A (zh) 2021-10-16
WO2021132289A1 (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
US11918372B2 (en) Cognitive function evaluation system, method, and storage medium for dementia by analyzing voice of evaluatee for recognition, remembering or jugment capabilities
Mekyska et al. Robust and complex approach of pathological speech signal analysis
Benba et al. Analysis of multiple types of voice recordings in cepstral domain using MFCC for discriminating between patients with Parkinson’s disease and healthy people
Awan et al. Quantifying dysphonia severity using a spectral/cepstral-based acoustic index: Comparisons with auditory-perceptual judgements from the CAPE-V
v. Latoszek et al. A meta-analysis: acoustic measurement of roughness and breathiness
USRE43406E1 (en) Method and device for speech analysis
Fletcher et al. Assessing vowel centralization in dysarthria: A comparison of methods
US11826161B2 (en) Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and non-transitory computer-readable storage medium
Roy et al. Exploring the clinical utility of relative fundamental frequency as an objective measure of vocal hyperfunction
US9934426B2 (en) System and method for inspecting emotion recognition capability using multisensory information, and system and method for training emotion recognition using multisensory information
WO2006059325A1 (en) Method and system of indicating a condition of an individual
Wambaugh et al. Interrater reliability and concurrent validity for the Apraxia of Speech Rating Scale 3.0: Application with persons with acquired apraxia of speech and aphasia
GB2590201A (en) Apparatus for estimating mental/neurological disease
JP6312014B1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Fletcher et al. Predicting intelligibility gains in individuals with dysarthria from baseline speech features
Khan et al. Assessing Parkinson's disease severity using speech analysis in non-native speakers
Fletcher et al. Predicting intelligibility gains in dysarthria through automated speech feature analysis
TWI721095B (zh) 推定方法、推定程式、推定裝置及推定系統
JP7307507B2 (ja) 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム
Jing et al. Speech-language pathologists' ratings of speech accuracy in children with speech sound disorders
Buckley et al. Normative values of cepstral peak prominence measures in typical speakers by sex, speech stimuli, and software type across the life span
JPWO2019188405A1 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Thompson et al. Vowel Acoustics as Predictors of Speech Intelligibility in Dysarthria
US20240023877A1 (en) Detection of cognitive impairment
Cox et al. Variability of electrolaryngeal speech intelligibility in multitalker babble

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7307507

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150