JP2017532082A - 患者の精神状態のスピーチベース評価のためのシステム - Google Patents

患者の精神状態のスピーチベース評価のためのシステム Download PDF

Info

Publication number
JP2017532082A
JP2017532082A JP2017509749A JP2017509749A JP2017532082A JP 2017532082 A JP2017532082 A JP 2017532082A JP 2017509749 A JP2017509749 A JP 2017509749A JP 2017509749 A JP2017509749 A JP 2017509749A JP 2017532082 A JP2017532082 A JP 2017532082A
Authority
JP
Japan
Prior art keywords
speech
patient
feature
computer
implemented method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017509749A
Other languages
English (en)
Inventor
ブルース ノス,
ブルース ノス,
ディミトラ ヴェルギリ,
ディミトラ ヴェルギリ,
エリザベス シベルク,
エリザベス シベルク,
ヴィクラムジト ミトラ,
ヴィクラムジト ミトラ,
ミッチェル マクラーレン,
ミッチェル マクラーレン,
アンドレアス カソール,
アンドレアス カソール,
コーレン リチェリー,
コーレン リチェリー,
マーティン グラシアレナ,
マーティン グラシアレナ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SRI International Inc
Original Assignee
SRI International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SRI International Inc filed Critical SRI International Inc
Publication of JP2017532082A publication Critical patent/JP2017532082A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1807Speech classification or search using natural language modelling using prosody or stress
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Public Health (AREA)
  • Hospice & Palliative Care (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Educational Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Social Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

コンピューター実施方法は、患者からスピーチパターンを収集するスピーチ収集モジュールと、収集されたスピーチパターンから、少なくとも1つのスピーチ特徴を算出するスピーチ特徴算出モジュールと、少なくとも1つの算出されたスピーチ特徴の少なくとも一部に基づいて、患者の精神状態を判別するメンタルヘルス判別モジュールと、患者が鬱病や心的外傷後ストレス障害(PTSD)のような特定の疾患に苦しんでいる可能性についての診断の表示を提供する出力モジュールと、を含む。
【選択図】図5

Description

関連出願への相互参照
本出願は、2014年8月22日出願の米国仮特許出願番号第62/040,965号(発明の名称「PTSDおよび鬱病の検出および測定のための方法」)に基づく優先権を主張し、該米国仮特許出願の内容の全ては、参照によりここに組み込まれる。
連邦政府によって支援された研究および開発に関する声明(ステートメント)
本発明は、米国陸軍医療研究収集活動契約(United states Army Medical Research Acquisition Activity contract)第W81XWH−11−C−0004号および全米科学財団許諾(National Science Foundation grand)第IIS−1162046号に基づく米国政府支援によりなされたものである。米国政府は、本発明についての一定の権利を有する。
スピーチ(発話)は、メンタルヘルス(精神衛生)モニタリングのための重要な手助け(利益)を提供するものである。特に、鬱病のような特定の疾患は、人間社会に非常に大きな影響を与える一般的なメンタルヘルス問題であるが、発見されないことが多い。スピーチ分析は、非侵入性(noninvasive)、自然的(natural)、および安価であり、さらに、例えば、遠隔評価のための遠隔医療応用のような数多くの新興領域において用いられることができる。
心理言語学の文献において、スピーチは、重要な情報を含み、臨床評価において精神科医の役に立ち得るというエビデンスが存在する。喉頭音、咽頭音、および鼻声の構造の中枢制御は、情緒的ストレス(emotional stress)の複数の客観的な測定可能表現を生成する傾向にある。例えば、統合失調症、鬱病、精神病質を含む多くのメンタルヘルス問題は、一般的に、韻律(prosody:発話のリズム、強弱、イントネーション等の音声的要素のうち、文法によって定められているものを除き、発話者の感情や発話の文脈によって変化するもの)に影響を与える。すなわち、心理的健康性は、複数の特定の種類のスピーチ特徴の生成に密接に関連していると思われている。
重要な課題は、個人差である。個人差は、典型的には、大きく、さらに、メンタルヘルスに関連する話者間(inter-speaker)効果を曖昧なものとしてしまう。長期的な話者状態モデリングに対する多大な尽力の一部として、患者の自殺リスクについての臨床評価と相関するスピーチ特性が特定されている。
自殺のリスクのため、患者が病院に入院させられたときに記録される実際の患者−臨床医の交流、意思疎通の新たな言語資料(corpus)は、分析され、さらに、患者が退院するときにも再度分析される。プライバシー上の理由のため、典型的には、非語彙(non-lexical)特徴のみが用いられる。患者の鬱状態の臨床評価に相関するスピーチ特徴を自動的に抽出するための複数の特定の変化を特定することができる。
すなわち、様々な従来の研究が、それぞれ異なる精神疾患を検出可能なスピーチ特徴を特定しようと試みている。
図1は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価システムの例を示すブロック図である。 図2は、開示の技術の特定の実施形態に係る臨床研究データ収集および分析システムの例を示すブロック図である。 図3は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価および収集システムの例を示すブロック図である。 図4は、開示の技術の特定の実施形態に係る機械学習システムの例を示すブロック図である。 図5は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価のコンピューター実施方法の例を示すフローチャートである。 図6Aおよび図6Bは、2人の話者がストレス状態からよりリラックスした状態に変化した時に、2人の話者のピッチ分布がどの程度変化するのかを示すための例を示す図である。 図7Aおよび図7Bは、2人の話者がストレス状態からよりリラックスした状態に変化した時に、2人の話者の調波状態分布がどの程度変化するのかを示すための例を示す図である。 図8は、開示の技術の特定の実施形態に係るスピーチ収集システムの例を示すブロック図である。 図9は、開示の技術の複数の実施形態が実施されるネットワークシステムの例を示すブロック図である。
スピーチ分析および機械学習(machine learning)の分野における進歩は、人々(すなわち、患者)のスピーチにおける複数の複雑なパターンを用いて、話者の精神状態(例えば、様々な臨床手続きにおいて定められている精神状態)を予測することを可能としている。このような、スピーチを用いて、精神状態を予測するシステムおよび方法は、一般的に、話者(すなわち、患者)から、スピーチデータを収集することから始まる。その後、該システムまたは方法は、収集されたスピーチデータから、数学的パラメーター(スピーチ特徴とも称される)を導出する。その後、該システムまたは方法は、例えば、話者の見込み状態(likely status)を判別するため、これらの値と、特徴の事前定義セット内のデータおよび関連する精神状態とを比較する。その後、この結果は、例えば、必要に応じて、話者および/または臨床医に提供される。
患者のスピーチデータを収集することは、歴史的に、テープレコーダー、最近では、デジタル音声レコーダーを用いて、被験者に対する臨床医主導のインタビューを記録することによって実行されてきた。しかしながら、このようなインタビューの記録処理は、手間と時間がかかる。例えば、特別な設備が必要であり、そのような設備を適切に設定しなければならず、典型的には、インタビュー実施者とインタビュー受け者はマイクを着用し、さらに、インタビュー実施者は、インタビューを主導しなければならない。
これに対し、開示の技術の特定の実施形態は、アプリケーションベースの自動化されたスピーチ誘導プログラムを含む。このようなプログラムは、スピーチデータの収集にのみ焦点を合わせている。複数の代替実施もまた、収集されたスピーチの分析および/またはデータの提供を自動化する。
特定の実施形態において、患者のスピーチデータは、例えば、スマートフォンやタブレットのようなモバイル電子デバイスの音声ハードウェアを用いて収集される。デバイス上にインストールされたアプリケーションは、デバイスに、ユーザーに対して複数のオープンエンド質問(user open-ended questions)、すなわち、最近の出来事に関する複数の質問をさせる。また、デバイスは、複数の質問に対するユーザーの応答を記録する。患者に提供される複数の質問は、患者が周期的(例えば、毎週)に応えることができ、および/または、拡張回答(例えば、質問に対する「はい」または「いいえ」ではない回答)で答えることができるように、設計されている。なお、このような質問は、話者の精神状態を直接的に探索することや、話者の感情を深く掘り下げることを意図的に避けていることに留意されたい。
質問の順番は、患者毎および/またはセッション毎にランダム化されており、例えば、話者がアプリケーションを使用する際、毎回異なった質問を受けることができる。なお、この順番はランダムなため、被験者が前のセッションと同じ質問を繰り返し受けることもあり得ることに留意されたい。
特定の実施において、各セッション中において、特定の量のスピーチが記録される(例えば、所与のセッションの間に合計2分記録する)。患者がそのような特定の合計時間の間に複数の質問に答えると、アプリケーションは、被験者に対し、セッションに参加し、セッションを完了してくれたことに感謝を述べる。また、アプリケーションは、応答をサーバー、例えば、ローカルサーバーまたは遠隔サーバー上にアップロードしてもよい。
特定の実施は、一般的に、患者のメンタルヘルス評価を実行するために患者のスピーチ特徴を分析するシステムおよび方法に関し、例えば、患者が苦しんでいる心的外傷後ストレス障害(PTSD)または鬱病に対応するスコアを判別するために患者のスピーチ特徴を分析するシステムおよび方法に関する。すなわち、患者のスピーチ特徴は、例えば、患者のPTSDまたは鬱状態の検出を容易にするために利用可能な重要な情報を含んでいる。
特定の実施において、スピーチ特徴は、例えば、人のPTSDや鬱病の診断に一般的に相関する記録されたカウンセリングおよび心理的サービス(CAPS: Counseling and Psychological Services)インタビューから導出された個人のスピーチ特徴として、患者のPTSDまたは鬱状態の評価のために用いられる。患者集団から得られたインタビュー記録は、患者のPTSDまたは鬱状態を示す、または、患者のPTSDまたは鬱状態に関する評価スコアを最終的に提供するための客観的スコアリングシステムの改良(発展)およびテストのために用いられる。
開示の技術の特定の実施は、PTSDまたは鬱病のためにスクリーニングされた患者集団から得られたインタビュー記録を選択、準備、および分析するためのプロトコル(手順)の使用を含む。該集団は、PTSD陰性(ネガティブ)患者およびPTSD陽性(ポジティブ)患者の双方を含む。例えば、該プロトコルは、適切なインフォームド・コンセント(informed-consent:医師が患者に対して十分な情報提供を行ったうえでの治療同意)手続き、および、例えば、医療保険の相互運用性と責任に関する法律(18 HIPAA:18 Health Insurance Portability and Accountability Act)識別子(45 C.F.R. §164.512(b)(2)(i)(A)-(R))を除外するために、データを匿名化(非特定化)するための手続きを含む。インタビューは文字に書き起こされ、さらに、記録が、それぞれ独立したインタビュー実施者ユニットとインタビュー受け者ユニットにセグメント化される。
特定の実施において、韻律特徴(prosodic features)が定義され、各インタビュー受け者の記録セグメントから、韻律特徴が抽出される。これら特徴は、音声的およびポーズ期間(phonetic and pause durations)に加え、様々な抽出領域に渡るピッチおよびエネルギーの測定値のような多数の様々なパラメーターのうちの任意のものを含んでいる。多数の確立されている自動スピーチ認識技術のうちの任意のものを、これらセグメントを文字に書き起こすために用いることができる。
特定の実施において、メル周波数ケプストラム係数(MFCCs: Mel Frequency Cepstral Coefficients)、並びに、ピッチおよびエネルギー特徴が、患者インタビューから抽出される。その他の特徴は、新規ケプストラム特徴(novel cepstral features)、一時的変動パラメーター(temporal variation parameters)(例えば、発声速度、期間内におけるプロミネンス(prominence:発話中の特定の部分を強く言う等により、目立たせること)ピークの分布、ポーズの長さおよび周期、音節期間等)、スピーチ周期性、ピッチ変動、および音声/無音声比(voiced/voiceless ratios)を含む。開示の技術の特定の実施は、例えば、患者プライバシーおよび実用上の理由により、単語(words)に依存しない自動抽出可能特徴(automatically extractable features)に制限されていてもよい。
患者チャンネル(patient channel)内の手動により注釈が付されたセグメントのそれぞれ用に、潜在的なPTSDまたは鬱病マーカーを取得することを目的としたスピーチ特徴タイプの様々な特徴が、算出される。このような特徴は、2つのカテゴリー、すなわち、短いスピーチサンプル(例えば、20ミリ秒長)から算出された低レベル特徴および長いスピーチサンプル(例えば、発話(utterance)レベル)から算出された高レベル一時的特徴に分割される。
低レベル特徴は、減衰振動ケプストラム係数(DOCC: Damped Oscillator Cepstral Coefficients)、正規化変調ケプストラム係数(NMCCs: Normalized Modulation Cepstral Coefficients)、媒体期間スピーチ振幅(MMeDuSA: Medium Duration Speech Amplitudes)特徴、ガンマトーンケプストラム係数(GCCs: Gammatone Cepstral Coefficients)、ディープTV(DeepTVs)、音声表音的(AP: Acoustic Phonetic)特徴のうちの任意の1つまたはこれらの組み合わせを含む。
減衰振動ケプストラム係数(DOCC)は、人間の耳内の有毛細胞の運動状態をモデル化することを目的としている。これら有毛細胞は、一般的に、入ってくる音波のモーションを検出し、さらに、聴覚神経のニューロンを活性化させる。DOCC処理において、入ってくるスピーチ信号は、一般に信号を帯域制限された複数のサブ帯域信号に分割するガンマトーンフィルターバンク(例えば、等価矩形帯域幅(ERB: Equivalent Rectangular Bandwidth)スケール上で均等に離れて配置された40個のガンマトーンフィルターのバンク)によって分析される。次に、これらサブ帯域信号が、その応答が音声特徴として利用される減衰振動アレイに対する強制関数(forcing functions)として使用される。
正規化変調ケプストラム係数(NMCCs)は、例えば、離散エネルギー分離アルゴリズム(DESA: Discrete Energy Separation Algorithm)と共にハミング窓を用いることにより、一般的に人間のスピーチ認知および認識において重要な役割を果たす時間領域(time-domain)サブ帯域スピーチ信号の振幅変調(AM: Amplitude Modulation)軌跡を追跡する。
媒体期間スピーチ振幅(MMeDuSA)特徴の変調は、例えば、媒体期間分析窓(medium-duration analysis window)を用いて、サブ帯域AM信号およびスピーチの総括変調(overall summary modulation)を追跡するために用いられる。総括変調は、母音プロミネンス/アクセントのような出来事の位置特定およびスピーチ活動追跡において重要な役割を果たす。
ガンマトーンケプストラム係数(GCCs)は、知覚的に刺激を受けたガンマトーンフィルターバンク(perceptually motivated gammatone filterbank)を用いて、スピーチシグナルを分析する。GCCs用アルゴリズムは、離散コサイン変換をルート圧縮フィルターバンクエネルギーに実行した後、ガンマトーンスペクトルを抽出し、さらに、ケプストラム特徴を抽出する。GCC処理において、スピーチは、例えば、ERBスケール上で等間隔に離れて配置された40個のガンマトーンフィルターのバンクを用いて、分析される。
ディープTVは、声道(vocal tract)の様々な部分における収縮位置および収縮度を推定するディープニューラルネットワークから取得される構音(articulatory)特徴のセットである。これら特徴は、8次元であり、さらに、一般的に声門および軟口蓋の開閉、口唇収縮、円唇化、舌尖および舌圧子の収縮のような情報を取得する。
音声表音的(AP)特徴は、一般的に、音声表音情報(例えば、フォルマント(formant)情報、平均ヒルベルト包絡線、サブ帯域における周期的および非周期的エネルギー等)を表し、さらに、10ミリ秒分析窓を用いて、5ミリ秒フレームレートで分析される。
カルディピッチ追跡子(Kaldi Pitch tracker)は、2次元出力、例えば、ピッチ追跡と、音声情報についての指標を提供する正規化相互相関関数とを提供するために用いられる。
高レベル特徴は、傾き特徴、Dev特徴、エネルギー等高線(En−con)特徴、ピッチ関連特徴、および強度関連特徴のうちの任意の1つまたはこれらの組み合わせを含む。
傾き特徴は、一般的に、音声エフォート所与外因性セッション変動(vocal effort given extrinsic session variability)を取得することを目的としている。特徴が音声フレームのために抽出される。例えば、傾き特徴の5つの成分は、複数の室内条件においてマイクに対して入力された低次の調波およびフォルマントを反映する3つ(H2−H1、F1−H1、およびF2−H1)を含む。残りの2つの特徴は、例えば、フレーム毎のスペクトル傾き、および、ログパワースペクトルの最大と2kHz−3kHzの範囲の最大との間の差である測定値を含んでいる。
DLE特徴は、スパース特徴(例えば、音声−無音声移行毎に一度だけの出力)を用いて、セッション正規化音声エフォート検出(session-normalized vocal effort detection)を目的としている。この特徴は、一般的に、移行におけるログエネルギーにおける差である。DLEオンセット特徴は、典型的には、無音声から音声スピーチへの各境界において引き起こされるものであり、一方、devオフセット特徴は、通常、音声から無音声スピーチへの各境界において発生するものである。
エネルギー等高線(En−con)特徴セットは、一般的に、各セグメント内のエネルギーピークの周期性に注目することによって、周期性を取得することを目的としている。この特徴は、典型的には、MFCCフロントエンド(MFCC front end)からの出力c0、c1の10ミリ秒等高線をモデル化する。ここで、各ケプストラムストリームは、発話に渡って平均正規化されており、そのため、両セッションに渡る絶対レベル差、および、セッションセグメント内の絶対レベル差をロバストにしている。その後、離散コサイン変換が100ミリ秒シフトで200ミリ秒スライド窓に渡って実行される。各窓用に、ベクトル成分は、c0用の第1の5つのDCTベース(the first five DCT bases for c0)と、c1用の第1の2つのベースとを含む。
ピッチ関連特徴は、一般的に、f0と、f0ピーク(f0pk)と、f0ピーク統計(f0pk-stats)特徴とを含む。f0ピーク特徴は、一般的に、各セグメント内において実行された自動ピーク選別アルゴリズムによって発見されたピッチ値のサブセットのみを記録する。f0ピーク統計特徴内において算出された統計値は、ピッチレベルおよびピッチ―ピーク分布情報の双方を含んでいる。ピッチレベルは、一般的に、セグメント内のピークピッチの平均、最大、および標準偏差を含む。ピッチピーク分布は、典型的には、ピッチではなく、セグメント内のピッチ−アクセント音節の一時的分布を取得することを目的としている。これら特徴は、ピークカウント、ピークレート(セグメント期間によって分割されたカウント)、平均および最大ピーク間距離、セグメント内の最大ピークの位置(すなわち、初期vs後期(early vs. late))、および、セグメントの期間のパーセンテージとセグメント内の未加工の距離(raw distance)の双方のうちの任意の1つを含む。
int、intpk(intピーク)、およびintpk統計のような強度関連特徴は、ピッチ特徴と同様の方法(ピッチではなく強度が算出される)において算出される。ピッチと異なり、未加工の強度値(例えば、強度、ピークでの強度、および強度の平均/最大/標準偏差)は、話者だけでなく、記録セッションにも反映する。残りのf0−ピーク統計のようなintpk統計は、セグメント内のピッチアクセントの分布を取得することを目的とし、さらに、動作特徴としてのみ解釈される。
特定の実施形態において、インタビュー受け者のインタビュー転写物から、語彙特徴が抽出される。これら特徴は、例えば、吃音、アイディア密度(idea density)、参照活動(referential activity)、感情の分析、話題モデリング(topic modeling)、意味的一貫性(semantic coherence)を含む。
特定の実施において、特徴選択は、一変量(univariate)分析を介して実行され、さらに、機械学習アルゴリズムは、音声および語彙特徴入力に基づいて、PTSDや鬱状態、CAPSスコアの様態などのアウトカム(outcome: 病気の治療後の経過および結果)測定値を予測するモデルを改良するために用いられる。統計モデルは、例えば、新たに抽出された特徴を用いて、PTSD陽性患者およびPTSD陰性患者を特定するためにトレーニングされる。
PTSDまたは鬱病評価モデルは、生成された音声および語彙特徴を用いて、有効化される。例えば、3つの分類子(例えば、ガウシアンバックエンド(GB: Gaussian Backend)、決定木(DT: Decision Trees)、およびニューラルネットワーク(NN))が用いられる。GB分類子を用いる特定の実施形態において、特定の数の特徴(例えば、最良(ベスト)の4つの特徴)が選択され、さらに、システムコンビネーション(例えば、融合(fusion))が被験者のスピーチに対して実行される。特定の実施形態は、語彙情報に依拠しない音声および韻律スピーチ特徴を用いるPTSD分類子の生成を含む。また、このような実施形態は、見込み(chance)よりも非常に良い分類結果を生成するサブセットを特定することを含む。これら分類子の融合は、一般的に、より良い結果をもたらす。このような融合は、典型的には、例えば、典型的な臨床評価よりも正確な予想を提供する。
話者(例えば、評価システムに対しスピーキングを行っている患者または評価システム内においてスピーキングを行っている患者)は、自身のスピーチに影響を与えるメンタルヘルス状態を複数の様態で有している。例えば、スピーチ生成装置(例えば、患者の口)は、ケプストラムのような短期間スペクトル特徴を提供しており、一方、言語および韻律パターン(例えば、患者の脳からのもの)は、フレーズ(句)レベルの韻律/文体特徴および語彙/内容特徴を提供する。これら特徴の全ては、ここに記述される技術に係るアルゴリズム的な評価に提供される。
図1は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価システム100の第1実施例を示すブロック図である。システム100は、例えば、鬱病、自殺傾向、心的外傷後ストレス障害(PTSD)、脳震とう、双極性障害、不安障害、軽度外傷性脳損傷(mTBI: mild Traumatic Brain Injury)、統合失調症のような特定のメンタルヘルス疾患のための指標として機能可能な音声生体マーカー(voice biomarkers)を特定するために用いられる。システム100は、患者に対して有用な非侵入的システムであり、患者のメンタルヘルス状態を示す客観的測定値を提供する。また、システム100は、低コストであり、患者の効果的な長期モニタリングを提供することができる。
実施例において、システム100は、例えば、患者の会話から得られた患者のスピーチパターン104を、例えば、スマートフォンのようなモバイル電子デバイス上にインストール可能な評価アプリケーション101のスピーチ認識モジュール106および音声分析モジュール108に提供する患者102を含む。スピーチ認識モジュール106と音声分析モジュール108のそれぞれは、言語特徴、韻律特徴、およびスペクトル特徴抽出モジュール110に出力情報を提供するよう構成されている。
抽出モジュール110は、メンタルヘルス評価スコア114を、医療臨床医またはその他適切なユーザーのような提供者(provider)116に提供するよう構成されている。特定の実施形態において、抽出モジュール110は、図中111で示されているように、情報を、提供者116に直接提供することもできる。代替的又はこれに加えて、図中105で示されているように、例えば、メンタルヘルス評価スコア114と連動して患者を分析する用途で用いるために、スピーチパターン104は、システム100の提供者116またはその他適切なユーザーに直接提供されてもよい。
図2は、開示の技術の特定の実施形態に係る臨床研究データ収集および分析システム200の実施例を示すブロック図である。実施例において、複数の被験者202(例えば、患者またはボランティア)のそれぞれは、アプリケーション208(例えば、モバイル電子デバイス(例えば、スマートフォン)のような多数の適切なデバイスのうちの任意のものにインストール可能または該任意のもので利用可能な評価アプリケーション)に情報を提供する。この情報は、スピーチサンプルを含んでおり、さらに、参加者がそれを用いて自身のメンタル状態に関する情報を提供可能な自己評価手段を含んでいる。代替的またはこれに加えて、被験者202は、1人以上の臨床専門家204に、情報を直接提供してもよい。1人以上の臨床専門家204は、アプリケーション208を介して相互通信可能な複数の技術スタッフ206の少なくとも1人と相互連絡を取る(例えば、情報を交換する)。また、臨床専門家204は、参加者の状態についての専門家評価を含むデータ「注釈」を提供する。
アプリケーション208は、データ前処理モジュール214と相互通信するスピーチおよび評価データベース210へのアクセスまたはスピーチおよび評価データベース210との相互通信を実行する。データ前処理モジュール214は、例えば、質の良いスピーチサンプルのみの分析となることを保証するために、音声の質を評価し、さらに、例えば、非スピーチ音、沈黙、またはその他背景イベントのような不適切な分析を処理領域から除去する。技術スタッフ206は、アプリケーション208に情報を提供もしくはアプリケーション208と相互通信する機械学習モジュール212を、タスクの必要に応じて修正する。機械学習モジュール212は、一般的に、システム200が、入力スピーチに基づいて、話者のメンタルヘルス状態についてのスコアまたは評価を提供するモデルを学習させることができるように構成されたアルゴリズムセットから構成されている。この学習フェーズは、オフラインで実行される(例えば、複数の話者からのデータおよび注釈がアプリケーションを介して利用可能とされた後にオフラインで実行される)。代替的に、学習フェーズは、連続的に実行されてもよい(例えば、参加者がアプリケーションを使用した後に参加者が自身の自己評価または臨床医注釈を提供する度に実行されてもよい)。また、これらモデルは、例えば、複数のデータポイントが話者1人に対して利用可能である場合には、話者固有(speaker-specific)であってもよく、複数の話者からの複数のデータポイントが存在するが、話者1人当たりではほんの少しのデータポイントである場合には、話者独立(speaker-independent)であってもよい。
図3は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価および収集システム300の実施例を示すブロック図である。実施例において、モバイル電子デバイス(例えば、スマートフォン)のような個人用デバイス302は、例えば、インターネット304やその他適切なネットワークを介して、アプリケーションストア306において、アプリケーション(例えば、開示の技術に係るモバイルアプリケーション)をダウンロードもしくは該アプリケーションにアクセスする。ユーザーは、アプリケーションをダウンロードし、さらに、特定の個人情報および特定情報(例えば、年齢、性別等)を提供することにより、アプリケーションに登録する。
制御サーバー308は、インターネット304またはその他適切なネットワークを介して、個人用デバイス302とアプリケーションストア306の一方または双方と相互通信する。実施形態において、制御サーバー308は、報告生成部310と、ウェブサーバー312とを備えている。報告生成部310は、例えば、スコアやグラフのような多数の適切な形式のうちの任意の形式で、報告を生成するよう構成されている。
また、制御サーバー308は、スピーチ評価データベース314と相互通信するよう構成されている。また、特定の実施形態において、システム300は、スピーチ認識サブモジュール318、音声分析サブモジュール320、機械学習モジュール322、またはこれらの任意の組み合わせを有するオフライン分析モジュール316を備えている。
図4は、開示の技術の特定の実施形態に係る機械学習システム400の実施例を示すブロック図である。システム400は、例えば、臨床データを用いて、陽性診断と陰性診断とを区別する統計モデルを構築する。
実施例において、例えば、患者の会話から取得したスピーチパターン402が、スピーチ特徴抽出モジュール404(スピーチ特徴算出モジュールとも称される)に提供される。スピーチ特徴抽出モジュール404は、陽性診断を有する話者の第1の統計モデル406、健全な話者の第2の統計モデル408、または、これら双方を含む出力情報を提供する。第1の統計モデル406、第2の統計モデル408、またはこれら双方は、評価スコアを判別する際に意思決定モジュール(decision making module)410によって用いられ、評価スコアは、例えば、陽性診断用の正スコア、陰性診断用の負スコアである。
スピーチ特徴抽出モジュール404は、話者の疾患を特定するために利用可能な生体マーカー(例えば、スピーチ特徴)を特定するよう構成されている。スピーチ特徴抽出モジュール404によって特定される特徴は、陽性診断および陰性診断のための目標クラスモデル406および408をそれぞれ導出するために用いられる。意思決定モジュール410は、例えば、評価スコアを測定し、さらに、評価スコアと経験的しきい値(empirical threshold)とを比較するよう構成されている。
図5は、開示の技術の特定の実施形態に係るスピーチベースのメンタルヘルス評価のコンピューター実施方法500の実施例を示すフローチャートである。502において、少なくとも1つのスピーチパターン(例えば、図4のスピーチパターン402)が患者から収集される。504において、1つ以上のスピーチ特徴が、502において収集されたスピーチ特徴から抽出される(例えば、図4のスピーチ特徴抽出モジュール404によって抽出される)。
506において、患者の精神状態の評価が、504において抽出されたスピーチ特徴の少なくとも一部に基づいて判別される。508において、精神状態の評価が、特定のメンタルヘルス疾患(例えば、鬱病、自殺傾向、PTSD、脳震とう、双極性障害、不安障害、mTBI、統合失調症)の存在に関し、陽性診断を示すか陰性診断を示すかについての判別が実行される。特定の実施において、システムは、実際の評価スコアを、臨床医やその他医療専門家に提供する。
508における精神状態評価が陰性診断(例えば、前述のようなメンタルヘルス疾患が患者に見られないとの診断)を示す判別に応答して、システムは、510に示されているように、陰性診断の表示を提供する。508におけるメンタルヘルス疾患評価が陽性診断(例えば、上述のメンタルヘルス疾患が確かに患者において見られるとの一定の可能性が存在するとの診断)を示す判別に応答して、システムは、512に示されているように、陽性診断の表示を提供する。特定の実施において、510および512において算出された表示の一方または双方は、視覚的な警告、音声的な警告、またはこれらの具体的な組み合わせを含んでいてもよい。
図6〜7は、個々の話者または話者のグループのスピーチ特徴分布の複数の例を示している。
図6Aおよび図6Bは、例えば、治療(セラピー)セッションの結果、2人の話者(それぞれ、話者Aおよび話者B)がストレス状態(例えば、それぞれ602および612)から、よりリラックスした状態(例えば、それぞれ604および614)に変化したとき、2人の話者のピッチ分布600および610がどの程度変化(シフト)するのかを示す例である。
図7Aおよび7Bは、例えば、治療(セラピー)セッションの結果、話者Aおよび話者Bがストレス状態(例えば、それぞれ702および712)から、よりリラックスした状態(例えば、それぞれ704および714)に変化したとき、調波状態分布(harmonicity distributions)700および710が、それぞれどの程度変化(シフト)したのかを示す例である。
開示の技術の実施形態は、機械実行(machine-directed)方法または物理的デバイスとして実施される。したがって、特定の実施は、完全ハードウェア実施形態、完全ソフトウェア実施形態、またはハードウェア様態およびソフトウェア様態の双方を組み合わせた実施形態の形態を取る。例えば、任意の所与の実施形態のいくつかまたは全てのコンポーネントは、コンピューター実施(computer-implemented)コンポーネントである。
図8は、開示の技術の特定の実施形態に係るスピーチ収集システム800の実施例を示すブロック図である。実施例において、スピーチ誘導部804は、話者(例えば、患者802)に対し、スピーチを生成するよう促す。例えば、スピーチ誘導部804は、(例えば、視覚的に、音声的に、またはその双方で)以下の質問803Aの任意のものまたは全てを患者802に対して提供する。
・今日の食欲について教えてください。何を食べるべきですか?
・今日の集中力について教えてください。集中できていますか?簡単に気が散ってしまいますか?
・昨夜の睡眠について教えてください。いつ眠りにつきましたか?睡眠トラブルを抱えていませんか?いつ起きましたか?
・これまでの出来事を述べてください。何をしましたか?どこへ行きましたか?
・活力レベルについて述べてください。活力レベルはどの程度あなたの日々の生活に影響を与えていますか?
・今日あなたを笑わせたことがありますか?それについて教えてください。
・一般的に言って、あなたは今どんな場所にいますか?環境はどうですか?あなたの周囲について述べてください。
・最近、何かについて悩んでいますか?何についてですか?
・今日、エクササイズ(運動)しましたか?何をしましたか?終わった後どう感じました?
・この後数日間の予定はなんですか?何かイベントがありますか?何か予定は?
その後、生成されたスピーチ(例えば、患者802によって提供された回答803B)は、入力として、エラー分析処理ブロック806に提供される。特定の実施形態において、適切な接続(例えば、Wi−Fi接続)が存在する場合には、データは即座にアップロートされ、利用可能な適切な接続がその時点で存在しない場合には、システムは、与えられたセッション応答をアップロードする前に、適切な接続が提供されるまで待機する。
エラー分析部806は、スピーチを分析し、さらに、スピーチの質を評価する。また、エラー分析部806は、任意のエラーをスキャンする。エラーが発見された場合、または、スピーチの質が特定のしきい値を満足していないと判断された場合(例えば、スピーチの質が、次善または低いとみなされる場合)、エラー分析部806は、フィードバック通信メカニズム805を介してスピーチ誘導部804に信号(例えば、話者802にスピーチを生成するよう再度促すための信号)を送る。このループは、スピーチの質がしきい値を満足するまで(例えば、良好なスピーチが生成されるまで)続けられ、この時点で、スピーチが、他の箇所で上述されたようなスピーチ分析部808に提供される。
特定の実施において、スピーチ誘導部804は、循環バッファ(circular buffer)内に、スピーチを常に記録(オプション的に、保存)する。このような実施形態において、エラー分析部806は、循環バッファからのデータを常に分析する。スピーチの質がしきい値を満足するときはいつでも(例えば、良好なスピーチが検出されたとき)、そのスピーチは、その後、スピーチ分析部808に入力として提供される。スピーチ分析部808は、良好なスピーチを受信すると、良好なスピーチに対する処理を進める。
スピーチ誘導部804およびエラー分析部806は、単一の物理的デバイス(例えば、スマートフォンのようなモバイル電子デバイス)内において実施されていてもよい。特定の実施において、スピーチ誘導部804、エラー分析部806、およびスピーチ収集システム800のその他のコンポーネントのいくつかまたは全ては、単一の物理的デバイス内において機能してもよい。
特定の実施は、話者(例えば、患者)に関するスピーチ分析メタデータを、追加入力として提供する方法を含む。このようなメタデータは、例えば、関連イベント(例えば、戦争に参加したとのイベント)についての情報を含む。スピーチ分析アルゴリズムは、これら入力を考慮し、それにより、より正確な結果を生成する。さらに、これら種類の入力を、テストおよびトレーニング目的で使用してもよい。
話者関連メタデータは、これに限定されないが、直接ユーザー入力、患者の医者および/またはその他治療提供者からの入力、および患者の電子カルテ(EMRs: Electronic Medical Records)からの入力を含む多数の様々な様態のうちの任意の様態で、入力として提供される。
特定の実施において、収集されたスピーチデータおよび/または話者関連メタデータは、ローカルまたは遠隔ホストされている関係データベースにアップデートされる。データは、例えば、被験者毎および/またはセッション毎の単位で記録される。識別番号のみによって(例えば、個人特定情報なしで)特定できることは、話者にとって好ましい。セッション毎のデータは、患者に提供された質問、患者の応答(例えば、音声ファイル)、スピーチを記録するのに用いられたデバイスの種類、質問に関連付けられたタイムスタンプ、応答、および/または様々なユーザーインターフェース(例えば、ボタン押下)の一部または全てを含む。データベースは、さらに、どの質問が効果的と思われるか、どの質問が患者によってスキップされたか、および特定の質問に答える前に患者が一瞬黙ったか(ポーズしたか)についての情報を提供する。
以下は、上述のようなスピーチデータベースを定義するために用いられるSQL文の例である。
以下は、スピーチデータベースを生成するために用いることができる。

CREATE DATABASE "ghcDB2"
WITH OWNER postgres
CONNECTION LIMIT -1;
以下は、スピーチデータベース内の質問テーブルを生成するために用いることができる。

CREATE TABLE questionTable (
questionID varchar(64) NOT NULL PRIMARY KEY,
content varchar(1024) NOT NULL,
enabled boolean,
audioFile varchar(256)--bytea
);
以下は、スピーチデータベース内のユーザーテーブルを生成するために用いることができる。

CREATE TABLE userTable (
userID varchar(256) NOT NULL PRIMARY KEY,
pass varchar(256) NOT NULL
-- gender char(1) NOT NULL, --m/f
-- age integer NOT NULL
);
以下は、スピーチデータベース内のセッションテーブルを生成するために用いることができる。

sessionID uuid NOT NULL PRIMARY KEY,
userID varchar(256) references userTable(userID),
sessionIssue TIMESTAMP WITH TIME ZONE,
sessionSubmit TIMESTAMP WITH TIME ZONE,
deviceType varchar(256),
appVersion varchar(256),
serverVersion varchar(256),
submitted boolean NOT NULL
);
以下は、スピーチデータベース内の回答テーブルを生成するために用いることができる。

CREATE TABLE answerTable (
answerID uuid NOT NULL PRIMARY KEY,
sessionID uuid references sessionTable(sessionID),
questionID varchar(64) references questionTable(questionID),
questionNum integer,

-- status : (issued, answered, skipped, not_reached)
status varchar(64) NOT NULL,
audioAnswerFile varchar(256)--BYTEA
);
以下は、スピーチデータベース内のメタイベントテーブルを生成するために用いることができる。

CREATE TABLE metaEventTable (
eventID uuid NOT NULL PRIMARY KEY,
sessionID uuid references sessionTable(sessionID),
questionID varchar(64) references questionTable(questionID),
eventName varchar(256) NOT NULL,
eventTime TIMESTAMP WITH TIME ZONE

);
図9は、開示の技術の実施形態が実施されるネットワークシステム900の実施例を示すブロック図である。実施例において、システム900は、インターネット、イントラネット、ホームネットワーク、またはこれらの任意の組み合わせのようなネットワーク902を含む。デスクトップコンピューター904、ラップトップコンピューター906のような従来の演算デバイスがネットワーク902に接続され、互いに通信またはネットワークに接続された他のデバイスと通信する。
また、ネットワークシステム900は、3つのモバイル電子デバイス908〜912を備えている。モバイル電子デバイスのうちの2つ908および910は、携帯電話やスマートフォンのようなモバイル通信デバイスである。第3のモバイル電子デバイス912は、PDAやタブレットデバイスのようなハンドヘルドデバイスである。
また、ネットワークシステム900は、例えば、中央データベースまたはレポジトリ、ローカルデータストア、または遠隔ストレージデバイスであるストレージデバイス914を備えている。ストレージデバイス914は、他のデバイス904〜912の一部または全てにアクセス可能であり、デバイス904〜912、サードパーティー、またはストレージデバイス914自身による限定や制限を受ける。ストレージデバイス914は、コンピューター904または906、または、モバイル電子デバイス908〜912の任意のものによってアクセスおよび/または使用される公衆データのいくつかまたは全てを保存するために用いられる。個人データを含むような場合、ストレージデバイス914は、コンピューター904または906、または、モバイル電子デバイス908〜912の任意のものによってアクセスおよび/または使用される公衆データのいくつかまたは全てを保存する。
図示の実施形態を参照して本発明の原理を記述および図示したが、図示の実施形態は、本発明の原理から逸脱することなく、配置や詳細に関し変更可能であり、さらに、任意の所望の方法によって組み合わせ可能であることは理解されるであろう。さらに、上述の議論は、特定の実施形態にフォーカスしたものであるが、その他の構成も予想できるであろう。特に、「本発明の実施形態に係る〜」等との表現が本明細書で使用されているが、これら文言は、一般的に、実施可能性を述べているものであり、本発明を特定の実施形態に限定する意図はない。本明細書において使用されているように、これら文言は、同じまたは異なる実施形態が他の実施形態において組み合わせ可能であることを示すものである。
したがって、本明細書で記述された実施形態の広範な置換を参照すれば、本明細書の詳細な説明および添付物は、説明のみを目的とするものであり、本発明の範囲の限定として捉えるべきではない。したがって、本発明としてクレームされている様態が、特許請求の範囲の請求項の範囲および原理、並びに、それらに同等な全ての変更を含むものである。

Claims (26)

  1. 患者からスピーチパターンを収集する工程と、
    前記収集されたスピーチパターンから、少なくとも1つのスピーチ特徴を算出する工程と、
    前記少なくとも1つの算出されたスピーチ特徴の少なくとも一部に基づいて、前記患者の精神状態を判別する工程と、
    前記判別された精神状態を、前記患者、臨床専門家、または前記患者および前記臨床専門家の双方に報告する工程と、を含むことを特徴とするコンピューター実施方法。
  2. 前記精神状態を判別する工程は、前記患者が、鬱病、自殺傾向、心的外傷後ストレス障害(PTSD)、脳震とう、双極性障害、不安障害、軽度外傷性脳損傷(mTBI)、および統合失調症の少なくとも1つに苦しんでいる可能性を示す請求項1に記載のコンピューター実施方法。
  3. 少なくとも前記少なくとも1つの算出されたスピーチ特徴を用いて、前記患者の前記精神状態の予測を構築する工程をさらに含む請求項1に記載のコンピューター実施方法。
  4. 前記スピーチ特徴を用いて、前記予測を構築する工程は、遠隔サーバー上において実行される請求項3に記載のコンピューター実施方法。
  5. 前記少なくとも1つの算出されたスピーチ特徴は、言語特徴、韻律特徴、およびスペクトル特徴の少なくとも1つを含む請求項1に記載のコンピューター実施方法。
  6. 前記少なくとも1つの算出されたスピーチ特徴は、前記患者のスピーチのピッチに対応する請求項1に記載のコンピューター実施方法。
  7. 前記少なくとも1つの算出されたスピーチ特徴は、前記患者のスピーチの調波状態に対応する請求項1に記載のコンピューター実施方法。
  8. 前記判別された精神状態と、経験的しきい値とを比較する工程をさらに含む請求項1に記載のコンピューター実施方法。
  9. 前記患者に、前記スピーチパターンを生成するよう促す工程と、
    前記促す工程に応答して前記スピーチパターンを生成する工程と、
    前記生成されたスピーチパターンを受信する工程と、をさらに含む請求項1に記載のコンピューター実施方法。
  10. 前記受信したスピーチパターンの質を分析する工程をさらに含む請求項9に記載のコンピューター実施方法。
  11. 前記受信したスピーチパターンの前記質を分析する工程は、前記受信したスピーチパターンの前記分析された質が特定のしきい値を満足するか否かを判別する工程を含む請求項10に記載のコンピューター実施方法。
  12. 前記促す工程、前記生成する工程、前記受信する工程、および前記分析する工程を、前記受信したスピーチパターンの前記分析された質が前記特定のしきい値を満足するまで、繰り返して実行する工程をさらに含む請求項11に記載のコンピューター実施方法。
  13. 前記患者に前記スピーチパターンを生成するよう促す工程は、前記患者に対して、複数のオープンエンド質問を提供する工程を含む請求項9に記載のコンピューター実施方法。
  14. 患者からスピーチパターンを収集するよう構成されたスピーチ収集モジュールを制御するよう動作可能な第1のプロセッサーと、
    前記収集されたスピーチパターンから、少なくとも1つのスピーチ特徴を算出するよう構成されたスピーチ特徴算出モジュールを制御するよう動作可能な第2のプロセッサーと、
    前記少なくとも1つの算出されたスピーチ特徴の少なくとも一部に基づいて、前記患者の精神状態を判別するよう構成されたメンタルヘルス判別モジュールを制御するよう動作可能な第3のプロセッサーと、
    前記判別された精神状態の報告を、前記患者、臨床専門家、または前記患者および前記臨床専門家の双方に提供するよう動作可能な出力モジュールと、を含むことを特徴とするシステム。
  15. スピーチ評価情報を保存するよう構成されたスピーチ評価データベースと、
    前記患者の前記精神状態を判別する際に前記メンタルヘルス判別モジュールによって用いられるよう構成されたアルゴリズムを改良するよう構成されたアルゴリズム改良モジュールと、をさらに含む請求項14に記載のシステム。
  16. ネットワークを介して前記メンタルヘルス判別モジュールと相互通信するよう構成された制御サーバーをさらに含む請求項14に記載のシステム。
  17. 前記ネットワークはインターネットである請求項16に記載のシステム。
  18. 少なくとも前記少なくとも1つの算出されたスピーチ特徴を用いて、前記患者の前記精神状態の予測を構築するよう構成されたトレーニングモジュールをさらに含む請求項14に記載のシステム。
  19. 前記第1のプロセッサー、前記第2のプロセッサー、および前記第3のプロセッサーの少なくとも2つは、同じプロセッサーである請求項14に記載のシステム。
  20. 前記精神状態の判別は、前記患者が、鬱病、自殺傾向、心的外傷後ストレス障害(PTSD)、脳震とう、双極性障害、不安障害、軽度外傷性脳損傷(mTBI)、および統合失調症の少なくとも1つに苦しんでいる可能性を示す請求項14に記載のシステム。
  21. 前記少なくとも1つの算出されたスピーチ特徴は、言語特徴、韻律特徴、およびスペクトル特徴の少なくとも1つを含む請求項14に記載のシステム。
  22. 前記少なくとも1つの算出されたスピーチ特徴は、前記患者のスピーチのピッチに対応する請求項14に記載のシステム。
  23. 前記少なくとも1つの算出されたスピーチ特徴は、前記患者のスピーチの調波状態に対応する請求項14に記載のシステム。
  24. 前記収集されたスピーチパターンは、前記患者に提供された質問に対する回答を含む請求項14に記載のシステム。
  25. 前記収集されたスピーチパターンは、複数の回答を含み、
    前記複数の回答のそれぞれは、前記患者に提供された複数の質問の1つに対応する請求項14に記載のシステム。
  26. 前記収集されたスピーチパターンの音質をチェックするよう動作可能な前処理プロセッサーをさらに含む請求項14に記載のシステム。
JP2017509749A 2014-08-22 2015-08-05 患者の精神状態のスピーチベース評価のためのシステム Pending JP2017532082A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462040965P 2014-08-22 2014-08-22
US62/040,965 2014-08-22
PCT/US2015/043862 WO2016028495A1 (en) 2014-08-22 2015-08-05 Systems for speech-based assessment of a patient's state-of-mind

Publications (1)

Publication Number Publication Date
JP2017532082A true JP2017532082A (ja) 2017-11-02

Family

ID=55351126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017509749A Pending JP2017532082A (ja) 2014-08-22 2015-08-05 患者の精神状態のスピーチベース評価のためのシステム

Country Status (4)

Country Link
US (1) US10478111B2 (ja)
EP (1) EP3160334B1 (ja)
JP (1) JP2017532082A (ja)
WO (1) WO2016028495A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
WO2020013296A1 (ja) * 2018-07-13 2020-01-16 Pst株式会社 精神・神経系疾患を推定する装置
WO2020013302A1 (ja) * 2018-07-13 2020-01-16 株式会社生命科学インスティテュート 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
KR20210003944A (ko) * 2018-09-12 2021-01-12 가부시키가이샤 프론테오 인지증 예측 장치, 예측 모델 생성 장치 및 인지증 예측용 프로그램
WO2021106825A1 (ja) 2019-11-25 2021-06-03 学校法人 慶應義塾 疾患予測装置、予測モデル生成装置および疾患予測用プログラム
JP2021523441A (ja) * 2018-05-01 2021-09-02 ブラックソーン セラピューティクス インコーポレイテッド 機械学習ベースの診断分類器
JP2021529382A (ja) * 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
KR102321520B1 (ko) * 2021-04-09 2021-11-05 주식회사 리얼바이오케어 음성 분석을 통한 우울증 판별 및 케어 시스템
JP2022553749A (ja) * 2019-10-25 2022-12-26 エリプシス・ヘルス・インコーポレイテッド 速度ベースのスクリーニング及び挙動の健康状態の監視のための音響及び自然言語処理モデル
US11942194B2 (en) 2018-06-19 2024-03-26 Ellipsis Health, Inc. Systems and methods for mental health assessment

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
KR102103057B1 (ko) 2013-02-07 2020-04-21 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
EP3359023B1 (en) 2015-10-08 2025-02-26 Cordio Medical Ltd. Assessment of a pulmonary condition by speech analysis
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
JP6731631B2 (ja) * 2016-02-26 2020-07-29 パナソニックIpマネジメント株式会社 認知機能評価装置、プログラム
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US12197817B2 (en) 2016-06-11 2025-01-14 Apple Inc. Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US9899038B2 (en) 2016-06-30 2018-02-20 Karen Elaine Khaleghi Electronic notebook system
US10475530B2 (en) 2016-11-10 2019-11-12 Sonde Health, Inc. System and method for activation and deactivation of cued health assessment
CN106725532B (zh) * 2016-12-13 2018-04-24 兰州大学 基于语音特征与机器学习的抑郁症自动评估系统和方法
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US20180197438A1 (en) * 2017-01-10 2018-07-12 International Business Machines Corporation System for enhancing speech performance via pattern detection and learning
US10152988B2 (en) * 2017-05-05 2018-12-11 Canary Speech, LLC Selecting speech features for building models for detecting medical conditions
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10910105B2 (en) * 2017-05-31 2021-02-02 International Business Machines Corporation Monitoring the use of language of a patient for identifying potential speech and related neurological disorders
US10276190B2 (en) 2017-06-19 2019-04-30 International Business Machines Corporation Sentiment analysis of mental health disorder symptoms
US11004461B2 (en) * 2017-09-01 2021-05-11 Newton Howard Real-time vocal features extraction for automated emotional or mental state assessment
GB2567826B (en) * 2017-10-24 2023-04-26 Cambridge Cognition Ltd System and method for assessing physiological state
US10235998B1 (en) 2018-02-28 2019-03-19 Karen Elaine Khaleghi Health monitoring system and appliance
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
EP3841570A4 (en) * 2018-08-26 2021-10-27 Beyond Verbal Communication Ltd. SYSTEM AND METHOD FOR MEASURING VOCAL BIOMARKERS OF VITALITY AND BIOLOGICAL AGING
US20200081939A1 (en) * 2018-09-11 2020-03-12 Hcl Technologies Limited System for optimizing detection of intent[s] by automated conversational bot[s] for providing human like responses
US11887622B2 (en) 2018-09-14 2024-01-30 United States Department Of Veteran Affairs Mental health diagnostics using audio data
US11380351B2 (en) * 2018-09-20 2022-07-05 Samsung Electronics Co., Ltd. System and method for pulmonary condition monitoring and analysis
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
GB201816532D0 (en) * 2018-10-10 2018-11-28 Leso Digital Health Ltd Methods, systems and apparatus for improved therapy delivery and monitoring
US10847177B2 (en) 2018-10-11 2020-11-24 Cordio Medical Ltd. Estimating lung volume by speech analysis
WO2020095308A1 (en) * 2018-11-11 2020-05-14 Connectalk Yel Ltd Computerized system and method for evaluating a psychological state based on voice analysis
GB2579038A (en) * 2018-11-15 2020-06-10 Therapy Box Ltd Language disorder diagnosis/screening
US10559307B1 (en) 2019-02-13 2020-02-11 Karen Elaine Khaleghi Impaired operator detection and interlock apparatus
CN111667848B (zh) * 2019-03-07 2023-07-21 上海整合医学研究院有限公司 一种用于监测躁狂发作的语音特征提取方法
US11024327B2 (en) 2019-03-12 2021-06-01 Cordio Medical Ltd. Diagnostic techniques based on speech models
US20230317099A1 (en) * 2019-03-12 2023-10-05 Cordio Medical Ltd. Analyzing speech using speech-sample alignment and segmentation based on acoustic features
US11011188B2 (en) 2019-03-12 2021-05-18 Cordio Medical Ltd. Diagnostic techniques based on speech-sample alignment
CN113519024B (zh) * 2019-03-12 2024-10-29 科蒂奥医疗公司 基于语音模型的诊断技术
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
WO2020201969A1 (en) * 2019-03-29 2020-10-08 University Health Network System and method for remote patient monitoring
CA3136790A1 (en) * 2019-04-15 2020-10-22 Janssen Pharmaceutica Nv System and method for detecting cognitive decline using speech analysis
CN110123343B (zh) * 2019-04-19 2023-10-03 西北师范大学 基于语音分析的抑郁症检测设备
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110728997B (zh) * 2019-11-29 2022-03-22 中国科学院深圳先进技术研究院 一种基于情景感知的多模态抑郁症检测系统
US20220405475A1 (en) * 2019-12-11 2022-12-22 Winterlight Labs Inc. System and method for improved feature definition using subsequence classification
US11484211B2 (en) 2020-03-03 2022-11-01 Cordio Medical Ltd. Diagnosis of medical conditions using voice recordings and auscultation
CN111584069B (zh) * 2020-05-07 2023-04-18 成都兰途网络科技有限公司 基于语音深-浅特征堆栈稀疏自动编码的精神病识别系统
US12301635B2 (en) 2020-05-11 2025-05-13 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11730408B2 (en) 2020-06-01 2023-08-22 The Mitre Corporation Systems and methods for human-machine partnered PTSD prediction
CN112006697B (zh) * 2020-06-02 2022-11-01 东南大学 一种基于语音信号的梯度提升决策树抑郁程度识别系统
US11417342B2 (en) 2020-06-29 2022-08-16 Cordio Medical Ltd. Synthesizing patient-specific speech models
US20220139562A1 (en) * 2020-07-10 2022-05-05 Modality.Ai, Inc. Use of virtual agent to assess psychological and medical conditions
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US12334105B2 (en) 2020-11-23 2025-06-17 Cordio Medical Ltd. Detecting impaired physiological function by speech analysis
US20220257175A1 (en) * 2021-02-11 2022-08-18 Samsung Electronics Co., Ltd Speech-based pulmonary assessment
US12159646B2 (en) 2021-03-01 2024-12-03 Express Scripts Strategic Development, Inc. Cough detection system
US12300227B2 (en) 2021-04-19 2025-05-13 Modality.AI Customizing computer generated dialog for different pathologies
KR102755040B1 (ko) * 2021-12-29 2025-01-21 서울대학교병원 기계학습을 기반으로 하는 문진 텍스트를 이용한 우울증 예측 장치 및 그 방법
WO2023168281A1 (en) * 2022-03-02 2023-09-07 Arizona Board Of Regents On Behalf Of Arizona State University System for diagnosing, tracking, and predicting recovery patterns in patients with traumatic brain injury
CN119212611A (zh) 2022-03-13 2024-12-27 索纳菲有限责任公司 通过使用人的声音提供健康信息的系统和方法
WO2024161230A1 (en) * 2023-02-05 2024-08-08 Cordio Medical Ltd. Identifying optimal articulatory event-types for computer analysis of speech

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000245718A (ja) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd 精神状態評価装置
JP2004233691A (ja) * 2003-01-30 2004-08-19 Fujitsu Ltd カウンセリングプログラム、およびカウンセリング方法
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置
US20120116186A1 (en) * 2009-07-20 2012-05-10 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711536B2 (en) 1998-10-20 2004-03-23 Canon Kabushiki Kaisha Speech processing apparatus and method
US6424946B1 (en) 1999-04-09 2002-07-23 International Business Machines Corporation Methods and apparatus for unknown speaker labeling using concurrent speech recognition, segmentation, classification and clustering
US7139699B2 (en) * 2000-10-06 2006-11-21 Silverman Stephen E Method for analysis of vocal jitter for near-term suicidal risk assessment
DE60320414T2 (de) 2003-11-12 2009-05-20 Sony Deutschland Gmbh Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
KR20080014872A (ko) 2005-05-19 2008-02-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 콘텐트 아이템 바운더리들을 검출하기 위한 방법 및 장치
US20090043586A1 (en) * 2007-08-08 2009-02-12 Macauslan Joel Detecting a Physiological State Based on Speech
US8799342B2 (en) 2007-08-28 2014-08-05 Honda Motor Co., Ltd. Signal processing device
AU2010357179A1 (en) * 2010-07-06 2013-02-14 Rmit University Emotional and/or psychiatric state detection
US9800721B2 (en) * 2010-09-07 2017-10-24 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8886533B2 (en) 2011-10-25 2014-11-11 At&T Intellectual Property I, L.P. System and method for combining frame and segment level processing, via temporal pooling, for phonetic classification
US20140095150A1 (en) 2012-10-03 2014-04-03 Kanjoya, Inc. Emotion identification system and method
US9521258B2 (en) 2012-11-21 2016-12-13 Castel Communications, LLC Real-time call center call monitoring and analysis
US9047871B2 (en) 2012-12-12 2015-06-02 At&T Intellectual Property I, L.P. Real—time emotion tracking system
JP6268717B2 (ja) * 2013-03-04 2018-01-31 富士通株式会社 状態推定装置、状態推定方法及び状態推定用コンピュータプログラム
PL403724A1 (pl) 2013-05-01 2014-11-10 Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie System rozpoznawania mowy i sposób wykorzystania dynamicznych modeli i sieci Bayesa
US9965553B2 (en) * 2013-05-29 2018-05-08 Philip Scott Lyren User agent with personality
WO2015116678A1 (en) 2014-01-28 2015-08-06 Simple Emotion, Inc. Methods for adaptive voice interaction
WO2015168606A1 (en) * 2014-05-02 2015-11-05 The Regents Of The University Of Michigan Mood monitoring of bipolar disorder using speech analysis
JP6350148B2 (ja) * 2014-09-09 2018-07-04 富士通株式会社 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム
US9818409B2 (en) 2015-06-19 2017-11-14 Google Inc. Context-dependent modeling of phonemes

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000245718A (ja) * 1999-02-26 2000-09-12 Sanyo Electric Co Ltd 精神状態評価装置
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2004233691A (ja) * 2003-01-30 2004-08-19 Fujitsu Ltd カウンセリングプログラム、およびカウンセリング方法
US20120116186A1 (en) * 2009-07-20 2012-05-10 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041848B1 (ko) * 2017-12-29 2019-11-08 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
KR20190081626A (ko) * 2017-12-29 2019-07-09 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
US12002590B2 (en) 2018-05-01 2024-06-04 Neumora Therapeutics, Inc. Machine learning-based diagnostic classifier
US11715564B2 (en) 2018-05-01 2023-08-01 Neumora Therapeutics, Inc. Machine learning-based diagnostic classifier
JP2022188295A (ja) * 2018-05-01 2022-12-20 ブラックソーン セラピューティクス インコーポレイテッド 機械学習ベースの診断分類器
JP7165207B2 (ja) 2018-05-01 2022-11-02 ブラックソーン セラピューティクス インコーポレイテッド 機械学習ベースの診断分類器
JP2021523441A (ja) * 2018-05-01 2021-09-02 ブラックソーン セラピューティクス インコーポレイテッド 機械学習ベースの診断分類器
JP2021529382A (ja) * 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US12230369B2 (en) 2018-06-19 2025-02-18 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP7608171B2 (ja) 2018-06-19 2025-01-06 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US11942194B2 (en) 2018-06-19 2024-03-26 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP7389421B2 (ja) 2018-07-13 2023-11-30 Pst株式会社 精神・神経系疾患を推定する装置
JPWO2020013302A1 (ja) * 2018-07-13 2021-06-03 株式会社生命科学インスティテュート 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
GB2590201B (en) * 2018-07-13 2022-09-21 Pst Inc Newco Apparatus for estimating mental/neurological disease
JP7662168B2 (ja) 2018-07-13 2025-04-15 Pst株式会社 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
JPWO2020013296A1 (ja) * 2018-07-13 2021-08-05 Pst株式会社 精神・神経系疾患を推定する装置
WO2020013296A1 (ja) * 2018-07-13 2020-01-16 Pst株式会社 精神・神経系疾患を推定する装置
GB2590201A (en) * 2018-07-13 2021-06-23 Pst Inc Apparatus for estimating mental/neurological disease
WO2020013302A1 (ja) * 2018-07-13 2020-01-16 株式会社生命科学インスティテュート 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
JP7563683B2 (ja) 2018-07-13 2024-10-08 Pst株式会社 精神・神経系疾患を推定する装置
US12029579B2 (en) 2018-07-13 2024-07-09 Pst Inc. Apparatus for estimating mental/neurological disease
KR20210003944A (ko) * 2018-09-12 2021-01-12 가부시키가이샤 프론테오 인지증 예측 장치, 예측 모델 생성 장치 및 인지증 예측용 프로그램
KR102293160B1 (ko) 2018-09-12 2021-08-24 가부시키가이샤 프론테오 인지증 예측 장치, 예측 모델 생성 장치 및 인지증 예측용 프로그램
JP2022553749A (ja) * 2019-10-25 2022-12-26 エリプシス・ヘルス・インコーポレイテッド 速度ベースのスクリーニング及び挙動の健康状態の監視のための音響及び自然言語処理モデル
WO2021106825A1 (ja) 2019-11-25 2021-06-03 学校法人 慶應義塾 疾患予測装置、予測モデル生成装置および疾患予測用プログラム
KR102321520B1 (ko) * 2021-04-09 2021-11-05 주식회사 리얼바이오케어 음성 분석을 통한 우울증 판별 및 케어 시스템

Also Published As

Publication number Publication date
WO2016028495A1 (en) 2016-02-25
US20180214061A1 (en) 2018-08-02
EP3160334B1 (en) 2021-12-01
EP3160334A1 (en) 2017-05-03
US10478111B2 (en) 2019-11-19
EP3160334A4 (en) 2017-09-13

Similar Documents

Publication Publication Date Title
US10478111B2 (en) Systems for speech-based assessment of a patient's state-of-mind
Wu et al. Automatic speech emotion recognition using modulation spectral features
Baghai-Ravary et al. Automatic speech signal analysis for clinical diagnosis and assessment of speech disorders
US8825479B2 (en) System and method for recognizing emotional state from a speech signal
US20200294509A1 (en) Method and apparatus for establishing voiceprint model, computer device, and storage medium
Stasak et al. Automatic detection of COVID-19 based on short-duration acoustic smartphone speech analysis
KR20240135018A (ko) 감정 자극을 이용한 음성-기반 정신 건강 평가를 위한 멀티-모달 시스템 및 방법
Chee et al. MFCC based recognition of repetitions and prolongations in stuttered speech using k-NN and LDA
AU2013274940B2 (en) Cepstral separation difference
Chandrashekar et al. Investigation of different time-frequency representations for intelligibility assessment of dysarthric speech
Vergyri et al. Speech-based assessment of PTSD in a military population using diverse feature classes.
Dahmani et al. Vocal folds pathologies classification using Naïve Bayes Networks
Tulics et al. The automatic assessment of the severity of dysphonia
Warule et al. Detection of the common cold from speech signals using transformer model and spectral features
Le et al. The use of spectral information in the development of novel techniques for speech-based cognitive load classification
Sahoo et al. Analyzing the vocal tract characteristics for out-of-breath speech
He Stress and emotion recognition in natural speech in the work and family environments
Zhu et al. Wavrx: a disease-agnostic, generalizable, and privacy-preserving speech health diagnostic model
Patel et al. Machine learning for automatic speech recognition
Kumari et al. Deep convolution neural network based Parkinson’s disease detection using line spectral frequency spectrum of running speech
Martínez et al. Suprasegmental information modelling for autism disorder spectrum and specific language impairment classification
Sethu Automatic emotion recognition: an investigation of acoustic and prosodic parameters
Hamiditabar et al. Determining the severity of depression in speech based on combination of acoustic-space and score-space features
Sedigh Application of polyscale methods for speaker verification
Ylä-Jääski Classification of Vocal Intensity Category from Multi-sensor Recordings of Speech

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180725

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180725

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200226

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200930