JP2021500209A - 生理的状態を判定するシステム及び方法 - Google Patents

生理的状態を判定するシステム及び方法 Download PDF

Info

Publication number
JP2021500209A
JP2021500209A JP2020543407A JP2020543407A JP2021500209A JP 2021500209 A JP2021500209 A JP 2021500209A JP 2020543407 A JP2020543407 A JP 2020543407A JP 2020543407 A JP2020543407 A JP 2020543407A JP 2021500209 A JP2021500209 A JP 2021500209A
Authority
JP
Japan
Prior art keywords
subject
task
voice
response
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020543407A
Other languages
English (en)
Inventor
ヘレン バーネット,ジェニファー
ヘレン バーネット,ジェニファー
キャスリーン コーマック,フランチェスカ
キャスリーン コーマック,フランチェスカ
セオドア タプティクリス,ニコラス
セオドア タプティクリス,ニコラス
トング スー,マリナ
トング スー,マリナ
Original Assignee
ケンブリッジ コグニション リミテッド
ケンブリッジ コグニション リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ケンブリッジ コグニション リミテッド, ケンブリッジ コグニション リミテッド filed Critical ケンブリッジ コグニション リミテッド
Publication of JP2021500209A publication Critical patent/JP2021500209A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4082Diagnosing or monitoring movement diseases, e.g. Parkinson, Huntington or Tourette
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4094Diagnosing or monitoring seizure diseases, e.g. epilepsy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4824Touch or pain perception evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/42Evaluating a particular growth phase or type of persons or animals for laboratory research
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Primary Health Care (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Psychiatry (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurology (AREA)
  • Hospice & Palliative Care (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Developmental Disabilities (AREA)
  • Physiology (AREA)
  • Neurosurgery (AREA)
  • Evolutionary Computation (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • General Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)

Abstract

被験者の生理的状態を評価するためのシステムであって、少なくとも2つの情報セットを被験者に伝達するタスク配信モジュールと、被験者からの各音声応答を音声信号として記録する、応答検出モジュールと、分析モジュールと、を備え、各情報セットは、前記被験者からの音声応答を要求する認知タスクに関するものであり、前記応答検出モジュールは、マイクロフォンを備え、前記分析モジュールは、前記被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、前記応答検出モジュールによって記録された各音声応答に対応する音声信号を分析し、各音声応答からの前記特徴を比較し、前記比較に基づいて前記被験者の生理的状態を判定することを特徴とするシステム。

Description

本発明は、被験者の生理的状態を評価するためのシステムおよび方法に関する。本発明は、特に、しかし排他的ではなく、音声バイオマーカー並びに認知評価及び/または臨床評価の結果を使用して、神経状態または神経精神状態の症状を含む、痛みなどの生理的状態をより良好に評価する方法に関する。
神経疾患及び神経精神疾患の診断と、投薬の処方と、を含む臨床的意思決定は、認知機能及び症状分類の正確なテストに基づいている。また、認知テストは、神経疾患による影響を受けていない人々の一般的な脳の健康の管理において、重要な役割を果たし得る。さらに、認知テストは、健康及び安全の方針の暗示を伴う一般的な適合評価の一部である可能性がある。例えば、認知テストは以下を提供する。
● 状態のリスクを評価するための、または特定の母集団の規範的データを提供する研究の一部としての、被験者のベースライン情報、
● 神経疾患またはそれらの前兆の発症の初期信号を検出する手段、
● 神経疾患の正確な診断の支援、
● 神経疾患の経過を監視する手段、及び
● 認知的な安全性と有効性との双方の観点から、一連の治療が患者に与える影響を判断する方法。
認知テスト及び臨床評価は通常、臨床医の監視の下で患者が実施する一連の個別のテストの形を取る。認知テスト中に用いられる手順は、通常、脳の1つ以上の認知プロセスを特に利用する標準化されたパズルまたはタスクの構造化されたセットの形を取る。テストの指示及び「ルール」は、書面で、口頭で、またはコンピュータのような自動化システムを介して、伝達され得る。例えば、患者は、単語のリストを学習し、一定期間後(または別のタスクを実行した後)にできるだけ多くの単語を思い出すように求められる場合がある。この特定のタスクは、患者の記憶容量をテストするものであり、認知症の症状に対する感度が高い。患者の応答に基づいて計算されたスコアは、訓練された人間またはコンピュータによって、リアルタイムで、または書面、口頭、マニュアルもしくはデジタルでなされた記録に基づいて、行われ得る。テストは、その患者の以前のテストデータに対して、または正常な認知機能を有する関連集団及び既知の神経疾患を有する関連集団の履歴データセットに対して、スコアリングされる。関連集団は、年齢、性別および既知の病状を参照することにより選択され得る。
認知症及びその他の神経疾患についての現在の認知機能テストの例には、ミニメンタルステート検査(Mini Mental State Examination)、簡略型精神検査(Abbreviated Mental Test)、一般開業医の認知評価(General Practitioner Assessment of Cognition)、及びホプキンス言語学習検査(Hopkins Verbal Learning Test)が含まれる。
完全な認知評価の提供は、通常、テスト対象とテスト提供者との間の複数のやりとりで構成される。この場合、これまでのパフォーマンスに基づいて、追加の指示またはプロンプトが伝達され、特定のパフォーマンス基準に達するまでさらにタスクまたはパズルが提供される。Cambridge Neuropsychological Test Automated Battery(CANTAB)のような、コンピュータ化された認知検査システムでは、タスクの順序を含む認知テスト手順のあらゆる面、タスク提供のあらゆる面、双方向型指導及びタスクのスコアリングを自動化する。
それにもかかわらず、技術の現在の状態にはいくつかの制限があるため、認知スコアおよび/または臨床情報もしくは人口統計情報によって認知的状態および生理的状態を完全に予測することはできない。認知的状態は、記憶、注意、実行機能、言語などの脳の特定の認知機能を実行する被験者の能力として定義される。生理的状態は、被験者の痛み、疲労、落ち着いた状態、警戒の経験として定義される。
認知テストの制限の1つは、パフォーマンスの上限を押し上げながらコンプライアンスを確保するために、ユーザーフレンドリー/許容性を維持する必要があることである。ユーザーが簡単に対応できる限界を超えてテストを行わないのであれば、認知テストには、人の認知能力の上限を測定する方法がない。この経験は、ユーザーに不満を与える可能性及び時間のかかるテストを行う可能性がある。該テストは、臨床試験および臨床診療において、ロジスティックに問題があり、費用がかかる。
別の制限は、一部の認知テストにおいて、異なる脳回路または機能を用いて異なる戦略を使用することで、同じパフォーマンスを達成できることである。例えば、記憶のテストでは、2人が異なる戦略を使用して同じスコアを生成することができる。1人はニーモニックなどの学習された戦略を使用し、もう1人は戦略を使用しない。両方の人が同じスコアを達成し得るが、記憶に関連する神経回路の負荷は、2番目の人の方が高いと予想される。あるいは、戦略の使用方法の違いにより、2人は同じレベルの記憶能力に対して異なるスコアを生成する可能性がある。
他の制限には、主観的な経験や文化的な変化が含まれる。例えば、パフォーマンスの「偽造」や、パフォーマンスの違いにつながるモチベーションの違いなどである。例えば、軽いレベルの痛みを経験している患者は、オピオイド薬を受け取るために意図的に痛みの報告を誇張する場合がある。したがって、本技術分野では、応答ストリーム内の客観的マーカーを使用して、人の認知能力および生理的状態の正確な測定を可能にするユーザーフレンドリーなシステムが必要である。
生理的状態を測定する客観的な方法の1つは、声と音声から特徴を抽出することである。人間の声は、私たちが言っていること、そして私たちがそれをどのように言っているかを通じて、私たちの神経処理に関する重要な情報を含んでいる。成人では、発話の内容と、発話の他の特徴(発声率、発話の流暢さ、声のトーンなど)と、の両方を通じて、痛み、落ち着いた状態、疲労、気分などの主観的な生理的状態を表現して評価する。言葉を話す前の子供や動物では、これらの状態は非単語の発声から推測できる。
以前の研究(Lautenbacher et al., 2017)では、母音発声における音響特徴の変化が、主観的な痛みの知覚の変化を有意に予測することが発見された。50人の健康な若い成人が、(浸漬熱がない)基準値以下の温水に手を浸した状態で、母音「u」、「a」、「i」および「schwa」(「a」は「alone」、uは「circus」)を発声した。音声パラメータとして、調子(平均f0)、f0範囲及び声の大きさを抽出した。母音「u」及び「schwa」の調子と声の大きさは、痛みの間に増加することがわかり、これらの音声パラメータがさらに大きく増加することは、主観的な痛みのスケール評価がより大きく増加することと関連していた。
別の研究(Oshrat 2014)では、原則として、機械学習ベースの分類アルゴリズムが、大きな痛みのある人とない人の音声サンプルを区別できることが示された。イスラエルの小規模な研究では、外傷による痛みを与えた合計27人の成人からの97件の録音を用いて、各録音から、1秒の音声クリップを3〜6個生成した。音声クリップでは、IDナンバーの桁に含まれる数、または彼らの名前に含まれる単語が、発声されていた。機械学習を使用して、著者は、男性のサンプルの約80%と女性の83%で、痛みあり/痛みなしの分類を正しく分類する一連の特徴を選択することができた。
Oshratとその同僚ら(2014)は、サンプルサイズが小さかったため、この方法を、複数のレベルの臨床スケール(有痛/無痛という2種類の基準ではなく、例えば1〜10のスケール)を再現する痛みのマーカーの開発のために使用できなかった。これに対して、Tsai et al(2016)は、2種類(有痛/無痛)と3種類(軽度/中程度/重度の痛み)のクラスの両方で、それぞれ72.3%と51.6%の精度で痛みの強度を分類できた。この研究では、音声記録から抽出された音響特徴と、ビデオ記録から抽出された顔の特徴と、の両方を使用するサポートベクターマシンが採用された。
これらの研究をまとめると、非常に短い音声サンプルを機械学習ベースで分析することで痛みに関連する音声の特徴を識別できる、という原理が証明された。
同様に、人工知能(Al)ベースのモデルは、音声のみからだけでなく、うつ病(Williamson et al., 2014)、前頭葉型認知症(Nevler et al., 2017)、自閉症スペクトラム障害(Fusaroli et al., 2017)、パーキンソン病(Zhang et al., 2016)、心的外傷後ストレス障害及びうつ病(Place et al., 2017)を含む神経学および精神医学の他の領域における他の変数(例えば、ビデオ記録、人口統計変数、疾患固有の変数、および認知能力)と組み合わせて、生理的状態を推測するために使用されている。
したがって、本技術分野では、音声から、特定の生理的状態を潜在的に推測し得ることが知られている。生理的状態のマーカーとして音声を使用する際に克服すべき問題の1つは、人間の音声に存する、固有の変動性である。
人間の音声信号の変動は、いくつかの要因によって生成される。
A)性別、年齢、喉の解剖学的構造のサイズと形状に関連する特徴、発話障害、喫煙などの生物学的差異による話者間の差異
B)学習した行動による差異(教育レベル、言語、地域のアクセント、話し方)
C)音声の録音も、録音環境の差異を反映し得る(背景ノイズ、データ録音とマイクの品質)
D)異なる機会にテストされた場合における、認知的または生理的状態以外の要因に起因する話者内の変化(例:水分補給、湿度、音声負荷)
タスクの心理的コンテキストに関連する変動の要因が、2つある。
E)異なる機会にテストされた場合における、現在の認知的または生理的状態(例えば、せん妄、認知症、うつ病、不安、痛み、疲労)に起因する話者内の変化(例: Johnstone 2001 UWA; Vogel et al., 2010)
F)同一の機会に異なるタスク条件下でテストされた場合(例えば、高認知負荷と低認知負荷、マルチタスク(例:体の姿勢を制御しながら、同時に数を数える(Andersson et al., 2002)、環境ノイズ+認知負荷など、複数のストレス要因の同時存在に関連するストレス(Marquard et al., 2017))、高い感情的負荷と低い感情的負荷(Johnstone 2001、UWA))における、話者内の変化
これらの変動の原因は、精神状態および神経状態の患者にとって、特に厳しいものである。
多くの脳の状態により、声と発話が変化する(A)。構音障害とは、発達障害、後天性の脳障害、または薬物療法によって引き起こされる、発話困難を表す医学用語である。これには、ぼやけた、鼻にかかったように聞こえる、または息もれのような発話、緊張してかすれた声、過度に大きなまたは静かな声、頻繁にためらいが出るような、定期的なリズムで話すことへの問題、「不快」に聞こえる発話や単調な発話、及び舌と唇を動かすことの困難性というような範囲の症状が含まれ得る。
一時的(例:薬物誘発性)または恒久的(例:神経変性)に脳が変化している患者は、認知的もしくは感情的な負荷、または他のストレス要因への耐性が低く、マルチタスクに対する能力が低下している可能性が高い(F)。
脳障害のある患者はまた、うつ病、痛み、または疲労などの併存症状に苦しむ可能性が高い(E)。
音声サンプルを介して脳機能を監視するための改善されたシステムは、各人の個々の音声特徴の固有の変動を考慮、制限、または制御する必要がある。
本発明は、上記の問題のいくつかに少なくとも部分的に取り組むことを目的とする。
本発明の第1の態様は、被験者の生理的状態を評価するためのシステムを提供する。該システムは、少なくとも2つの情報セットを被験者に伝達するタスク配信モジュールを備える。各情報セットは、被験者からの音声応答を要求する認知のタスクに関する。該システムはさらに、被験者からの各音声応答を音声信号として記録する、応答検出モジュールを備える。応答検出モジュールは、マイクロフォンを備える。該システムはさらに、分析モジュールを備える。分析モジュールは、被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、応答検出モジュールによって記録された各音声応答に対応する音声信号を分析し、各音声応答からの特徴を比較し、この比較に基づいて被験者の生理的状態を判定する。
任意選択で、伝達される情報セットは、事前に格納された情報セットの異なるグループから選択され、事前に格納された情報セットは、各情報セットと関連するタスクに結び付いた認知負荷に基づいて、グループ化されている。あるいは、またはさらに、伝達される情報セットは、事前に格納された情報セットの異なるグループから選択され、事前に格納された情報セットは、各情報セットと関連するタスクによって引き起こされる身体的または精神的状態に基づいて、グループ化されている。
脳機能は音声から推測することができるが、個人間のばらつきが課題となる可能性がある。サンプルが取得された時点の個々の文脈(context)に基づいて、異なる時点で同じ個人から取得された音声サンプル間で、さらなる変動が発生する。追加の脳の処理が必要な状況下(例えば、身体活動や運転などの複雑な行動に従事しているとき)またはストレス要因下(たとえば、人前で話す、疲れている、ストレスがかかっている、痛みがあるなど)での発話であっても、声に信号が残る。個々の認知機能はさまざまな状態によって異なる影響を受けるため、これらの信号は状態間で区別される可能性がある。
本発明は、個人間の違い(上記のAとB)と、精神的または生理的状態と無関係な、テストの機会または環境の態様(上記のCおよびD)と、に起因する個人の音声の変動を相殺するために、同じ機会に2つの条件下で個人の音声の特徴を比較することにより、本技術分野の問題に対処する。これにより、タスク条件(F)と現在の生理的状態(E)とに起因する、音声の特徴の変化が残る。さらに、認知的に難しいタスクに個人を積極的に参加させ、パフォーマンスに基づいてタスクの難易度を緩和することにより、本発明は、パフォーマンスと疾患の症状の「偽造」を最小限に抑え、「真の」認知能力と生理的状態を最大限に明らかにする。タスク条件(F)と現在の生理的状態(E)により、音声信号の一部の態様が悪化し、他の態様が最小限に抑えられる。
したがって、本発明の一実施形態では、タスク条件(F)は、例えば、目前のタスクを完了するために必要な認知負荷を増減することにより、体系的に変化する。これにより、各認知負荷に関連するパフォーマンスと音声信号が生成される。同一のタスクの認知負荷間のパフォーマンス中に記録された、タスクのパフォーマンスと音声特徴との違いは、個々の参加者ごとのデルタスコアとして表すことができる。このデルタだけでも、各個人の脳の働きの一般的なマーカーとして使用できる。さらに、デルタスコアを、トレーニングセット内の既知の生理的状態を持つ患者の高負荷状態と低負荷状態で得られたデルタ、およびAIモデルによって生成されたその状態の確率と比較することができる。したがって、この信号を、認知パフォーマンススコアと生理的状態の他の既知の予測因子(臨床スコア、人口統計など)に追加することにより、生理的状態と、神経疾患または神経精神疾患と、の予測モデルを改善する。
本発明の第2の態様は、被験者の生理的状態を評価する方法を提供する。該方法は、少なくとも2つの情報セットを被験者に伝達するステップを備える。各情報セットは、被験者からの音声応答を要求するタスクに関する。該方法はさらに、マイクロフォンを用いて、被験者からの各音声応答を音声信号として記録するステップを備える。該方法はさらに、被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、記録された各音声応答に対応する音声信号を分析し、各音声応答からの特徴を比較し、この比較に基づいて被験者の生理的状態を判定するステップを備える。
本発明の第3の態様は、第2の態様の方法で使用するためのモバイルコンピュータデバイスを提供する。該モバイルコンピュータデバイスは、1つまたは複数のプロセッサを備える。該モバイルコンピュータデバイスはさらに、該1つまたは複数のプロセッサによって制御され、少なくとも2つの情報セットを被験者に伝達する、ユーザインターフェースを備える。各情報セットは、被験者からの音声応答を要求する認知タスクに関する。該モバイルコンピュータデバイスはさらに、該1つまたは複数のプロセッサによって制御され、被験者からの各音声応答を音声信号として記録する、マイクロフォンを備える。該モバイルコンピュータデバイスはさらに、該1つまたは複数のプロセッサに動作可能に結合され、各音声信号を格納する、メモリを備える。該モバイルコンピュータデバイスはさらに、各音声信号をリモートサーバーに通信する、通信デバイスを備える。該モバイルコンピュータデバイスはさらに、各音声信号をリモートコンピュータに通信する、通信デバイスを備える。リモートコンピュータは、被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、応答検出モジュールによって記録された各音声応答に対応する音声信号を分析し、各音声応答からの特徴を比較し、この比較に基づいて被験者の生理的状態を判定し、この判定の結果をモバイルコンピュータデバイスに通信する。ユーザインターフェースは、リモートコンピュータから受信した判定の結果に基づいた情報をモバイルコンピュータデバイスに伝達する。
本発明の第4の態様は、第2の態様の方法で使用するためのコンピュータデバイスを提供する。該コンピュータデバイスは、1つまたは複数のプロセッサを備える。該コンピュータデバイスはさらに、モバイルコンピュータデバイスから少なくとも2つの音声信号を受信する、通信デバイスを備える。音声信号は、被験者によって実行された各認知タスクに対する記録された応答に対応する。該1つまたは複数のプロセッサは、被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、各音声応答に対応する音声信号を分析し、各音声応答からの特徴を比較し、この比較に基づいて被験者の生理的状態を判定し、この判定の結果をモバイルコンピュータデバイスに通信する。
本発明について、非限定的な例示を通じて、添付図面を参照しながら、さらに詳細に説明する。
図1は、本発明の例示的なシステムを示す図である。 図2は、フロントエンドシステムの一部の例を示す図である。 図3は、フロントエンドシステムの一部の例を示す図である。 図4は、バックエンドシステムの例を示す図である。 図5は、AIシステムトレーニングの例を示す図である。
図1は、被験者の生理的状態を評価するためのシステムの実施形態を示す。本システムは、少なくとも2つの情報セットを被験者に伝達する、タスク配信モジュール1を備える。各情報セットは、被験者からの音声応答を要求する認知タスクに関連する。応答検出モジュール2は、被験者からの各音声応答を音声信号として記録する。応答検出モジュール2は、マイクロフォン21を備える。タスク配信モジュール1と応答検出モジュール2は、本システムの「フロントエンド」を形成する。フロントエンド(応答検出モジュール2)は、記録された音声データを「バックエンド」の分析モジュール3に渡すことができる。分析モジュール3は、タスク中にリアルタイム音声信号データを受け取ることができる。
図1に示す実施形態では、本発明のシステムは、コンピュータ、電話、ウェアラブル、または他の電子デバイス(すなわち、モバイルコンピュータデバイス)によって提供され得る。デバイスは、双方向で認知タスクまたは臨床タスクの指示を(音声でスピーカー11から、および/または他の手段、例えば画面上で視覚的に)配信し、(マイクロフォン21を介して音声で、及びオプションで、カメラや手動ユーザーインターフェイスを介して、視覚やジェスチャー、手動応答などによる)被験者の応答を記録する。これらの応答から、認知スコアと臨床スコアが計算される。
別の実施形態では、本システムは、モバイルコンピュータデバイスおよびリモートコンピュータ(例えば、サーバ)によって提供されてもよい。モバイルコンピュータデバイスは、タスク配信モジュール1および応答検出モジュール2を含み得る。リモートコンピュータデバイスは、分析モジュール3を含み得る。モバイルコンピュータとリモートコンピュータの間で、データが通信される。
タスク配信モジュール1は、一連の認知タスクを配信してもよい。各タスクには、指示(口頭など)と、単語、数字、連想、音、質問、及びその他の情報のリストと、ユーザーからの口頭での応答を促すように設計された一連のプロンプトと、が含まれる。応答検出モジュール2は、応答処理機能を実行し、自動音声認識(ASR)システム及び自然言語理解(NLU)システムを使用して、音声応答の意味論的側面を解釈することができる。
認知タスクには、認知のさまざまな側面に関するタスクの難易度を上げる(つまり、認知負荷を高める)ために、操作できるパラメータが含まれる場合がある。例えば、作業記憶を測定するように設計されたタスクをパラメータ化することにより、思い出す項目の数を増やしたり、思い出す項目の操作の要求される複雑性を増加させたり、項目間の類似度を減らしたりすることができる。
したがって、通信される情報セットは、事前に格納された情報セットの異なるグループから選択することができる。前記事前に格納された情報セットは、各情報セットと関連するタスクに結び付いた認知負荷に基づいて、グループ化される。さまざまな難易度のタスクに関する情報が、例えば、タスク配信モジュール1と結びついたメモリ内に事前に格納されていてもよい。
タスク配信モジュール1によって配信されるタスクは、必ずしも認知負荷(例えば、上記で明示的に言及されたもの)が異なるとは限らないが、代替的または追加的に、タスクによって引き起こされる精神状態または生理的状態が異なる場合がある。例えば、被験者は、最初の音楽を聴きながら4つの数字のリストを唱え(最初のタスク)、次に2番目の音楽を聴きながら別の4つの数字のリストを唱える(2番目のタスク)ように指示される。この暗唱は関連する認知負荷が同じであるとみなすことができるが、条件(すなわち、音楽)が異なると、被験者の精神状態や生理的状態が異なり、暗唱のパフォーマンスに影響を与える可能性がある。
特定の身体的または精神的状態を引き起こす可能性のある条件の例には、さまざまな画像の表示、さまざまな音または音楽の聴取、さまざまな身体活動の実行、感情的な記憶の想起、薬物または栄養補助食品の摂取、既存の疾患または症状への注意の集中、精神的イメージの誘導、口頭による刺激、ユーザーへのパフォーマンスフィードバックの操作などが含まれる。例えば、特に苦痛、穏やか、心地よい、または不快であるように、条件が選択されている場合には、一部の条件(たとえば、画像、音、音楽、精神的イメージ、記憶、口頭刺激、フィードバック操作)は、特定の精神的状態を引き起こす可能性がある。例えば、疲労、落ち着いた状態、精神的警戒を誘発するように、または被験者に痛みを引き起こすように、条件が選択されている場合には、一部の条件(例えば、身体活動、薬物療法、サプリメント)は、特定の身体的または精神的状態を引き起こす可能性がある。
したがって、伝達される情報セットは、代替的または追加的に、事前に格納された情報セットの異なるグループから選択されてもよい。前記事前に格納された情報セットは、各情報セットと関連するタスクによって引き起こされる身体的または精神的状態に基づいて、グループ化されている。タスクは、同一のまたは異なる、関連する認知負荷を有する。さまざまな難易度のタスクに関する情報が、例えばタスク配信モジュール1に関連付けられたメモリ内に、事前に保存されていてもよい。
タスク配信モジュール1はまた、被験者の応答の意味論的内容と、オプションとして、音声分析エンジンからのリアルタイム入力と、に応じて、タスクのフローと難易度を適応的に変更する内部ロジックを含むこともできる。内部タスクロジックは、被験者が特定の数のエラーを行うまで、または必要なストレスレベルインジケーター(stress level indicator)などの音声信号のターゲット変更をシステムが検出するまで、タスクフロー中の試行の難易度を継続的に調整する。タスク配信モジュール1はまた、前回のタスクからの、意味論的パフォーマンスおよび/または音声特徴情報を使用して、後続のタスクのフローおよびパラメータを調整する、内部ロジックを含み得る。
したがって、応答検出モジュール2は、各音声応答を分析する音声認識モジュール20を備えてもよい。応答検出モジュール2は、音声検出モジュールからの出力を事前に格納された予測応答と比較し、この比較に基づいて各音声応答にスコアを割り当てる。タスク配信モジュール1は、前回のタスクへの応答に関連するスコアに基づいて、次回のタスクに関連する情報セットを選択してもよい。前回のタスクのスコアが所定の閾値スコアより低い場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷よりも低くなるように、次回のタスクを選択することができる。前回のタスクのスコアが所定の閾値スコアよりも高い場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷よりも高くなるように、次回のタスクを選択することができる。前回のタスクのスコアが異常値であると特定された場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷と同じかまたは類似するように、次回のタスクを選択することができる。
あるいは、またはさらに、本システムは、応答検出モジュール2によって検出された応答に基づいて、タスクの認知負荷を決定することができる。例えば、分析モジュール3は、音声応答の特徴に基づいて、タスクの認知負荷を決定することができる。該特徴は、被験者の生理的状態を判定するために使用されるもの(例えば、調子、強度、フォルマント周波数、声門流、発話時間、発話速度及び声質)と同じ特徴を含むことができる。ただし、これらは、それぞれの場合において、異なる方法でパラメータが設定されてもよい。
この特徴に関する研究では、21歳から78歳までの60人の参加者が作業記憶の自動口頭テストを完了した。作業記憶スパンの範囲は3〜8である。応答がその参加者の最大スパンの0.6を超える場合、応答は「高負荷」として分類された。各応答から抽出された音声特徴は、参加者ごとに正規化され、さまざまな負荷の試行間の音声特徴における被験者内での違いが表される。データはトレーニング(70%)およびテスト(30%)のデータセットに分割され、認知負荷状態を予測するサポートベクター分類器(SVC)を使用して分析された。さまざまな環境、録音条件及び背景ノイズでの録音から、声の特徴のみに基づいて認知負荷の高低を区別した場合、テストデータの分類精度は88%であった。
本システムは、オプションで、被験者に例えば、「正しい」、「正しくない」等の音声応答や音声トーンとしてフィードバックを提供することができる。タスク配信モジュール1の内部ロジックは、ユーザの現在の精神状態の変化を引き起こして音声信号の変化を引き起こすために、(偽陽性またはネガティブフィードバックを提供することにより)フィードバックを操作することができる。
したがって、情報応答検出モジュール2は、次回のタスクに関連する情報セットを伝達する前に、現在のタスクの前記スコアに基づく情報を、被験者に伝達してもよい。
図2は、応答検出モジュール2が応答を聴取するフロントエンドシステムの例を示す。応答が検出されない場合、口頭でのプロンプト及び/または別のタスクが伝達され得る。応答が検出された場合、音声データはメモリに保存され、音声認識モジュール20に渡されてスコアが付けられ、同時にバックエンドAIモジュールに渡される。その後、該スコアが応答に関連付けられて保存される。該スコアが異常値であると判定された場合(たとえば、応答が検出されたが、それがタスクに関係しない場合)、ユーザーが再度応答するために、口頭でのプロンプトが伝達され得る。
図3は、フロントエンドシステムの例を示す。このフロントエンドシステムでは、タスク配信モジュール1によって通信されるタスクの認知負荷が、音声認識モジュール20の出力に基づいて変調される。
本発明では、以下の認知タスクの例を使用することができるが、これは完全なリストではない。いくつかのタイプのタスクは、段階的/パラメトリックな方法で認知負荷を変更する試行を使用して設計される。これにより、認知パフォーマンス及びこれと関連する音声特徴に関して、条件間の比較(すなわち、デルタスコア)を行うことができる。その他のテストは、タスクによって引き起こされるさまざまな精神的状態および身体的状態の下での音声特徴抽出を最大化または最適化するように、特別に設計されている。
1)口頭での数字のスパン−順方向
参加者は、一連の数字を聞いてから繰り返すように指示される。認知負荷は、各試行のシーケンス内の桁数を操作することにより、条件間で変更される。例えば、試行1(低い認知負荷)は、短い数字のシーケンス(例えば、“7…1…3…4”)、試行2(高い認知負荷)は長い数字のシーケンス(例えば、“9…6…5…8…7…1…3…4”)である。どちらの条件でも、短期記憶で一連の数字を覚える必要がある。ただし、短期の聴覚記憶の負荷において、2つの条件が対比される。
2)口頭での数字のスパン−逆方向
口頭での数字のスパン(順方向)のタスクに類似している。参加者は一連の数字を聞くように指示される。ただし、このタスクでは、参加者は数字を逆の順序で繰り返すように指示される。例えば、参加者が“4…3…1…7”を聞いたとき、正しい応答は“7314”である。シーケンスの桁数を増やすことにより、認知負荷を再び増やすことができる。
短期の聴覚記憶の管理に加えて、数字のスパン(逆方向)では、作業記憶を使用して桁を操作する必要がある。したがって、数字のスパンのパフォーマンス(順方向)と数字のスパンのパフォーマンス(逆方向)を比較することで、作業記憶の負荷の指標が導き出される。
3)口頭でのペア連想学習(口頭PAL)
参加者は、単語のペアを聞くように指示され、ペアの1つを伝え、2番目の単語で応答するように求められる。認知負荷は、ペア間の意味的類似性のレベルによって操作される。認知負荷が低い(意味的類似性が高い)例は「草−緑」であり、認知負荷が高い(意味的類似性が低い)例は「草−大音量」である。認知負荷試験の間の対比により、連想学習能力が反映される。
4)非単語における、口頭でのペア連想学習(非単語PAL)
このタスクは、口頭PALの変形であり、単語が非単語とペアになっている。これらは、現実の世界として発音できる単語だが、意味論的な関連/意味はなく、例えば、「narav」である。参加者はペアを記憶するための意味論的手順に依存できず、より強力な連想学習能力が要求されるため、このタスクは口頭PALよりも困難である。
5)口頭でのリスト学習
このタスクでは、参加者は単語のリストを聞いて、リストにある項目をできるだけ多く思い出すように指示される。このタスクで重要な指標は、メモリパフォーマンスを反映している正しい応答の数と、息つぎ、呼吸、吃音、繋ぎ言葉(「ehm」、「err」、「pff」)などの音声特徴である。
6)文の繰り返し
参加者は文を聞くように指示され、この文をまったく同じ言葉で繰り返すように求められる。各文に含まれる単語数を増やしたり、文構造の構文の複雑さを変更したりすることで、認知負荷を操作することができる。例えば、「猫がテーブルに座っている」という文を処理して覚えること(認知負荷が低い)は、「壊れたペンの前にあるボールが転がっている」という文を処理して覚えること(認知負荷が高い)よりも簡易である。
7)口頭での流暢さ−意味論的カテゴリー
参加者は、意味論的カテゴリーに適合する単語の名前を、できるだけ多く言うように指示される。例えば、カテゴリーが「動物」の場合、応答には「猫、犬、カエル、象、サイ、鳥」などが含まれる。このタスクで重要な指標は、口頭の流暢さを反映する応答の総数と正しい応答の数、及び息つぎ、呼吸、吃音、繋ぎ言葉などの音声特徴である。
8)口頭での流暢さ−音韻
このタスクは、口頭での流暢さ(意味論的カテゴリー)の変形である。このタスクでは、参加者は、特定の文字または音で始まる単語の名前をできるだけ多く言うように指示される。例えば、「t」で始まる単語には、「task、test、timid、thin、tree、tame」が含まれる。“/f/”の音で始まる単語には、「fish、phone、fire、fist、pharaoh」などがある。このタスクで重要な指標は、言葉の流暢さを反映する応答の総数と正しい応答の数、及び息つぎ、呼吸、吃音、繋ぎ言葉などの音声特徴である。
9)類似点
参加者は、一対の単語を提示され、その一対の単語がどのように似ているかまたは類似しているかを説明するよう求められる。認知負荷は、単語間の関係における抽象概念を操作することによって変化させることができる。例えば、「“緑”と“青”はどのように似ているか?」という問いは、「両方とも色である」という応答を促している(認知負荷が低い)。対照的に、「“戦争”と“平和”はどのように似ているか?」という問いは、「それらは国の政治的状態である」のような答えを要求している(高い認知的負荷)。なお、この試行において、「それらは反対の関係である」という解答は正解ではない。これは、2つの単語がどのように似ているのかを問われているのであって、どのように違うのかを問われているわけではないためである。条件間の対比により、口頭での推論能力が反映される。
10)口頭による感情認識
このタスクでは、参加者は、(タスクの開発中にクラウドソーシングを介して実質的に取得される)感情的なラベルが付いた、短いオーディオクリップ(音色、音楽、スピーチなど)を提示される。提示された刺激に対応すると思われる感情的なカテゴリ(たとえば、幸せ、悲しい、怒り、驚き、恐れ、嫌悪感)を選択するように求められる。このタスクでの重要な指標には、正しい応答の数及び中立的感情の分類における偏りが含まれる。
11)持続的な発声
参加者は、一定時間安定した音を出すように指示される。例えば、「aaaa」と2秒間言う。持続的な音を生成して維持する能力によって、神経質や揺らめき(shimmer)などのように、音声品質に特徴付けを行うことができる。このタスクから抽出された音声特徴は、さまざまな精神的条件および身体的条件(疲労、ストレス、痛み、落ち着いた状態、幸せ、悲しみなど)によって変化することが予想される。
12)反復拮抗運動タスク(pa-ta-ka)
このタスクでは、参加者は、音節または音節の組み合わせを、一定時間すばやく繰り返す、例えば、音節「パパパ」を2秒間すばやく繰り返す(認知負荷が低い)、または「パタカ」を2秒間すばやく繰り返す(認知負荷が高い)ように指示される。このタスクは、口腔運動能力を評価し、構音障害などの言語障害に対する感度が高い。
13)ペース型聴覚連続追加タスク(PASAT)
1つの数字が3秒ごとに表示され、参加者は新しい数字をその直前の数字に追加するように指示される。認知負荷は、数字間の時間間隔(刺激間間隔−ISI)を変更することによって操作できる。例えば、ISIが短いとタスクの難易度が高くなり、認知負荷が高くなる。条件間の対比により、持続的な注意、聴覚情報処理の速度と柔軟性が反映される。
14)連続減算
参加者は、特定の数を減算することにより、100からカウントダウンするように指示される。認知負荷は、この減算される特定の数を変更することによって操作できる。例えば、1または2の間隔で100からカウントダウンする(認知負荷が低い)ことは、7または9の間隔で100からカウントダウンする(認知負荷が高い)よりも簡単である。
15)熟知したシーケンス
このタスクでは、参加者は、熟知したシーケンスを記憶からすばやく思い出すように指示される。例えば、「月曜日から始めて、できるだけ早く週の曜日の名前を言え」、「1から20までをできるだけ早くカウントせよ」などである。認知負荷を操作するには、参加者に、熟知したシーケンスを逆の順序で思い出すように指示する。例えば、「20から1までをできるだけ早く遡ってカウントせよ」、「日曜日から始めて、できるだけ早く週の曜日の名前を、遡って言え」などである。条件間の対比により、処理速度と作業記憶能力の難易度が反映される。
16)口頭でのアンケートの管理
標準化されたアンケートは、本発明の音声プラットフォームでの使用のために適合される。本技術分野における既存のアンケートのほとんどは、(コンピュータのボタンで回答するか、ペンと紙を使用するか、のいずれかで)参加者が自由回答式の質問と評価スケールを手動で完了することを前提としている。この方法は、時間を必要とし、ユーザーによって退屈であることがわかり、例えば視覚障害のある患者や学習障害を持つ人々の使用には必ずしも適切ではない。本発明は、臨床的有効性および信頼性を維持しながら、ユーザー体験を改善するために会話方法およびAIを使用して、そのようなアンケートを音声プラットフォームに適合させることにより、既存の技術を改善することを目的とする。標準化されたアンケートからの自由回答式の質問は、音声特徴が抽出されるリッチな音声データを禁じている。
したがって、タスク配信モジュール1によって配信される認知タスクは、口頭での数字スパン(順方向)、口頭での数字スパン(逆方向)、口頭でのペア連想学習、非単語における口頭でのペア連想学習、口頭でのリスト学習、文の繰り返し、口頭での流暢さ(意味論的カテゴリー)、口頭での流暢さ(音韻)、類似性認識、口頭による感情認識、持続的な発声、反復拮抗運動、ペース型聴覚連続追加、連続減算、熟知したシーケンス、および口頭でのアンケートが含まれ得る。
分析モジュール3は、被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、応答検出モジュール2によって記録された各音声応答に対応する音声信号を分析して、各音声応答からの前記特徴を比較し、この比較に基づいて被験者の生理的状態を判定する。必要に応じて、分析モジュール3は、応答検出モジュール2によって判定されたスコアにも基づいて、被験者の生理的状態を判定してもよい。
分析モジュール3は、被験者の認知的状態及び感情的状態ならびに、この状態の変化の関連信号を抽出することができる。これらの信号には、状態信号をタスクフローにマッピングできるようにするための時間インデックスが付けられ、タスクと生理的状態の間の因果関係が推測される。あるいは、この信号は、被験者の全音声応答の集合的な特徴であってもよい。
応答に対応する音声データは、3つの一般的なタイプの特徴である、1)パラ言語的特徴、2)調子に関連する韻律的特徴、3)音声品質の特徴に関して分析することができる。これらの信号は、本技術分野で確立された方法(メル周波数ケプストラム係数(MFCC)分析、知覚線形予測(PLP)及び線形予測コーディング(LPC)(Huang、Acero及びHon、2001)など)を使用して抽出される。より具体的には、以下の特徴及びopenSMILEなどのオープンソースソフトウェアで利用可能なその他の特徴が、分析モジュール3によって抽出、正規化及び使用される。
・ 調子は、周波数の変化に対する心理的な認識である。例えば、周波数の増加は調子の増加として認識される。複雑な音色(音声)の調子は、基本周波数(f0)に対応する。調子はまた、発声中の声帯の振動周波数を反映する。例えば、質問では調子が上がるが、声明や宣言では調子が下がる。音声信号のさまざまな特徴に対応する調子のさまざまな統計も測定される。
・基本周波数(f0)
・f0平均、SD、範囲、中央値
・f0勾配(上昇、下降、フラットなど)
・ 強度は音圧であり、音響信号の物理的特徴である。音によって運ばれるエネルギーの指標であり、これが音量知覚につながる。抽出される強度に関連する統計は次のとおりである。
・平均、SD
・勾配
・曲率
・ フォルマント周波数は、線形予測コーディング(LPC)の測定を通じて判定される。これらは声道の形状を特徴づけ、順番は調音器官の位置(舌、唇、顎、べラム/軟口蓋)によって決定される。
・ 声門流は、声門を流れる体積速度であり、したがって、有声音声の励起源である。声門流を唇の放射モデル(周波数領域のハイパスフィルター)と組み合わせて、声門流の導関数を作成することができる。声質の変化は声門の流れに反映される。
・ 発話継続時間は、秒単位の長さとして測定される。これは、完全な発話、文、単語、または音節に適用できる(多くの場合、強調された音節と強調されていない音節を区別する)。
・ 発話速度:
・1秒あたりの単語
・1秒あたりの音節
・息継ぎの数
・息継ぎの長さ
・ 音声品質は、音声を生成する声帯ひだの振動の不完全な制御に起因するさまざまな特徴をカバーしている。知覚される効果は、しわがれ声、息切れ、きしみ感などをもたらす。
・神経質(調子の不規則性)
・揺らめき(強度の不規則性)
・調波対雑音比(HNR)
・ケプストラム分析(周波数信号の変化の頻度)
したがって、分析モジュール3によって判定された生理的状態を示す特徴には、調子、強度、フォルマント周波数、声門流、発話継続時間、発話速度及び音声品質が含まれる。これらの特徴の1つ以上に関連する値が判定されてもよい。分析モジュール3は、前記特徴(例えば、その値)を比較し、音声応答間の前記特徴のいずれか1つの変化を特定してもよい。
図4に示すように、音声データは、音声解析モジュール31に供給され得る。このモジュールには、フルオーディオ内における特定の継続時間または特徴(例:完全な発話(full utterance)、文、単語、音節)を有する部分を検出し、これらにラベルを付けるか、これらをセグメント化するアルゴリズムが組み込まれている。さらに、音声信号は、認知負荷と、精神的または身体的状態と、を示すメタデータでラベル付けされる。
したがって、分析モジュール3は、音声特徴に対応する応答部分を検出し、検出された部分をラベル付け及び/またはセグメント化する、音声解析モジュール31を備えてもよい。前記音声特徴は、完全な発話、文、単語および音節を含む。
図4に示すように、音声解析モジュール31は、これらのセグメントを、音響特徴を抽出する特徴セレクタ32に供給することができる。これらの特徴は、フレーム単位で、および完全な発話レベルで抽出及び分析される。したがって、ローカル(フレーム単位の、または、その他の定義された、フルオーディオのサブサンプル)特徴と、グローバル(全発話から得られる)特徴と、の両方が得られる。これらの特徴の分析には、低認知負荷試験と比較した高認知負荷試験から得られた特徴のデルタ値を計算することが含まれる。
任意選択で、図4に示すように、特徴セレクタ32によって抽出された特徴は、特徴削減モジュール33を通過し得る。実行される認知タスクの性質、及び音声特徴を抽出する方法に応じて、特徴の特定の組み合わせにより、他の特徴よりも正確な結果が得られる場合がある。例えば、数字のリストを順番に思い出すことを人に要求する記憶タスクは、別々の短い発話を生成するが、自由音声タスクは、長い連続音声ストリームを生成する。1番目のタスクにおいて重要な特徴は、発話された別々の単語の低レベルの音響特徴に関連し得るのに対して、2番目のタスクにおいて重要な特徴には、発話速度、息継ぎ回数、呼吸、吃音などのパラ言語学的特徴が含まれ得る。さらに、音声信号のフレームごとの分析は、2番目のタスクと比較して、1番目のタスクではあまり有益ではない。したがって、導出されたすべての特徴に基づいて音声を分類するのではなく、特徴のサブセットを利用することが望ましい場合がある。AIバックエンドに提供される特徴の総数を減らすと、分類および予測プロセスの速度も向上する。
したがって、分析モジュール3は、音声解析モジュール31によって検出された音声特徴のサブセットに基づいて、生理的状態を示す特徴を判定してもよい。前記特徴のサブセットは、伝達された情報と関連するタスクに基づいて選択される。代替的または追加的に、分析モジュール3は、1つまたは複数の特徴のサブセットに基づいて、被験者の生理的状態を判定してもよい。前記サブセットは、伝達された情報と関連するタスクに基づいて選択される。あるいは、分析モジュール3は、被験者の応答の完全な生音声データに基づいて、被験者の生理的状態を判定してもよい。
なお、音声解析、特徴セレクタ、オプションの特徴削減プロセスは、個別の構成要素として説明されているが、実際には、これらの構成要素は同一の物理システム(サーバー、クラウドなど)で実装および実行できる。
次に、分析モジュール3は、システムによって出力された認知スコア及び/または臨床スコア、人口統計学的特徴及びその他の外的に既知の情報(たとえば、診断結果、生体データ、脳画像データ)、記録に使用されるデバイスの技術的な入力特徴、及び生の音声信号または特徴セレクタ出力(つまり、分析された音声特徴)を組み合わせることができる。これは、デバイスまたはクラウドにおいて、リアルタイムまたはそれ以降に発生する可能性がある。
抽出された特徴のタイプ、ならびに抽出されて保持された特徴の数に応じて、AI分類器34を使用することができる。異なるAI分類器34を使用することができ、例えば、ガウシアン分類器、最近接分類器、ニューラルネットワークやスパース部分最小二乗モデルを、異なる特徴セットに使用することができる。あるいは、特定のAIモデルが望ましい場合は、これにより、特徴セレクタと特徴削減プロセスが導かれる。
次に、アルゴリズムの出力は、オプションで、基準または以前のスコアと比較される。
したがって、分析モジュール3は、記憶された以前のスコアにも基づいて、被験者の生理的状態を判定する。あるいはまたはさらに、被験者の判定された生理的状態は、所定のベースラインと比較され得る。
分析モジュール3は、オプションで、その判定をレポートとして出力することができる。本発明の出力は、以下のいずれかまたはすべてを報告し得る。
− その特定の時点における参加者の生理的状態。例えば、慢性疼痛の場合、参加者の抱える痛みが、軽度、中程度、または重度のいずれであるか。
− 分析モジュール3が、スコア及び特徴を基準と比較した場合における、参加者の疾患リスク。
− 分析モジュール3が、スコア及び特徴を、同一参加者の以前のスコア及び特徴と比較した場合における、生理的状態または疾患の変化(つまり、病気の進行)。
− 分析モジュール3が外部の既知の条件にわたってスコア及び特徴を比較した場合における、薬物/デバイス/介入治療の影響。
年齢、性別に関連する変動を除外し、エネルギー、強度、調子、フォルマント、声門流、音声の継続時間と速度、音声品質、スペクトル形状記述子などの低レベルの特徴を抽出するために、正規化方法を使用して音声データを前処理してもよい。標準の教師あり機械学習技術を使用して、低レベルの特徴から目標の認知的状態または感情状態を認識するように、システムをトレーニングしてもよい。このアプローチを使用するシステムの例は、openSMILE Audio Feature Extraction(the Munich Open Space Speech and Music Interpretation by Large Space Extraction toolkit)(Eyben et al. 2013)である。
あるいは、各被験者の応答からの生音声データを、前処理なしでディープラーニングシステムに供給してもよい。このアプローチを使用するシステムの例は、Deep Mind社のWaveNetである。これは、生の音声波形の深層生成モデルである。ディープラーニングは、通常、複数の抽象化レベルでデータの表現を学習するために、複数の処理層で構成される計算モデルを提供する。ディープラーニングは通常、バックプロパゲーションアルゴリズムを使用することで、大規模なデータセット(音声データを含む)の複雑な構造を決定する。バックプロパゲーションアルゴリズムは、マシンがその内部パラメーターをどのように変更するか、を示すが、該内部パラメーターは、前段の層での表現に基づいて各層でのデータの表現を計算するために用いられる。
あるいは、生の音声データをニューラルネットワークに供給してもよい。このアプローチの1つの例は、深層畳み込みニューラルネットワーク(deep convolution neural network)に供給される、生の振幅スペクトログラム特徴(raw magnitude spectrogram features)を使用することである。別のアプローチは、生の音声波形を、ディープネットワークに供給することである。この場合、特徴抽出ステップは必要ないことがある。
使用される機械学習アプローチに関係なく、トレーニングデータを取得するために使用される方法は重要である。トレーニングデータは、一組の音声サンプル及び対応する生理的状態ラベルを含み得る。
一例では、トレーニングデータは、トレーニングデータの品質を最適化する、特別に調整されたフロントエンドシステムを使用し、参加者をテストすることによって、取得されてもよい。最適化には、テストセッションの長さの増加と、タスクパラメータのダイナミックレンジと、被験者に提供されるフィードバックの操作と、年齢、性別、教育、職業、生理的状態及び/または症状の状態によって特徴付けられる母集団のサブサンプルとして最適化されたテスト用の組の特定の選択と、が含まれる場合がある。
生理的状態のラベルは、以下のいずれかまたはすべての組み合わせによって取得し得る。
− フロントエンドタスクの難易度のタイトレーションによる、生理的状態の誘導
− 痛みの原因、注意散漫因子(例:ノイズ)の増加、認知負荷を増加させるための複数タスクの実行(例:姿勢/バランスのタスク)、及び参加者に提示されるフィードバックの操作などの、外的手段を介した生理的状態の誘導
− 参加者のタスクパフォーマンスに基づく生理的状態の推定
− 顔の感情認識、皮膚のコンダクタンス、ストレスのプロキシとして知られている心拍数などの、生理測定を介した生理的状態の推定
− 脳回路活動の脳画像データ(例:EEG、MRI)による生理的状態の測定
− 患者の自己報告に基づく生理的状態の判定
− 臨床医の評価または診断に基づく生理的状態の判定
− 医療記録、標準化されたアンケートおよび患者の自己報告に基づく、生理的状態の判定
別の例では、トレーニングデータは、さまざまな認知負荷の認知タスクを実行している健康な個人の既存の音声コーパスと、既知の病状を持つ患者からの音声サンプルの音声コーパスと、をデータマイニングすることによって取得できる。これらの患者の音声サンプルは、パブリックドメイン(YouTube(登録商標)など)内で見つかるか、学術機関や、Researchや患者支援慈善団体(Patient Support Charities)などの非営利組織とのコラボレーションを通じて、取得され得る。これらのデータセットの生理的状態ラベルは、以下のいずれかまたはすべての組み合わせを通じて取得され得る。
− 各個人内のデルタ特徴の計算
− データベースの所有者がデータ収集中に判定した既知のラベル
− クラウドソーシングプラットフォームを介した、データサンプルのラベル付け
図5に示すように、バックエンドAIシステムをトレーニングするために、AIシステムは外部リソース、つまりフロントエンドモジュールで生成されないデータから、入力を受け取る。そのような外部データの例には、さまざまな認知負荷の認知タスクを実行している健康な個人の既存の音声コーパスに基づく音声サンプル、または、既知の病状を持つ患者からの音声サンプルの音声コーパスが含まれるが、これらに限定されない。
トレーニングデータセットは、事前に定義された重要度クラスに従って、ラベル付けされる。例えば、慢性疼痛の場合、これらのラベルは「軽度」、「中程度」、「重度」となる。それらはまた、認知的または感情的な負荷を特徴付ける追加のラベル(例えば、「低」または「高」)を有してもよい。
トレーニングデータセットの種類に応じて、次のトレーニング方法のいずれかまたは両方を使用して、AI分類システムを微調整できる。
一例では、データセットが同一個人内に複数のデータポイントを含む場合(被験者内の反復測定パラダイム(repeated measures paradigm))、デジタルプラットフォーム(コンピュータ、クラウド、サーバー)が音声サンプルを受信し、音声信号処理が発生するが、これには、同一人物内の異なる状態/ラベル(例えば、異なる気分、異なる認知負荷、投薬状態など)の下で音声信号を抽出することが含まれる。その後、AIアルゴリズムは、人口統計学的特徴と、その他の外的な既知の情報(記録に使用されるデバイスの技術入力特徴など)と、を組み合わせる。
別の例では、データセットがさまざまな人々の1つまたは複数のデータポイントを含む場合、その一部は既知の医学的診断結果(被験者間のパラダイム)を有する可能性があり、デジタルプラットフォーム(コンピュータ、クラウド、サーバー)が音声サンプルを受信し、音声信号処理が発生するが、これには、すべての参加者において似通ったさまざまな条件(例えば、気分、認知的状態)と、参加者グループ共同体において似通ったさまざまな条件(例えば、患者または制御)と、の下で音声信号を抽出することが含まれる。その後、AIアルゴリズムは、人口統計学的特徴と、その他の外的な既知の情報(記録に使用されるデバイスの技術入力特徴など)と、を組み合わせる。
本発明は、被験者における神経障害または神経精神障害の症状を含む生理的状態を分類するシステムおよび方法を、提供することができる。分類される生理的状態は、好ましくは、限定されないが、疼痛、ストレス、不安または落ち着いた状態を含む、被験者からの主観的手段を通じて一般に得られるものである。
したがって、分析モジュールによって判定された生理的状態は、痛み、めまい、ストレス、不安、警戒、疲労または落ち着いた状態のうちの1つまたは複数に関連し得る。例えば、生理的状態は、被験者が経験する痛みのレベル、被験者の警戒、疲労または落ち着いた状態のレベル、被験者が経験する不安またはストレスのレベルであり得る。
あるいは、またはさらに、分析モジュールによって判定される生理的状態は、神経障害または神経精神障害に関連し得る。例えば、生理的状態は、被験者が特定の神経障害または神経精神障害に罹患している可能性を示し得る。
本明細書で言及される神経的または神経精神的な疾患、障害または状態の非限定的な例には、脳癌、認知症、軽度認知機能障害、てんかん、アルツハイマー病、パーキンソン病、多発性硬化症、鬱病、統合失調症、ADHD、PTSD、双極性障害、チック障害(トゥレット症候群を含む)、OCD、不安障害(恐怖症および社会不安障害を含む)、自閉症スペクトラム障害、中毒、摂食障害、神経障害、失語症が含まれる。
しかしながら、当業者は、神経疾患および/または神経障害という用語が、1000を超える医学的に認められた状態を包含し、さらに、神経状態と神経精神状態との間の境界が重複し得ることを理解するであろう。世界保健機関の、疾病及び関連保健問題の国際統計分類第10版(ICD−10)−WHO版(2016年)の、第V章(精神および行動障害)及び第VI章(神経系の病状)は、それぞれ神経精神障害(第V章)及び神経障害(第VI章)のリストを提供する。
本明細書で使用されるように、疼痛は、神経的、神経精神的またはその他にかかわらず、他の根本的な状態の症状であるか、または慢性疼痛状態であり得る。慢性的な痛みの状態は、関節炎、線維筋痛症、背部痛(腰痛)、片頭痛、その他の筋骨格の問題、糖尿病、神経障害、クローン病、慢性疲労症候群、過敏性腸症候群、癌などの、既知または疑われる原因によるものである可能性がある。本発明の出力は、リスクスコアまたはレポートの形式をとることができる。
次に、本発明のいくつかの実施形態を説明して、上記のシステムおよび方法の例示的な使用法を示す。これらの実施例は、実施可能な用途の範囲を示すことを意図しており、本発明の実施可能な用途を限定するものと決して見なされるべきではない。以下の例に示す用途は、特定のユーザーの特定のニーズや神経状態に合わせて変更できる。
例1−電話、モバイルまたはWebを介したリモート監視
本発明の一実施形態では、本発明は、神経状態または神経精神状態である患者を監視するために使用される遠隔システムに組み込まれる。これは、医療チェックインポスト(medical check-in post)から遠く離れた場所に住んでいる患者、治療の待機リストに載っている患者、頻繁な対面評価を必要としない患者、または対面評価のために身体的または精神的に移動できない患者にとって、有益である。例えば、うつ病や識字率の低い患者は、診療予約を頻繁に欠席する(Miller-Matero et al., 2016)。予約前の電話、電子メール、Webベースの電子カルテなどのリマインダーシステムにより、診療予約、診断、治療の遵守を効果的に高めることがわかっている(例:Liu et al., 2014; Gurol-Urganci et al., 2013)。
患者は、モバイルデバイスで電話、電子メールまたは通知を定期的な間隔で受信するが、これらは、医療記録に基づいて決定または事前設定された、または患者の治療チームによって要求されたものである。モバイルデバイス上の通話、電子メール、および通知は、すべて、クラウドベースのサーバーでホストされる本発明の実施形態にリンクする。フロントエンドモジュールは、認知テストのセットを患者に提示する。該認知テストのセットは特に、時間の制約を最小限に抑え、臨床的に有益な音声特徴を最大化するように選択することができる。患者の応答は、音声モジュール(解析、特徴抽出、特徴の正規化)とAIバックエンドを介して、記録及び処理される。その後、AIは、監視の完了を認識するようフィードバックを患者に出力し、次のセッションを患者に通知し、パフォーマンスに関する追加のフィードバックを提供する。AIは、指定された臨床チームに同時に出力するか、AIの計算に基づいて、パフォーマンス、生理的状態及び疾患のスコアの概要を医療記録に記録する。
この好ましい実施形態によれば、疾患の進行の監視を大幅に改善することができる。また、日常のモニタリングテストの実施に費やす臨床医の時間を削減し、介入治療を提供するための時間を解放することができる。さらに、薬物療法/病院の約束をより遵守させることができる。さらに、患者中心の医療モデルを提供することができる。従来技術に対する本発明の付加価値は、フロントエンドタスク配信モジュールにおいて認知負荷を能動的に調整することにより、患者が自身の症状または疾患のレポートを操作せずに済むことである。
例2−繰り返し処方システム
本発明の別の好ましい実施形態では、電話またはウェブベースのシステムは、本発明を組み込み、患者が繰り返し処方に適格であるかどうかを判定するために使用される。例えば、慢性的な痛みのある患者は、オピオイド薬を必要とすることが多いが、オピオイド薬の一般的な副作用は、身体的依存と依存症である。このような場合は、処方と痛みの症状を注意深く監視する必要がある。現在、先行技術には痛みの客観的な測定値はなく、繰り返し処方の評価は、患者の痛みの自己報告に基づいている。そのような主観的な自己報告は、依存症を維持するために誇張される可能性がある。
患者が電話またはインターネットを介して(例: 電子カルテを通じて)繰り返し処方を要求したとき、フロントエンドモジュールは、患者に、特に痛みに対する感度を高くするように選択された、認知テストのセットを提示する。タスクの認知負荷が変化することにより、タスクを正常に行うために必要な精神的労力と関与が増加するため、システムは、患者が痛みの音声信号を偽ることを不可能にしにくくする。患者の応答は、音声モジュール(解析、特徴抽出、特徴の正規化)及びAIバックエンドを介して記録および処理される。その後、AIは、評価の完了を知らせるフィードバックを患者に出力する。AIは同時に、薬剤師及び/または指定された臨床チームへの出力を生成し、及び/またはその患者の疼痛スコアを医療記録に記録する。臨床チームが、繰り返し処方について最終的な判定を行う。
例3−入院治療からの術後退院
さらに好ましい実施形態では、本発明は、患者が手術後に病院から退院する準備ができたときを判定するための、入院ベッド脇のツールとして役立ち得る。例えば、患者は手術後できるだけ早く帰宅したいが、落ち着いた状態、めまい、痛みなどの症状があって帰宅する準備ができておらず、退院するために故意に症状を隠す可能性がある。あるいは、患者に退院したくないシナリオがあり、故意に症状を誇張する可能性がある。
本発明は、スマートフォン、Amazon Echo(登録商標)またはGoogle Home(登録商標)などの、患者のベッド脇のテーブル上の小さなデバイスを介して提供され得る。患者は、手術前と手術後のいくつかの時間間隔で検査される。フロントエンドタスクプレゼンテーションモジュールは、落ち着いた状態、めまい、痛みの影響に対する感度が特に優れている認知テストのセットを、提示する。該テストでは、患者がタスクを正常に実行できる閾値に到達するように、認知負荷が変化する。患者の応答は、音声モジュール(解析、特徴抽出、特徴の正規化)及びAIバックエンドを介して記録および処理される。AIはその後、評価の完了と、患者が退院の準備に至っているかどうかと、を知らせるフィードバックを患者に出力する。AIは同時に、指定された臨床チームに、患者の閾値と他者の閾値及びその患者の手術前の閾値との比較の方法を含む、パフォーマンスの概要を出力する。
したがって、分析モジュール3は、被験者が病状の治療後に退院するのに適しているかどうかを判定する。
例4−介入治療の効果の監視
本発明の別の実施形態は、非薬物ベースの介入治療(理学療法、心理療法、またはデジタル健康アプリなど)の有効性の客観的評価として、本発明に記載のシステムが組み込まれる。現在、これらのタイプの介入治療の有効性は、痛み、気分及び生活の質の主観的な自己報告手段を使用して評価されている。このような手段は、動機付け、セラピストに対する個人的な影響、プラセボ効果などの、個人固有の特徴に対する感度が高い。本発明は、介入治療前後(及びその間の設定点)における、参加者のパフォーマンスおよび音声特徴を比較することにより、介入治療の有効性を測定する客観的な方法を提供する。
フロントエンドタスク配信モジュールは、痛みの影響に対する感度が特に高い、認知テストのセットを提示する。テストでは、認知負荷が異なるため、タスクを正常に完了するために必要な精神的な努力が必要となる。この方法は、痛みと精神的努力に関連する音声特徴を最大化する。患者の応答は、音声モジュール(解析、特徴抽出、特徴の正規化)及びAIバックエンドを介して記録及び処理される。AIは、評価の完了と、患者が退院の準備に至っているかどうかと、を知らせるフィードバックを患者に出力する。AIは同時に、患者の閾値を以前のセッションと比較する方法を含めて、パフォーマンスの概要をセラピストに出力する。セラピストは、この情報が、彼らの介入治療の計画をより個人化にするのに役立つものであると理解し得る。
例5−安全制御
本発明のさらに好ましい実施形態では、システムは、航空交通管制、パイロット、外科医、重機オペレーターなどの、特に危険度の高い職業に従事している個人に関して用いられる安全制御システムとして、または、車、路面電車、電車などの、操作にある程度の警戒を必要とするデバイスと車両に関して用いられる安全制御システムとして、使用される。
危険度の高い手順や頑丈な機械を操作する前に、警戒心や落ち着いた状態の変化に高感度で反応するように特に選択された、短い認知タスクのセットを行うよう促される。これらのタスクは、ある人がタスクを正常に実行できる閾値に到達するまで、認知負荷を変化させて提示する。個人の応答は、音声モジュール(解析、特徴抽出、特徴の正規化)及びAIバックエンドを介して記録および処理される。その後、AIは、認知パフォーマンスデルタに関連する、その人の認知的閾値及び音声特徴と、危険度の高い手順または職業を実行するために許容できると考えられる所定のしきい値と、を比較する計算を実行する。AIは、彼/彼女が続行するのに適していると考えられる場合、その人にフィードバックを行う。その人の閾値が所定の閾値を下回った場合、AIは同時に雇用者または監督者への出力を生成する。
したがって、分析モジュール3は、危険度が高い活動を実行するのに被験者が適しているかどうかを判定してもよく、該危険度の高い活動は、航空交通管制、航空機の操縦、手術の実施、重機の操作、車やトラムや電車の運転を含むグループから選択される。
例6−一般消費者向け用途
本発明について想定される別の実施形態は、本発明を個人中心の自己支援システムに組み込むことである。例えば、人は、認知的状態、疾患の進行または投薬を経時的に監視するために本発明を使用する携帯装置(スマートフォン、タブレット、電子時計、または電話)のアプリケーションを使用する。AIバックエンドの出力(リスクスコア、病状の変化、投薬効果など)は、ユーザー(自己監視目的)及びユーザーが指定した他の当事者の双方にフィードバックを送信する「アラート」または「フィードフォワード」システムにリンクするように、設定することができる。ユーザーが指定した他の当事者とは、彼らの臨床チーム、彼らの治療の責任者、または介入治療とアドバイスを提供する本技術分野の他の用途へのリンクである可能性を有する。例えば、ユーザーが認知機能に悪影響を及ぼす高レベルの痛みを経験していることを本発明が確立した場合、これは1)(治療計画の範囲内の場合)追加の薬の服用を検討するようユーザーに警告することができ、2)瞑想(meditation)、認知的対処などの自己管理計画に関するアドバイスを提供することができ、及び/または、3)(該当する場合には)これを、臨床治療チームの「痛みの日記」への時点エントリとして記録することができる。
さらに、本発明に組み込まれたAIは、スクリーニング質問票、人口統計データ及び/または先行タスクに対する応答に応じてユーザーに提示する後続タスクを選択することを「積極的に」学習するように、さらに開発され得る。例えば、スマートフォンのユーザーは、ヘルスアプリを介してフロントエンドモジュールを呼び出すことができる。次に、フロントエンドモジュールはユーザーに人口統計情報を要求する(またはこの情報をヘルスアプリのAPIから取得する)。この情報は記録され、AIによって解析される。AIは、ユーザーの情報を他のユーザーの人口統計のデータベースと比較して、特定の症状のリスクを計算する。次に、AIは、ユーザーにとっての危険性が高い病気の症状に対する感度が最も高い、タスクセットを選択する。これは、フロントエンドモジュールを通じてユーザーに提示される。ユーザーの応答は、音声モジュール(解析、特徴抽出、特徴の正規化)及びAIバックエンドを介して記録及び処理される。次に、AIは、認知パフォーマンスデルタに関連する、人の音声特徴を、以前のパフォーマンスと比較する計算を実行する。AIは、追加のアクション(投薬や自助計画など)を検討する必要があるかどうかをユーザーに警告する。AIは同時に指定された介護者に対する出力を生成する。
例7−治療の安全性または有効性の評価に使用する臨床試験
本発明のさらなる用途は、治療の安全性または有効性を評価するための臨床試験にある。 臨床試験は、治療の安全性や有効性を判断するための客観的なエンドポイントを中心に設計される。現在、認知機能の評価は、主観的な結果(たとえば、痛み、生活の質)、被験者の動機、またはトレーニング効果によって影響を受ける可能性がある。本発明を適用して、認知機能に対する治療の影響の客観的判定を改善することで、臨床試験における治療の毒性または有効性を評価することができる。本発明は、自己診断された症状(疼痛または不安症など)または認知機能(記憶能力または学習能力など)への影響に関する客観的エンドポイントを改善する手段を提供する。
好ましい実施形態では、本発明は、痛みの治療の有効性を判定するための臨床試験に適用される。
さらに好ましい実施形態では、本発明は、治療が患者の認知機能に関する有害反応をもたらすかどうかを判定するために適用される。臨床試験で評価される認知機能は、聴覚記憶、作業記憶、連想学習能力、口頭での流暢さ、口頭での推論、感情認識、口頭運動技能、処理速度、及び、患者のテストセッションから抽出された音声特徴に由来した認知機能のこれらの領域における関連する変化であってよい。
特定の実施形態では、音声サンプルは、電話システム(例えば、スマートフォン)内のマイクロフォンを使用して患者から収集される。これにより、クリニックの外にいる患者の監視が可能となる。
分析モジュール3は、被験者の生理的状態を、神経障害の特定の母集団データを含むベースラインと比較することができる。該障害は、痛み、脳癌、認知症、軽度認知障害、てんかん、アルツハイマー病、パーキンソン病、多発性硬化症、うつ病、統合失調症、ADHD、PTSD、双極性障害、チック障害(トゥレット症候群を含む)、OCD、不安障害(恐怖症および社会不安障害を含む)、自閉症スペクトラム障害、中毒、摂食障害、神経障害、失語症を含む障害グループから選択される。分析モジュール3は、痛み、脳癌、認知症、軽度認知障害、てんかん、アルツハイマー病、パーキンソン病、多発性硬化症、うつ病、統合失調症、ADHD、PTSD、双極性障害、チック障害(トゥレット症候群を含む)、OCD、不安障害(恐怖症および社会不安障害を含む)、自閉症スペクトラム障害、中毒、摂食障害、神経障害、失語症の治療の安全性または有効性を判定してもよい。
本発明は、臨床的介入治療の成功の尺度を提供することができる。上記のシステムを使用して被験者の生理的状態の第1の評価を行った後、臨床医は介入治療を行うことができる(例えば、薬物の投与量を変更するか、上述の理学療法または他の介入治療を提供する)。(介入治療に応じた)適切な期間の後、上記のシステムを使用して被験者の生理的状態の第2の評価を行う。したがって、本発明によれば、判定される生理的状態の変化が許容される。したがって、本発明は、臨床的介入治療の成功の尺度を提供することができる。
<参考文献>
Andersson, G. et al. (2002) ‘Effect of cognitive load on postural control’, Brain Research Bulletin. Elsevier, 58(1), pp. 135-139. doi: 10.1016/S0361-9230(02)00770-0.
Eyben, F., Weninger, F., Gross, F., & Schuller, B. (2013) Recent Developments in openSMILE, the Munich Open-Source Multimedia Feature Extractor, In Proc. ACM Multimedia (MM), Barcelona, Spain, ACM, ISBN 978-1-4503-2404-5, pp. 835-838. doi:10.1145/2502081.2502224
Fusaroli, R. et al. (2017) Is voice a marker for Autism spectrum disorder? A systematic review and meta-analysis, Autism Research, 10(3), pp. 384-407. doi: 10.1002/aur.1678.
Gurol-Urganci I, de Jongh T, Vodopivec-Jamsek V, Atun R, Car J.
Mobile phone messaging reminders for attendance at healthcare appointments.
Cochrane Database of Systematic Reviews 2013, Issue 12. Art. No.: CD007458.
DOI: 10.1002/14651858.CD007458.pub3
Huang, X., Acero, A. and Hon, H. (2001) Spoken Language Processing: A guide to theory, algorithm, and system development. Prentice Hall.
Johnstone T (2001) PhD Thesis. University of Western Australia. Accessed via http://brainimaging.waisman.wisc.edu/~tjohnstone/Thesis.pdf
Lautenbacher, S. et al. (2017) ‘Phonetic Characteristics of Vocalizations during Pain’, Pain Reports, 2(e597), pp. 1-5.
Marquard, C. et al. (2017) ‘Speak, Think , Act : A phonetic analysis of the combinatorial effects of respiratory mask , physical and cognitive stress on phonation and articulation’, MSc Thesis. Accessed via https://www.researchgate.net/publication/315892441_Speak_Think_Act_A_phonetic_analysis_of_the_combinatorial_effects_of_respiratory_mask_physical_and_cognitive_stress_on_phonation_and_articulation
Miller-Matero, LR, Clark, KB, Brescacin, C, Dubaybo, H & Willens, DE (2016) Depression and literacy are important factors for missed appointments, Psychology, Health & Medicine, 21:6, 686-695, DOI:10.1080/13548506.2015.1120329
Nevler, N. et al. (2017) ‘Automatic measurement of prosody in behavioral variant FTD’, pp. 1-8.
Oshrat, Y. (2014) The Fingerprints of Pain in Human Voice (Thesis, The Open University of Israel Computer Science Division)
Place et al (2017) Behavioral Indicators on a Mobile Sensing Platform Predict Clinically Validated Psychiatric Symptoms of Mood and Anxiety Disorders. J Med Internet Res. 19(3):e75 doi: 10.2196/jmir.6678
Tsai, F. S. et al. (2016) ‘Toward development and evaluation of pain level-rating scale for emergency triage based on vocal characteristics and facial expressions’, Proceedings of the Annual Conference of the International Speech Communication Association, INTERSPEECH, 8-12-NaN-2016, pp. 92-96. doi: 10.21437/Interspeech.2016-408.
Vogel, A. P., Fletcher, J. and Maruff, P. (2010) ‘Acoustic analysis of the effects of sustained wakefulness on speech’, The Journal of the Acoustical Society of America. Acoustical Society of America, 128(6), pp. 3747-3756. doi: 10.1121/1.3506349.
Zhang, H.-H. et al. (2016) ‘Classification of Parkinson’s disease utilizing multi-edit nearest-neighbor and ensemble learning algorithms with speech samples.’, Biomedical engineering online. BioMed Central, 15(1), p. 122. doi: 10.1186/s12938-016-0242-6.

Claims (36)

  1. 被験者の生理的状態を評価するためのシステムであって、
    少なくとも2つの情報セットを前記被験者に伝達するタスク配信モジュールと、
    マイクロフォンを備え、前記被験者からの各音声応答を音声信号として記録する応答検出モジュールと、
    分析モジュールと、を備え、
    前記各情報セットは、前記被験者からの音声応答を要求する認知のタスクに関するものであり、
    前記分析モジュールは、前記被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、前記応答検出モジュールによって記録された各音声応答に対応する音声信号を分析し、各音声応答からの前記特徴を比較し、前記比較に基づいて前記被験者の生理的状態を判定する
    ことを特徴とするシステム。
  2. 前記被験者の生理的状態が、前記被験者が経験する痛みのレベルを含むことを特徴とする、請求項1に記載のシステム。
  3. 前記被験者の生理的状態が、前記被験者の警戒、疲労または落ち着いた状態のレベルを含むことを特徴とする、請求項1または2に記載のシステム。
  4. 前記被験者の生理的状態が、前記被験者が経験するストレスまたは不安のレベルを含むことを特徴とする、請求項1ないし3のいずれか1つに記載のシステム。
  5. 前記被験者の生理的状態が、前記被験者が神経障害または神経精神障害に罹患している可能性を含むことを特徴とする、請求項1ないし4のいずれか1つに記載のシステム。
  6. 伝達される情報セットは、事前に格納された情報セットの異なるグループから選択され、前記事前に格納された情報セットは、各情報セットと関連する前記タスクに結び付いた認知負荷に基づいて、グループ化されていることを特徴とする、請求項1に記載のシステム。
  7. 伝達される情報セットは、事前に格納された情報セットの異なるグループから選択され、前記事前に格納された情報セットは、各情報セットと関連する前記タスクによって引き起こされる身体的または精神的状態に基づいて、グループ化されていることを特徴とする、請求項1ないし6のいずれか1つに記載のシステム。
  8. 前記応答検出モジュールは、各音声応答を分析する音声認識モジュールを備え、
    前記応答検出モジュールは、前記音声検出モジュールからの出力を事前に格納された予測応答と比較し、前記比較に基づいて各音声応答にスコアを割り当てることを特徴とする、請求項1ないし7のいずれか1つに記載のシステム。
  9. 前記分析モジュールは、前記スコアにも基づいて、前記被験者の生理的状態を判定することを特徴とする、請求項8に記載のシステム。
  10. 前記分析モジュールは、格納された以前のスコアにも基づいて、前記被験者の生理的状態を判定することを特徴とする、請求項9に記載のシステム。
  11. 前記タスク配信モジュールは、前回のタスクへの応答に関連するスコアに基づいて、次回のタスクに関連する情報セットを選択することを特徴とする、請求項8ないし10のいずれか1つに記載のシステム。
  12. 前回のタスクのスコアが所定の閾値スコアより低い場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷よりも低くなるように、次回のタスクが選択されることを特徴とする、請求項11に記載のシステム。
  13. 前回のタスクのスコアが所定の閾値スコアよりも高い場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷よりも高くなるように、次回のタスクが選択されることを特徴とする、請求項11または12に記載のシステム。
  14. 前回のタスクのスコアが異常値であると特定された場合、関連する認知負荷が前回のタスクに関連付けられた認知負荷と同じかまたは類似するように、次回のタスクが選択されることを特徴とする、請求項11ないし13のいずれか1つに記載のシステム。
  15. 前記応答検出モジュールは、次のタスクに関連する情報セットを伝達する前に、現在のタスクの前記スコアに基づいて、被験者の情報に伝達することを特徴とする、請求項8ないし14のいずれか1つに記載のシステム。
  16. 生理的状態を示す特徴は、調子、強度、フォルマント周波数、声門流、発話時間、発話速度及び声質を含むことを特徴とする、請求項1ないし15のいずれか1つに記載のシステム。
  17. 前記分析モジュールは、前記特徴を比較し、音声応答間の前記特徴のいずれか1つの変化を特定することを特徴とする、請求項16に記載のシステム。
  18. 前記分析モジュールは、1つまたは複数の前記特徴のサブセットに基づいて、前記被験者の生理的状態を判定し、前記サブセットは、伝達された情報と関連する前記タスクに基づいて選択されることを特徴とする、請求項16または17に記載のシステム。
  19. 前記分析モジュールは、音声特徴に対応する応答部分を検出して、この検出部分をラベル付け及び/またはセグメント化する、音声解析モジュールを備え、前記音声特徴は、完全な発話、文、単語および音節を含むことを特徴とする、請求項1ないし18のいずれか1つに記載のシステム。
  20. 前記分析モジュールは、前記音声解析モジュールによって検出された前記音声特徴のサブセットに基づいて、生理的状態を示す前記特徴を判定し、前記特徴のサブセットは、伝達された情報と関連する前記タスクに基づいて選択されることを特徴とする、請求項19に記載のシステム。
  21. 前記記録された音声信号は、深層学習人工知能エンジンに入力され、前記深層学習人工知能エンジンは、前記音声信号に基づいて前記被験者の生理的状態を判定することを特徴とする、請求項1ないし20のいずれか1つに記載のシステム。
  22. 前記タスク配信モジュールは、前記情報セットを音声で伝達するスピーカーを備えることを特徴とする、請求項1ないし21のいずれか1つに記載のシステム。
  23. 前記タスク配信モジュールは、前記情報セットを視覚的に伝達するスクリーンを備えることを特徴とする、請求項1ないし22のいずれか1つに記載のシステム。
  24. 前記認知のタスクは、口頭での数字スパン(順方向)、口頭での数字スパン(逆方向)、口頭でのペア連想学習、非単語における口頭でのペア連想学習、口頭でのリスト学習、文の繰り返し、口頭での流暢さ(意味論的カテゴリー)、口頭での流暢さ(音韻)、類似性認識、口頭による感情認識、持続的な発声、反復拮抗運動、ペース型聴覚連続追加、連続減算、熟知したシーケンス、および口頭でのアンケートを含むことを特徴とする、請求項1ないし23のいずれか1つに記載のシステム。
  25. 請求項1ないし24のいずれか1つに記載のシステムを備えることを特徴とする、モバイルコンピュータデバイス。
  26. 被験者の生理的状態を評価する方法であって、
    少なくとも2つの情報セットを前記被験者に伝達するステップと、
    マイクロフォンを用いて、前記被験者からの各音声応答を音声信号として記録するステップと、
    前記被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、記録された各音声応答に対応する音声信号を分析し、各音声応答からの前記特徴を比較し、前記比較に基づいて前記被験者の生理的状態を判定するステップと、を備え、
    各情報セットは、前記被験者からの音声応答を要求するタスクに関するものであることを特徴とする方法。
  27. 前記被験者に対する臨床的介入治療を実行するステップと、
    請求項26に記載の方法におけるステップを繰り返して、前記被験者の生理的状態の第2の判定を提供するステップと、
    判定した前記被験者の第1の生理的状態と、判定した前記被験者の第2の生理的状態と、を比較するステップと、
    判定した前記第1の生理的状態と、判定した前記第2の生理的状態と、の前記比較に基づいて、前記臨床的介入治療の安全性及び/または有効性を判定するステップと、
    を備えることを特徴とする、請求項26に記載の方法。
  28. 前記臨床的介入治療を実行するステップは、前記被験者に対する薬物投与を含むことを特徴とする、請求項27に記載の方法。
  29. 前記被験者に対する薬物投与は、臨床試験において行われ、
    薬物投与をされた、臨床試験の実質的なすべての参加者は、請求項28に記載の方法によって評価されることを特徴とする、請求項28に記載の方法。
  30. 判定された前記被験者の生理的状態に基づいて、前記被験者が病状の治療後に退院するのに適しているか否かを判定するステップを備えることを特徴とする、請求項26ないし28のいずれか1つに記載の方法。
  31. 危険度が高い活動を実行するのに前記被験者が適しているかどうかを判定するステップを備え、
    前記危険度の高い活動は、判定された前記被験者の生理的状態に基づいて、航空交通管制、航空機の操縦、手術の実施、重機の操作、車やトラムや電車の運転を含むグループから選択されることを特徴とする、請求項26ないし28のいずれか1つに記載の方法。
  32. 指定された臨床チームに前記判定を伝達するステップ及び/または前記判定に関連する情報を医療健康記録に更新するステップを備えることを特徴とする、請求項26ないし28のいずれか1つに記載の方法。
  33. 前記被験者にとって薬物の繰り返し処方が必要であるか否かを判定するステップを備えることを特徴とする、請求項26ないし28のいずれか1つに記載の方法。
  34. コンピュータプログラム製品であって、
    前記コンピュータプログラム製品がコンピュータによって実行されるとき、前記コンピュータが、請求項26に記載の方法が備えるすべてのステップを実行することを特徴とする、コンピュータプログラム製品。
  35. 請求項26ないし33のいずれか1つに記載の方法において用いられるモバイルコンピュータデバイスであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって制御され、少なくとも2つの情報セットを前記被験者に伝達する、ユーザインターフェースと、
    前記1つまたは複数のプロセッサによって制御され、前記被験者からの各音声応答を音声信号として記録する、マイクロフォンと、
    前記1つまたは複数のプロセッサに動作可能に結合され、各音声信号を格納する、メモリと、
    各音声信号をリモートサーバーに通信する、通信デバイスと、
    各音声信号をリモートコンピュータに通信する、通信デバイスと、を備え、
    前記各情報セットは、前記被験者からの音声応答を要求する認知タスクに関するものであり、
    前記リモートコンピュータは、前記被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、前記応答検出モジュールによって記録された各音声応答に対応する音声信号を分析し、各音声応答からの前記特徴を比較し、前記比較に基づいて前記被験者の生理的状態を判定し、前記判定の結果を前記モバイルコンピュータデバイスに通信し、
    前記ユーザインターフェースは、前記リモートコンピュータから受信した判定の結果に基づいた情報を前記モバイルコンピュータデバイスに伝達することを特徴とする、モバイルコンピュータデバイス。
  36. 請求項26ないし33のいずれか1つに記載の方法において用いられるコンピュータデバイスであって、
    1つまたは複数のプロセッサと、
    モバイルコンピュータデバイスから少なくとも2つの音声信号を受信する通信デバイスと、を備え、
    前記音声信号は、前記被験者によって実行された各認知タスクに対する記録された応答に対応し、
    前記1つまたは複数のプロセッサは、前記被験者の生理的状態を示す1つまたは複数の特徴を各音声応答から判定するために、各音声応答に対応する音声信号を分析し、各音声応答からの前記特徴を比較し、前記比較に基づいて前記被験者の生理的状態を判定し、前記判定の結果を前記モバイルコンピュータデバイスに通信することを特徴とする、コンピュータデバイス。
JP2020543407A 2017-10-24 2018-10-24 生理的状態を判定するシステム及び方法 Pending JP2021500209A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1717469.9 2017-10-24
GB1717469.9A GB2567826B (en) 2017-10-24 2017-10-24 System and method for assessing physiological state
PCT/GB2018/053062 WO2019081915A1 (en) 2017-10-24 2018-10-24 SYSTEM AND METHOD FOR ASSESSING PHYSIOLOGICAL CONDITION

Publications (1)

Publication Number Publication Date
JP2021500209A true JP2021500209A (ja) 2021-01-07

Family

ID=60481857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020543407A Pending JP2021500209A (ja) 2017-10-24 2018-10-24 生理的状態を判定するシステム及び方法

Country Status (6)

Country Link
US (1) US20200365275A1 (ja)
EP (1) EP3701529A1 (ja)
JP (1) JP2021500209A (ja)
CA (1) CA3080009A1 (ja)
GB (1) GB2567826B (ja)
WO (1) WO2019081915A1 (ja)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11612786B2 (en) * 2012-08-31 2023-03-28 Blue Goji Llc System and method for targeted neurological therapy using brainwave entrainment with passive treatment
US20200305739A1 (en) * 2019-04-01 2020-10-01 Anya L. Getman Portable scanning device and processing system
JP6268628B1 (ja) * 2017-11-02 2018-01-31 パナソニックIpマネジメント株式会社 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
EP4349250A2 (en) 2017-12-22 2024-04-10 ResMed Sensor Technologies Limited Apparatus, system, and method for motion sensing
KR102649497B1 (ko) * 2017-12-22 2024-03-20 레스메드 센서 테크놀로지스 리미티드 차량에서의 생리학적 감지를 위한 장치, 시스템, 및 방법
CN112166350B (zh) * 2018-06-05 2023-12-05 谷歌有限责任公司 智能设备中的超声感测的系统和方法
US20190385711A1 (en) 2018-06-19 2019-12-19 Ellipsis Health, Inc. Systems and methods for mental health assessment
JP2021529382A (ja) 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法
US11547345B2 (en) * 2019-05-04 2023-01-10 Intraneuron Dynamic neuropsychological assessment tool
SG11202113302UA (en) * 2019-05-30 2021-12-30 Insurance Services Office Inc Systems and methods for machine learning of voice attributes
CN114269241A (zh) * 2019-08-20 2022-04-01 皇家飞利浦有限公司 使用可穿戴传感器来检测对象跌倒的系统和方法
EP4033966A4 (en) * 2019-09-27 2023-10-04 Arizona Board of Regents on behalf of Arizona State University OBJECTIVE ASSESSMENT OF PATIENT BEHAVIOR FOR CALIBRATION OF THERAPEUTIC INTERVENTIONS
CN110728997B (zh) * 2019-11-29 2022-03-22 中国科学院深圳先进技术研究院 一种基于情景感知的多模态抑郁症检测系统
US11341986B2 (en) * 2019-12-20 2022-05-24 Genesys Telecommunications Laboratories, Inc. Emotion detection in audio interactions
JPWO2021132284A1 (ja) * 2019-12-24 2021-07-01
JP7450216B2 (ja) 2020-03-24 2024-03-15 パナソニックIpマネジメント株式会社 認知機能判定システム、及びプログラム
CN115397311A (zh) * 2020-04-01 2022-11-25 Udp实验公司 语音控制的健康监测系统和方法
JP7323936B2 (ja) * 2020-04-27 2023-08-09 独立行政法人国立高等専門学校機構 疲労推定装置
CN111528842B (zh) * 2020-05-26 2023-01-03 复嶂环洲生物科技(上海)有限公司 基于生理和行为指标的帕金森病症状定量化评估方法
US11730408B2 (en) 2020-06-01 2023-08-22 The Mitre Corporation Systems and methods for human-machine partnered PTSD prediction
US11532300B1 (en) * 2020-06-26 2022-12-20 Amazon Technologies, Inc. System to determine sentiment from audio data
US20220139562A1 (en) * 2020-07-10 2022-05-05 Modality.Ai, Inc. Use of virtual agent to assess psychological and medical conditions
KR102512570B1 (ko) * 2020-07-15 2023-03-22 주식회사 이모코그 대화기반 정신장애선별방법 및 그 장치
CN111870253A (zh) * 2020-07-27 2020-11-03 上海大学 基于视觉和语音融合技术的抽动障碍症病情监测方法及其系统
US20220093121A1 (en) * 2020-09-23 2022-03-24 Sruthi Kotlo Detecting Depression Using Machine Learning Models on Human Speech Samples
EP4033487A1 (en) * 2021-01-21 2022-07-27 Société BIC Method and system for measuring the cognitive load of a user
EP4287946A1 (en) * 2021-02-03 2023-12-13 Ellipsis Health, Inc. Systems and methods for multi-language adaptive mental health risk assessment from spoken and written language
CN113012720B (zh) * 2021-02-10 2023-06-16 杭州医典智能科技有限公司 谱减法降噪下多语音特征融合的抑郁症检测方法
CN113096773B (zh) * 2021-03-31 2022-06-21 上海暖禾临床心理诊所有限公司 一种采集和处理认知信息的系统和方法
DE102021205548A1 (de) 2021-05-31 2022-12-01 VitaFluence.ai GmbH Softwarebasiertes, sprachbetriebenes und objektives Diagnosewerkzeug zur Verwendung in der Diagnose einer chronischen neurologischen Störung
CA3238027A1 (en) * 2021-11-23 2023-06-01 Compass Pathfinder Limited Intelligent transcription and biomarker analysis
EP4220648A1 (en) * 2021-12-08 2023-08-02 Sevenpointone Inc. Method and server for dementia test based on questions and answers using artificial intelligence call
CN115050475B (zh) * 2022-06-14 2023-09-22 昆明理工大学附属安宁市第一人民医院 基于骨质疏松治疗的临床管理大数据中心平台

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003045252A1 (fr) * 2001-11-28 2003-06-05 Matsushita Electric Industrial Co., Ltd. Appareil d'evaluation de capacite de jugement, robot, procede d'evaluation de capacite de jugement, programme et support
JP2003210418A (ja) * 2002-01-21 2003-07-29 Yazaki Corp 在宅者の疲労度監視システム
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2006166970A (ja) * 2004-12-13 2006-06-29 Electronic Navigation Research Institute ドライバーの発話音声収集システム
US20090124863A1 (en) * 2007-11-08 2009-05-14 General Electric Company Method and system for recording patient-status
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置
US20150058013A1 (en) * 2012-03-15 2015-02-26 Regents Of The University Of Minnesota Automated verbal fluency assessment
WO2016028495A1 (en) * 2014-08-22 2016-02-25 Sri International Systems for speech-based assessment of a patient's state-of-mind
US9782122B1 (en) * 2014-06-23 2017-10-10 Great Lakes Neurotechnologies Inc Pain quantification and management system and device, and method of using

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6157913A (en) * 1996-11-25 2000-12-05 Bernstein; Jared C. Method and apparatus for estimating fitness to perform tasks based on linguistic and other aspects of spoken responses in constrained interactions
US9737255B2 (en) * 2008-09-30 2017-08-22 National Ict Australia Limited Measuring cognitive load
US20150064669A1 (en) * 2013-09-03 2015-03-05 Ora GOLAN System and method for treatment of emotional and behavioral disorders
US20160125748A1 (en) * 2014-11-04 2016-05-05 John Wesson Ashford Memory test for Alzheimer's disease
KR102477327B1 (ko) * 2015-03-12 2022-12-13 아킬리 인터랙티브 랩스 인크. 인지 능력 측정을 위한 프로세서 구현 시스템 및 방법
US11064952B2 (en) * 2015-12-30 2021-07-20 Zoll Medical Corporation External medical device that identifies a response activity
US10475530B2 (en) * 2016-11-10 2019-11-12 Sonde Health, Inc. System and method for activation and deactivation of cued health assessment
JP2021529382A (ja) * 2018-06-19 2021-10-28 エリプシス・ヘルス・インコーポレイテッド 精神的健康評価のためのシステム及び方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003045252A1 (fr) * 2001-11-28 2003-06-05 Matsushita Electric Industrial Co., Ltd. Appareil d'evaluation de capacite de jugement, robot, procede d'evaluation de capacite de jugement, programme et support
JP2003210418A (ja) * 2002-01-21 2003-07-29 Yazaki Corp 在宅者の疲労度監視システム
JP2004240394A (ja) * 2002-12-12 2004-08-26 Sense It Smart Corp 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム
JP2006166970A (ja) * 2004-12-13 2006-06-29 Electronic Navigation Research Institute ドライバーの発話音声収集システム
US20090124863A1 (en) * 2007-11-08 2009-05-14 General Electric Company Method and system for recording patient-status
JP2012000449A (ja) * 2010-05-17 2012-01-05 Mitsuyoshi Kenkyusho:Kk 行動分析方法および行動分析装置
JP2011255106A (ja) * 2010-06-11 2011-12-22 Nagoya Institute Of Technology 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム
US20150058013A1 (en) * 2012-03-15 2015-02-26 Regents Of The University Of Minnesota Automated verbal fluency assessment
US9782122B1 (en) * 2014-06-23 2017-10-10 Great Lakes Neurotechnologies Inc Pain quantification and management system and device, and method of using
WO2016028495A1 (en) * 2014-08-22 2016-02-25 Sri International Systems for speech-based assessment of a patient's state-of-mind

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
惠羅 修吉 他: "「Wechsler知能検査における算数、順唱、逆唱の関係:成人と小学校低学年の子どもを対象として」", 発達障害支援システム学研究, vol. 5, no. 2, JPN6023009618, 31 March 2006 (2006-03-31), pages 1 - 6, ISSN: 0005012132 *
石島 恵太郎 他: "「PE061 順唱と逆唱に関わる認知機能」", 日本教育心理学会総会発表論文集, vol. 第57回, JPN6023009620, 19 August 2015 (2015-08-19), pages 484, ISSN: 0005012133 *

Also Published As

Publication number Publication date
US20200365275A1 (en) 2020-11-19
GB2567826A (en) 2019-05-01
CA3080009A1 (en) 2019-05-02
WO2019081915A1 (en) 2019-05-02
GB201717469D0 (en) 2017-12-06
GB2567826B (en) 2023-04-26
EP3701529A1 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
JP2021500209A (ja) 生理的状態を判定するシステム及び方法
Bloodstein et al. A handbook on stuttering
Tager-Flusberg et al. Conducting research with minimally verbal participants with autism spectrum disorder
WO2019246239A1 (en) Systems and methods for mental health assessment
JP2020522028A (ja) 音声に基づく医療評価
JP5714411B2 (ja) 行動分析方法および行動分析装置
US20230048704A1 (en) Systems and methods for cognitive health assessment
Jeong et al. Deploying a robotic positive psychology coach to improve college students’ psychological well-being
KR20220024217A (ko) 음성 속성의 머신 러닝을 위한 시스템 및 방법
US11848079B2 (en) Biomarker identification
US20230395235A1 (en) System and Method for Delivering Personalized Cognitive Intervention
JP2022546455A (ja) 行動障害、発達遅延、および神経系機能障害の診断のための方法、システム、ならびにデバイス
Johnson Speech, voice, and communication
Hudenko et al. Listeners prefer the laughs of children with autism to those of typically developing children
WO2020183460A1 (en) System and method for screening conditions of developmental impairments
Alexander et al. Inner speech in the daily lives of people with aphasia
von Polier et al. Predicting adult attention deficit hyperactivity disorder (ADHD) using vocal acoustic features
Kamiloğlu et al. Voice production and perception
Akbari et al. Treating expressive affective prosody in autism spectrum disorder
Davidow et al. Stuttering frequency, speech rate, speech naturalness, and speech effort during the production of voluntary stuttering
Klangpornkun et al. Classification of depression and other psychiatric conditions using speech features extracted from a Thai psychiatric and verbal screening test
US20220319669A1 (en) Guiding a therapeutic psychedelic experience using extended reality
Harmon et al. Physiological arousal, attentiveness, emotion, and word retrieval in aphasia: effects and relationships
Freeman et al. Using simplified regulated breathing with an adolescent stutterer: Application of effective intervention in a residential context
Teferra Correlates and Prediction of Generalized Anxiety Disorder from Acoustic and Linguistic Features of Impromptu Speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230314