JP2023534799A - 会話ベースの精神障害選別方法及びその装置 - Google Patents

会話ベースの精神障害選別方法及びその装置 Download PDF

Info

Publication number
JP2023534799A
JP2023534799A JP2023502573A JP2023502573A JP2023534799A JP 2023534799 A JP2023534799 A JP 2023534799A JP 2023502573 A JP2023502573 A JP 2023502573A JP 2023502573 A JP2023502573 A JP 2023502573A JP 2023534799 A JP2023534799 A JP 2023534799A
Authority
JP
Japan
Prior art keywords
stimulus
mental disorder
stimuli
speech
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023502573A
Other languages
English (en)
Inventor
イ、ジュンヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Emocog Co Ltd
Original Assignee
Emocog Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Emocog Co Ltd filed Critical Emocog Co Ltd
Publication of JP2023534799A publication Critical patent/JP2023534799A/ja
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4884Other medical applications inducing physiological or psychological stress, e.g. applications for stress testing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Neurology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Epidemiology (AREA)
  • Social Psychology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Primary Health Care (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Neurosurgery (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Artificial Intelligence (AREA)

Abstract

Figure 2023534799000001
会話ベースの精神障害選別方法及びその装置が開示される。精神障害選別装置は、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力し、検査対象から刺激に対する応答を受信すると、応答の正解率又は前記応答に含まれた音声特徴を正常群及び疾患群の正解率又は音声特徴と比較して精神障害の有無を選別する。

Description

本発明の実施形態は、会話を通じて精神科疾患を選別する方法及びその装置に関する。
現在の精神障害(例えば、認知症、注意欠陥障害、学習障害、統合失調症、気分障害、依存症など)検査は、専門家によって特定の空間及び特定の時間に行われる。したがって、精神障害の有無の検査を受けようとする者は、検査のために予約をした後、その予約時間に病院などの特定の場所を訪問しなければならない不便さがある。
本発明の実施形態が解決しようとする技術的課題は、時空間に拘束されることなく病院ではない家などで楽に会話ベースで精神科疾患を選別することができる方法及びその装置を提供することにある。
上記の技術的課題を達成するための、本発明の実施形態による会話ベースの精神障害選別方法の一例は、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するステップと、検査対象から前記刺激に対する応答を受信するステップと、前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を選別するステップとを含む。
上記の技術的課題を達成するための、本発明の実施形態による会話ベースの精神障害選別装置の一例は、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するデータ出力部と、検査対象から前記刺激に対する応答を受信する音声入力部と、前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を判断する音声/会話分析部とを含む。
上記の技術的課題を達成するための、本発明の実施形態による記録媒体の一例は、コンピュータ読み取り可能な命令を格納するコンピュータ読み取り可能な記録媒体であって、前記命令は少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサがステップを行うようにし、前記ステップは、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するステップと、検査対象から前記刺激に対する応答を受信するステップと、前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を選別するステップとを含む。
本発明の実施形態によれば、検査対象は、あえて病院に訪問しなくても、家など心地よい空間で会話ベースの精神障害の有無を診断することができる。また、会話内容と音声データをともに活用して精神障害選別の精度を向上させることができる。
本発明の実施形態による精神障害選別方法を実装したシステム全体の概略的な構造の例を示す。 本発明の実施形態による精神障害選別方法の一例を示すフローチャートである。 本発明の実施形態による精神障害選別を検査対象の正解率に基づいて把握する方法の一例を示す。 本発明の実施形態による精神障害選別を検査対象の音声特徴に基づいて把握する方法の一例を示す。 本発明の実施形態による精神障害選別に使用される刺激のうちストーリーの刺激の一例を示す。 本発明の実施形態による精神障害選別に使用される刺激のうちストーリーの刺激の一例を示す。 本発明の実施形態による精神障害選別装置の一例の構成を示す。
以下で、添付の図面を参照して、本発明の実施形態による会話ベースの精神障害選別方法及びその装置について詳細に説明する。
図1は、本発明の実施形態による精神障害選別方法を実装したシステム全体の概略的な構造の例を示す図である。
図1を参照すると、精神障害選別のためのシステムは、主に、ユーザ端末100及び分析サーバ140を含む。ユーザ端末100と分析サーバ140は、有線網や無線網などの通信網150を介して接続することができる。
ユーザ端末100は、音声入力装置110、データ出力装置120及び通信部130を含む。ここで、音声入力装置110はマイクなどのように音を入力することができる装置を意味し、データ出力装置120は音を出力するスピーカー又は映像を出力するディスプレイ装置などを意味し、通信部130は分析サーバ140とデータを送受信することができる各種通信モジュールを意味する。ユーザ端末100は、他にもプロセッサ、メモリなど、本実施形態の実装に必要な様々な構成をさらに含むことができる。ただし、本実施形態は説明の便宜上、精神障害選別のために必要な構成を中心に示している。
本実施形態において、ユーザ端末100は、音声入力装置110、データ出力装置120及び通信部130を備えた端末であれば全て可能であるので、一般コンピュータ、タブレットPC、スマートフォン、スマート冷蔵庫、スマートTV、AIスピーカー、各種IoT(Internet Of Things)機器などで実装することができ、特定の装置に限定されない。
分析サーバ140は、ユーザ端末100から受信したデータを分析して検査対象の精神障害(例えば、認知症など)の有無を判断する装置である。分析サーバ140は「サーバ」という用語に限定されず、サーバだけでなく一般コンピュータやクラウドシステムなどで実装することができる。
本実施形態は、精神障害選別のためにユーザ端末100と分析サーバ140とが通信網150で接続されている構造を示しているが、必ずしもこれに限定されるものではない。例えば、分析サーバ140で行う機能の一部又は全部をユーザ端末100で行われることができる。分析サーバ140の機能が全てユーザ端末100で行われる場合、分析サーバ140は省略されてもよい。すなわち、分析サーバ140なしにユーザ端末100で精神障害選別を行い、その結果を表示することができる。ただし、以下では、説明の便宜上、ユーザ端末100と分析サーバ140とが通信網150で接続されている本実施形態の構造を中心に説明する。
図2は、本発明の実施形態による精神障害選別方法の一例を示すフローチャートである。
図1及び図2を参照すると、ユーザ端末100はデータ出力装置120を介して刺激を出力する(S200)。ここで刺激とは、検査対象の視覚又は聴覚を刺激することができるストーリーや音又は画像などを意味する。例えば、刺激は、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上から構成されることができる。図5及び図6は、ストーリーの刺激の一例を示す。
一実施形態では、ユーザ端末100は、分析サーバ140からリアルタイムで刺激内容を受信し、データ出力装置120を介して出力してもよく、ユーザ端末に予め保存された刺激内容を出力してもよい。
別の実施形態では、データ出力装置120を介して出力される刺激内又は刺激の間に干渉刺激を配置してもよい。ここで干渉刺激は正常群と疾患群の応答差を広げ、精神疾患選別の精度を高めるために検査対象に混乱を与えるための刺激である。例えば、図5のようなストーリーの刺激の場合に慣れたストーリーに出てくる慣れた単語や状況を不慣れな単語や状況に変えて出力することができ、ここで生成した単語や状況が干渉刺激に該当する。各刺激に対する干渉刺激の位置と内容は予め定められていてもよい。別の例として、検査対象が答える前に、直前刺激に対する記憶を消去することができるように、検査対象に質問する前に別のストーリーや、音、絵などの干渉刺激を出力するか、又は刺激と刺激の間に一定時間の休止期を与えることもできる。
別の実施形態では、ユーザ端末100は、検査対象の応答に応じて出力する刺激の内容をリアルタイムで変えて出力することができる。リアルタイムで変更する刺激内容は、ユーザ端末100で選択されてもよく、検査対象の応答をリアルタイムに分析サーバ140に提供して分析サーバ140からリアルタイムで変えた刺激を受信し、出力されてもよい。例えば、図5及び図6のストーリーの刺激において、質問に対する検査対象の応答の正解率が一定以上の場合に、より難しい内容のストーリーの刺激を出力するか、又は音や画像などの他の種類の刺激を出力することができる。検査対象の正解率に応じて、次に出力する刺激の種類などは予め定められていてもよい。
ユーザ端末100は、刺激に対する検査対象の応答を、音声入力装置110を介して受信する(S210)。例えば、刺激が図5のようなストーリーの刺激である場合、ユーザ端末100はデータ出力装置120を介してストーリーを音で出力してもよく、画面に視覚的に表示してもよく、又は音と画面に同時に出力してもよい。刺激を出力した後、ユーザ端末100は図6のような質問をし、音声入力装置110を介して検査対象の応答を入力することができる。
ユーザ端末100は、刺激を出力し、その刺激に対する検査対象の応答を受信する過程を、刺激を変えながら繰り返して行うことができる。例えば、ユーザ端末100は、第1刺激を出力した後、それに対する検査対象の応答を受信し、第2刺激を出力した後、それに対する検査対象の応答を受信することができる。すなわち、ユーザ端末100は検査対象と一種の会話を続ける形態で検査を行うことができるので、このために従来のAIスピーカーや各種スマート機器を本実施形態に活用することができる。
ユーザ端末100は検査対象から入力された応答を分析サーバ140に送信し、分析サーバ140は検査対象の応答を分析して精神障害を選別する(S220、S230)。具体的には、分析サーバ140は、検査対象の応答内容を分析して、刺激に対する検査対象の応答の正解率及び/又は音声特徴が正常群に近いのかそれとも疾患群に近いのかを分析して精神障害の有無を判断することができる。検査対象の正解率に基づいて精神障害を選別する例を図3に示し、検査対象の音声特徴に基づいて精神障害を選別する例を図4に示す。別の例として、分析サーバ140は、検査対象の応答に含まれる単語数、文章完成度、低頻度単語の使用の有無、重義的文章や曖昧な文章の理解度、感情を表す言葉の使用頻度などを精神障害の有無の判断に併せて考慮することができる。
分析サーバ140は、精神障害の分析が完了すると、精神障害選別結果をユーザ端末100又は所定の端末(例えば、検査対象の保護者又は医療スタッフの端末など)に提供することができる。
図3は、本発明の実施形態による精神障害選別を検査対象の正解率に基づいて把握する方法の一例を示す図である。
図3を参照すると、分析サーバ140は、刺激に対する検査対象の正解率300を把握した後、正常群の正解率310及び疾患群の正解率320と比較する。図5及び図6のストーリーの刺激の場合には、分析サーバ140は、検査対象の応答を従来の多様な音声認識技術で分析して、各質問内容について検査対象の回答を把握した後、その回答が正解か否かを判断することができる。複数の刺激が検査対象に出力される場合、分析サーバ140は各刺激に対する正解か否かをそれぞれ把握することができる。
例えば、図5及び図6のストーリーの刺激に対して正常群の正解率310と認知症疾患の疾患群の正解率320が定義されている場合、分析サーバ140は検査対象の正解率300が正常群と疾患群のうちどの群にもっと近いかを把握して認知症疾患の有無を把握することができる。すなわち、正常群の正解率が70%であり、疾患群の正解率が30%である場合、検査対象の正解率が20%であれば、検査対象の正解率が疾患群より低いので、分析サーバ140は認知症疾患があると判断することができる。他の例として、検査対象の正解率が30~70%の間であれば、分析サーバ140は、検査対象の正解率が正常群と疾患群との間で疾患群に近いと認知症疾患が存在する可能性があると判断することができ、この場合、検査対象の正解率と正常群及び疾患群の各正解率との間の相対距離に応じて認知症疾患の存在可能性を確率で計算して提供することもできる。
図4は、本発明の実施形態による精神障害選別を検査対象の音声特徴に基づいて把握する方法の一例を示す図である。
図4を参照すると、分析サーバ140は、検査対象の音声特徴400を分析して、正常群の音声特徴410及び疾患群の音声特徴420と比較することができる。分析サーバ140は、音声特徴の例としてフォルマント(formant)、メル周波数ケプストラム係数(Mel-Frequency Cepstral Coefficient:MFCC)、音高、音長、音質(voice quality)などを分析することができる。
分析サーバ140は、正常群に対する音声特徴410と疾患群に対する音声特徴420を予め把握して記憶しており、検査対象の音声特徴400が正常群に近いのか、それとも疾患群に近いのかを把握して検査対象の精神疾患の有無を選別することができる。例えば、図5及び図6のストーリーの刺激に基づいて認知症に対する正常群の音声特徴410及び疾患群の音声特徴420が定義されていると、分析サーバ140は、検査対象の音声特徴400が正常群と疾患群のうちどちらにどれだけ近いかを分析して認知症疾患の可能性を把握することができる。例えば、検査対象の音声特徴400が疾患群の音声特徴420と80%類似している場合、分析サーバ140は認知症疾患の可能性が80%であると出力することができる。
音声特徴の比較は、多様な方法で行うことができる。例えば、分析サーバ140は、検査対象の応答から抽出する音声特徴の値(例えば、フォルマント、MFCC、音高等)を予め定めており、検査対象の応答から所定の音声特徴の値を把握し、これらの値を変数とするベクターを作る。正常群と疾患群の音声特徴の値も予めベクターで作られている。分析サーバ140は、検査対象の音声特徴のベクターと正常群及び疾患群の各ベクターとの間の類似度(例えば、ユークリッド距離など)を把握し、どれとより類似するかを把握することができる。
別の実施形態では、分析サーバ140は会話内容を分析して精神障害選別に用いることができる。例えば、分析サーバ140は、検査対象の応答から単語数、文章完成度、低頻度単語(すなわち、難しい単語)の使用、重義的文章や曖昧な文章の理解度、感情を表す言葉の使用頻度などを把握した後、所定の精神障害選別の基準値と比較して、精神障害の有無を判断することができる。例えば、分析サーバ140は、単語数が所定の値以下であれば精神障害であると判断し、低頻度単語の使用頻度が一定以上であれば精神障害でないと判断し、感情を表す言葉の使用頻度が一定以上であれば精神障害でないと判断することができる。あるいは、人工知能又は従来の多様な文章分析技法を用いて検査対象の応答に対する文章完成度や重義的文章又は曖昧な文章の理解度などを把握した後、これを基に精神障害の有無を選別することもできる。
別の実施形態では、分析サーバ140は人工知能を用いて会話内容を分析することができる。例えば、人工知能モデルは、正常群に属する人との会話及び疾患群に属する人との会話を通じて正常群と疾患群を分類するように学習することができる。分析サーバ140は、このように学習された人工知能モデルを用いて検査対象との会話を通じて精神障害の有無を判断することができる。人工知能モデルは、AIスピーカーなど、ユーザとの会話が可能なモデルで構成することができる。例えば、分析サーバ140は、人工知能モデルを介して天気や日付などの日常的な会話を刺激として出力し、これに対する検査対象の応答を受信する過程を通じて把握された会話内容を用いて検査対象が正常群及び疾患群のいずれのクラスに属するのかを把握することができる。
分析サーバ140は、図3の検査対象の正解率300、図4の検査対象の音声特徴400及び会話内容のうちの少なくとも1つ以上をともに考慮して精神障害選別の精度を向上させることができる。
図5及び図6は、本発明の実施形態による精神障害選別に使用される刺激のうちストーリーの刺激の一例を示す図である。
図5を参照すると、ストーリーの刺激は所定の一定量のストーリーを含む。例えば、ストーリーの刺激は、興夫(フンブ)伝などのように広く知られている物語であり得る。ユーザ端末100は、精神障害選別のためにストーリーの刺激を出力する際に、それをそのまま出力してもよく、又は特定の単語を所定の他の単語に置き換えて出力してもよい。例えば、フンブが飯じゃくしで頬を殴られる慣れた興夫(フンブ)伝のストーリーで慣れた「飯じゃくし」という単語を不慣れな「盆」に置き換えて出力することで認知症患者の干渉を最大化することができる。
図6を参照すると、ユーザ端末100は、質問を通じて検査対象からストーリーの刺激に対する応答を受信することができる。
図7は、本発明の実施形態による精神障害選別装置の一例の構成を示す図である。
図7を参照すると、精神障害選別装置600は、データ出力部610、音声入力部620及び音声/会話分析部630を含む。
精神障害選別装置600は、図1のように通信網150で接続されているユーザ端末100と分析サーバ140で実装されてもよく、又はユーザ端末140のみで実装されてもよい。例えば、データ出力部610、音声入力部620及び音声/会話分析部630は、アプリケーションとして実装され、スマートフォン、AIスピーカーなどに搭載されて行うことができる。あるいは、データ出力部610及び音声入力部620はアプリケーションで実装され、スマートフォン、AIスピーカー等に搭載されて実行され、音声/会話分析部630は分析サーバ140に実装できるなど精神障害選別装置600は実施形態に従って、様々な形態で実装することができる。
データ出力部610は刺激を出力する。例えば、データ出力部610がAIスピーカーやスマートフォンなどに実装された場合、データ出力部610はAIスピーカーを介して刺激を出力することができる。実施形態によれば、データ出力部610は、外部の分析サーバ140から刺激を受信した後、それをAIスピーカーを介して出力することができる。あるいは、データ出力部610は、日付、天気、家族関係などの日常的な質問内容を刺激として出力してもよい。
音声入力部620は、刺激に対する検査対象の応答を受信する。例えば、音声入力部620がAIスピーカーに実装された場合に刺激に対する検査対象の答えをAIスピーカーを介して入力することができる。
音声/会話分析部630は、音声入力部620を介して入力された検査対象の応答を分析して精神障害の有無を選別する。例えば、図5及び図6のように、ストーリーの刺激に対する検査対象の応答を受信した場合、音声/会話分析部630は、検査対象の正解率を分析し、検査対象の音声特徴を分析することもできる。音声/会話分析部630は、実施形態に従ってユーザ端末100に実装されてもよく、図1の分析サーバ140に実装されてもよい。音声/会話分析部630が図1の分析サーバ140に実装された場合、音声入力部620は検査対象の応答を分析サーバ140に送信することができる。
別の実施形態では、音声/会話分析部630は、音声入力部620を介して入力された検査対象の会話内容を分析して精神障害の有無を選別する。例えば、音声/会話分析部630は、検査対象の応答に含まれる単語数、低頻度単語の使用の有無、感情を表す言葉の使用頻度などを分析した後、所定の基準と比較して精神障害の有無を選別することができる。あるいは、音声/会話分析部630は、正常群と疾患群に属する人との会話内容を学習データとして用いて学習させた人工知能モデルを用いることができる。この場合、音声/会話分析部630は、人工知能モデルを介して検査対象との会話内容が正常群と疾患群のいずれに属するかを把握することができる。音声/会話分析部630は、正解率、音声特徴及び会話内容のうちの少なくとも1つ以上を用いて精神障害の有無を判断することができる。
また、本発明は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして実装することができる。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取れるデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例には、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ記憶装置などがある。また、コンピュータで読み取り可能な記録媒体は、ネットワークに接続されたコンピュータシステムに分散され、分散方式としてコンピュータで読み取り可能なコードが保存され実行されることができる。
これまで、本発明に関してその好ましい実施形態を中心に見てきた。本発明が属する技術分野において通常の知識を有する者は、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で実装され得ることが理解されるであろう。したがって、開示された実施形態は限定的な観点ではなく説明的な観点から考慮されるべきである。本発明の範囲は上記の説明ではなく特許請求の範囲に示されており、それと同等の範囲内にある全ての相違点は本発明に含まれるものと解釈されるべきである。

Claims (7)

  1. ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するステップと、検査対象から前記刺激に対する応答を受信するステップと、前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を選別するステップとを含むことを特徴とする、会話ベースの精神障害選別方法。
  2. 前記刺激を出力するステップは、刺激に対する正常群と疾患群との間の差を広げるためにストーリーの刺激に含まれる単語を所定の他の単語に置き換えて出力するステップを含むことを特徴とする、請求項1に記載の会話ベースの精神障害選別方法。
  3. 前記刺激を出力するステップは、前記検査対象の応答内容に従って出力する刺激を決定するステップを含むことを特徴とする、請求項1に記載の会話ベースの精神障害選別方法。
  4. 前記刺激を出力するステップは、刺激の間の出力間隔を制御するか、又は刺激に干渉刺激を配置するステップを含むことを特徴とする、請求項1に記載の会話ベースの精神障害選別方法。
  5. 前記音声特徴は、フォルマント、MFCC、音高、音長、及び音質のうちの少なくとも1つ以上を含むことを特徴とする、請求項1に記載の会話ベースの精神障害選別方法。
  6. ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するデータ出力部と、検査対象から前記刺激に対する応答を受信する音声入力部と、及び前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を判断する音声分析部とを含むことを特徴とする、精神障害選別装置。
  7. コンピュータ読み取り可能な命令を格納するコンピュータ読み取り可能な記録媒体であって、前記命令は、少なくとも1つのプロセッサによって実行されるとき、前記少なくとも1つのプロセッサがステップを行うようにし、前記ステップは、ストーリー、単語、音、絵、動き、色及び方向のうち少なくとも1つ以上を含む刺激を出力するステップと、検査対象から前記刺激に対する応答を受信するステップと、前記応答の正解率又は前記応答に含まれる音声特徴を正常群及び疾患群の正解率又は音声特徴と比較するか、又は会話内容を分析して精神障害の有無を選別するステップとを含むことを特徴とする、記録媒体。
JP2023502573A 2020-07-15 2021-07-13 会話ベースの精神障害選別方法及びその装置 Pending JP2023534799A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020200087533A KR102512570B1 (ko) 2020-07-15 2020-07-15 대화기반 정신장애선별방법 및 그 장치
KR10-2020-0087533 2020-07-15
PCT/KR2021/008939 WO2022015005A1 (ko) 2020-07-15 2021-07-13 대화기반 정신장애선별방법 및 그 장치

Publications (1)

Publication Number Publication Date
JP2023534799A true JP2023534799A (ja) 2023-08-14

Family

ID=79291607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023502573A Pending JP2023534799A (ja) 2020-07-15 2021-07-13 会話ベースの精神障害選別方法及びその装置

Country Status (6)

Country Link
US (1) US20220015687A1 (ja)
EP (1) EP4166079A4 (ja)
JP (1) JP2023534799A (ja)
KR (2) KR102512570B1 (ja)
CN (1) CN115916054A (ja)
WO (1) WO2022015005A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102620129B1 (ko) * 2023-08-24 2024-01-03 (주)블라우비트 인공지능 기반의 뇌졸중 초기 예측 진단 시스템 및 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070668A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 음성 통화 정보를 이용한 알츠하이머병 진단 장치 및 방법
US9579056B2 (en) * 2012-10-16 2017-02-28 University Of Florida Research Foundation, Incorporated Screening for neurological disease using speech articulation characteristics
KR102064510B1 (ko) 2012-12-14 2020-02-11 한국과학기술원 뇌파를 이용한 자폐 범주성 장애 진단 장치 및 그 방법
JP6407405B2 (ja) * 2015-03-16 2018-10-17 国立大学法人大阪大学 デュアルタスク遂行能力評価方法、及びデュアルタスク遂行能力評価システム
CN110192252A (zh) * 2016-11-14 2019-08-30 科格诺亚公司 用于评估发育状况并提供覆盖度和可靠性控制的方法和装置
KR102235716B1 (ko) * 2016-12-14 2021-04-05 한국전자기술연구원 가상현실을 이용한 학습장애 진단/치유장치, 및 그 방법
GB2567826B (en) * 2017-10-24 2023-04-26 Cambridge Cognition Ltd System and method for assessing physiological state
KR102041848B1 (ko) * 2017-12-29 2019-11-08 동국대학교 산학협력단 인공지능 기반의 음성분석을 통한 우울증, 불안증, 조기치매, 또는 자살 징후 조기판별 시스템
EP3811245A4 (en) * 2018-06-19 2022-03-09 Ellipsis Health, Inc. MENTAL HEALTH ASSESSMENT SYSTEMS AND METHODS
WO2020013302A1 (ja) * 2018-07-13 2020-01-16 株式会社生命科学インスティテュート 精神・神経系疾患の推定システム、推定プログラムおよび推定方法
KR102167804B1 (ko) * 2018-07-23 2020-10-19 경남대학교 산학협력단 치매 테스트장치
KR102064681B1 (ko) * 2018-09-21 2020-01-09 이화여자대학교 산학협력단 비단어 따라 말하기를 이용한 작업 기억능력 측정 방법, 이를 수행하기 위한 장치 및 기록매체
US20230187064A1 (en) * 2020-05-12 2023-06-15 The United States Government As Represented By The Department Of Veterans Affairs Methods and systems for comprehensive patient screening
US20230154575A1 (en) * 2020-06-04 2023-05-18 Healmed Solutions Llc Systems and Methods for Mental Health Care Delivery Via Artificial Intelligence

Also Published As

Publication number Publication date
EP4166079A4 (en) 2023-08-09
KR20230043080A (ko) 2023-03-30
KR20220009164A (ko) 2022-01-24
CN115916054A (zh) 2023-04-04
US20220015687A1 (en) 2022-01-20
WO2022015005A1 (ko) 2022-01-20
EP4166079A1 (en) 2023-04-19
KR102512570B1 (ko) 2023-03-22

Similar Documents

Publication Publication Date Title
CN105792752B (zh) 用于诊断和治疗语言相关障碍的计算技术
US8708702B2 (en) Systems and methods for learning using contextual feedback
Cen et al. A real-time speech emotion recognition system and its application in online learning
US20180268821A1 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
US11602287B2 (en) Automatically aiding individuals with developing auditory attention abilities
US20210090576A1 (en) Real Time and Delayed Voice State Analyzer and Coach
Roche et al. “Your tone says it all”: The processing and interpretation of affective language
JP6729923B1 (ja) 難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法
KR102444012B1 (ko) 말 장애 평가 장치, 방법 및 프로그램
Borrie et al. The role of somatosensory information in speech perception: Imitation improves recognition of disordered speech
Heffner et al. Individual differences in phonetic plasticity across native and nonnative contexts
Chenausky et al. A modeling-guided case study of disordered speech in minimally verbal children with autism spectrum disorder
Bosen et al. Forward digit span and word familiarity do not correlate with differences in speech recognition in individuals with cochlear implants after accounting for auditory resolution
KR20230043080A (ko) 대화기반 정신장애선별방법 및 그 장치
JP7022921B2 (ja) 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム
Blaiser et al. Effect of repeated exposures on word learning in quiet and noise
JP6712028B1 (ja) 認知機能判定装置、認知機能判定システム及びコンピュータプログラム
Hau et al. The adaptation to Mandarin-accented English by older, hearing-impaired listeners following brief exposure to the accent
Franciscatto et al. Situation awareness in the speech therapy domain: a systematic mapping study
Tsai et al. Employing a Voice-Based Emotion-Recognition Function in a Social Chatbot to Foster Social and Emotional Learning Among Preschoolers
Hirsch et al. RehaLingo-towards a speech training system for aphasia
KR102644989B1 (ko) 인공지능 알고리즘에 기초한 고인의 음성 데이터를 이용하여 심리 상담 서비스를 제공하는 방법
KR102406560B1 (ko) 인공지능 기반 대상자의 치매 검사 정확도 향상을 위한 아웃바운드 콜 처리 방법, 장치 및 시스템
US11532300B1 (en) System to determine sentiment from audio data
Singh Designing an efficient algorithm for recognition of human emotions through speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528