JP2019040143A - 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム - Google Patents
認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム Download PDFInfo
- Publication number
- JP2019040143A JP2019040143A JP2017163795A JP2017163795A JP2019040143A JP 2019040143 A JP2019040143 A JP 2019040143A JP 2017163795 A JP2017163795 A JP 2017163795A JP 2017163795 A JP2017163795 A JP 2017163795A JP 2019040143 A JP2019040143 A JP 2019040143A
- Authority
- JP
- Japan
- Prior art keywords
- cognitive function
- evaluated
- frequency
- person
- amplitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003920 cognitive function Effects 0.000 title claims abstract description 181
- 238000011156 evaluation Methods 0.000 title claims abstract description 174
- 238000004364 calculation method Methods 0.000 claims abstract description 62
- 238000001228 spectrum Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims abstract description 11
- 230000002123 temporal effect Effects 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 claims description 2
- 230000010365 information processing Effects 0.000 claims 1
- 206010012289 Dementia Diseases 0.000 description 28
- 208000024827 Alzheimer disease Diseases 0.000 description 27
- 238000010586 diagram Methods 0.000 description 23
- 238000012360 testing method Methods 0.000 description 20
- 210000002105 tongue Anatomy 0.000 description 13
- 238000012986 modification Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000000034 method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 208000024891 symptom Diseases 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 4
- 230000007659 motor function Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 210000000214 mouth Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 210000000088 lip Anatomy 0.000 description 2
- 210000003928 nasal cavity Anatomy 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 201000004810 Vascular dementia Diseases 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000004035 construction material Substances 0.000 description 1
- 235000021438 curry Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 208000027061 mild cognitive impairment Diseases 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
- A61B5/4552—Evaluating soft tissue within the mouth, e.g. gums or tongue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4803—Speech analysis specially adapted for diagnostic purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7278—Artificial waveform generation or derivation, e.g. synthesising signals from measured signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0204—Acoustic sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4519—Muscles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Psychology (AREA)
- Acoustics & Sound (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Multimedia (AREA)
- Hospice & Palliative Care (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Rheumatology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Physical Education & Sports Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】簡便に且つ精度良く被評価者の認知機能の評価が可能な認知機能評価装置等を提供する。【解決手段】認知機能評価装置100は、被評価者Uが発する音声を示す音声データを取得する取得部110と、取得部110が取得した音声データから複数の母音を抽出し、複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出部120と、算出部120が算出した特徴量から被評価者の認知機能を評価する評価部130と、評価部130が評価した評価結果を出力する出力部140とを備える。【選択図】図2
Description
本発明は、被評価者の認知機能を評価することができる、認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラムに関する。
従来から、認知機能を評価するテストとして、認知機能が評価される患者である被評価者がテスト用紙に解答を記載する方法である改訂長谷川式簡易知能評価スケール(HDS−R)、MMSE(Mini−Mental State Examination:ミニメンタルステート検査)、CDR(Clinical Dementia Rating)等がある。これらは、一定のトレーニングの受けた医師、臨床心理士等が、被評価者に対して医療機関で行うものである。
ここで、テスト用紙を用いた評価方法においては、長いテスト時間を要して被評価者の負担を強いることが問題となる。また、繰り返し被評価者に対してテストを実行する場合、同じテストであるために、被評価者が答えを記憶してしまう問題がある。この問題を解決するために、医者等が被評価者に実施するテストにおける質疑応答を音声収録し、被評価者の音声を分析する技術が開示されている(例えば、特許文献1参照)。
認知機能の評価には、より簡便に、且つ、精度良く被評価者の認知機能の評価をすることが要求されている。
そこで、本発明は、簡便に且つ精度良く被評価者の認知機能の評価が可能な認知機能評価装置等の提供を目的とする。
本発明の一態様に係る認知機能評価装置は、被評価者が発する音声を示す音声データを取得する取得部と、前記取得部が取得した前記音声データから複数の母音を抽出し、前記複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出部と、前記算出部が算出した前記特徴量から前記被評価者の認知機能を評価する評価部と、前記評価部が評価した評価結果を出力する出力部とを備える。
また、本発明の一態様に係る認知機能評価システムは、上記認知機能評価装置と、被評価者の音声を検出する集音装置と、上記出力部が出力した評価結果を表示する表示装置とを備える。
また、本発明の一態様に係る認知機能評価方法は、被評価者が発する音声を示す音声データを取得する取得ステップと、前記取得ステップで取得された前記音声データから複数の母音を抽出し、前記複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出ステップと、前記算出ステップで算出された前記特徴量から前記被評価者の認知機能を評価し、評価結果を出力する評価ステップとを含む。
また、本発明は、認知機能評価方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。
本発明の認知機能評価装置等によれば、簡便に且つ精度良く被評価者の認知機能の評価が可能となる。
以下、実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序等は、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
なお、各図は模式図であり、必ずしも厳密に図示されたものではない。また、各図において、実質的に同一の構成に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。
また、以下の実施の形態において、方向を示す表現を用いている。例えば、平行とは、完全に平行であることを意味するだけでなく、実質的に平行とする、すなわち、例えば数%程度のずれを含むことも意味する。
(実施の形態)
[認知機能評価装置の構成]
実施の形態に係る認知機能評価システムの構成に関して説明する。図1は、実施の形態に係る認知機能評価システムの構成を示す図である。
[認知機能評価装置の構成]
実施の形態に係る認知機能評価システムの構成に関して説明する。図1は、実施の形態に係る認知機能評価システムの構成を示す図である。
認知機能評価システム200は、被評価者Uが発した音声から、被評価者Uの認知機能を評価するための装置である。認知機能とは、認識したり、記憶したり、判断したりする能力を示す。一具体例として、認知機能評価装置100は、認知症である人(認知症患者)かどうかを評価する。
認知症とは、上述した認知機能の低下が見られる症状を示す。認知症の一具体例としては、アルツハイマー型認知症(AD:Alzheimer’s disease)が挙げられる。認知症は自覚症状がないため、認知症患者の家族又は第三者等が認知症患者に病院での診察を促すことで、認知症患者は医師からの診察を受けることとなる。また、MoCA(Montreal Cognitive Assessment)テスト等の認知症の診断のためのバッチテストを被評価者Uが受けることにより、被評価者Uが認知症であるかどうかを確認することができる。
しかしながら、MoCAテストは、15分程度の時間を要する。また、MoCAテストは、被評価者Uの経時的な変化を診断するために、日をおいて複数回実行することで、被評価者Uが認知症であるかどうかの判定を行う必要がある。つまり、MoCAテストは、被評価者Uが認知症であるかどうかを診断するために、長い期間を要する。
ところで、認知症患者と、認知症ではない人(健常者)とでは、発話した単語が同じ単語であっても音声に違いがあることが知られている。
認知機能評価システム200は、被評価者Uの音声を解析することで、被評価者Uの認知機能を精度良く評価する装置である。
図1に示されるように、認知機能評価システム200は、認知機能評価装置100と、集音装置300と、表示装置400とを備える。
認知機能評価装置100は、集音装置300によって、被評価者Uが発した音声を示す音声データを取得し、取得した音声データから被評価者Uの認知機能を評価するコンピュータである。
集音装置300は、被評価者Uが発した音声を検出して、検出した音声を示す音声データを認知機能評価装置100へ出力するマイクである。被評価者Uが発した音声を精度良く検出するために、集音装置300の周囲には、遮音壁310、及び/又は、ポップガード320が配置されていてもよい。
表示装置400は、認知機能評価装置100から出力される画像データに基づいた画像を表示する。表示装置400は、具体的には、液晶パネル、又は、有機ELパネルなどによって構成されるモニタ装置である。表示装置400として、テレビ、スマートフォン、又は、タブレット端末などの情報端末が用いられてもよい。
認知機能評価装置100と、集音装置300及び表示装置400とは、音声データ又は画像データを送受信可能であればよく、有線で接続されていてもよいし、無線通信可能に接続されていてもよい。
認知機能評価装置100は、集音装置300によって検出された音声データに基づいて被評価者Uの音声を分析し、分析した結果から被評価者Uの認知機能を評価し、評価した結果を示す画像を表示装置400へ出力する。こうすることで、認知機能評価装置100は、自覚症状がない認知症患者へ認知機能の程度を通知できるため、例えば、認知症患者に医師に診察を受けるように促すことができる。言い換えると、認知機能評価装置100は、自覚症状がない認知症患者へ認知機能の程度を通知することで、認知症患者が医師に診察を受ける支援をすることができる。
なお、認知機能評価装置100は、例えば、パーソナルコンピュータであるが、サーバ装置であってもよい。
図2は、実施の形態に係る認知機能評価装置100の特徴的な機能構成を示すブロック図である。認知機能評価装置100は、取得部110と、算出部120と、評価部130と、出力部140と、記憶部150とを備える。
取得部110は、集音装置300によって検出された音声データを取得する。取得部110は、例えば、有線通信又は無線通信を行う通信インターフェースである。
算出部120は、取得部110で取得した被評価者Uの音声データを解析する処理部である。算出部120は、具体的には、プロセッサ、マイクロコンピュータ、又は、専用回路によって実現される。
算出部120は、取得部110が取得した音声データから複数の母音を抽出し、複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する。ここで、特徴量とは、評価部130が被評価者Uの認知機能を評価するために用いる音声データから算出される被評価者Uの音声の特徴を示す数値である。例えば、特徴量は、第二フォルマントの周波数及び振幅である。つまり、算出部120は、例えば、第二フォルマントの周波数及び振幅を複数の母音のそれぞれについて特徴量として算出する。
なお、算出部120が算出する特徴量は、第二フォルマントの周波数及び振幅に限らない。例えば、算出部120は、取得部110が取得した音声データから母音を抽出して算出した当該母音のスペクトルにおける所定の時間間隔ごとの複数の第二フォルマントの周波数及び振幅を算出し、算出した複数の第二フォルマントの周波数及び振幅から、複数の第二フォルマントの周波数及び振幅の標準偏差を特徴量として算出してもよい。
また、算出部120は、取得部110が取得した音声データから母音を抽出して算出した当該母音のスペクトルにおける所定時間ごとの複数の第二フォルマントの周波数及び振幅を算出し、算出した複数の第二フォルマントの周波数及び振幅の時間に対する変化量を特徴量として算出してもよい。
また、算出部120は、取得部110が取得した音声データから母音を抽出して算出した当該母音のスペクトルから第一フォルマントの周波数及び振幅と、第二フォルマントの周波数及び振幅とを複数の母音のそれぞれについて算出し、算出した第一フォルマントの周波数に対する算出した第二フォルマントの周波数と、算出した第一フォルマントの振幅に対する算出した第二フォルマントの振幅とを特徴量として算出してもよい。
第二フォルマントの周波数は、人の音声の低周波数側から数えて2番目に見られる振幅のピーク周波数であり、声帯音源が声道、唇や舌等の口腔、鼻腔等で生じる共鳴のうち、舌の位置に関する影響が反映されやすいことが知られている。また、認知症患者は、健常者と比較して舌やあごの位置を維持する運動機能が衰える場合が多い。そのため、第二フォルマントの周波数及び振幅には、健常者と認知症患者とで違いが生じやすいと考えられる。これにより、第二フォルマントの周波数及び振幅に関する量を特徴量として認知機能の評価に用いることで、より精度良く被評価者Uの認知機能は評価され得る。
第一フォルマントの周波数は、人の音声の低周波数側から数えて1番目に見られる振幅のピーク周波数であり、舌の動きに関する特徴が反映されやすいことが知られている。また、認知症患者は、健常者と比較して舌をうまく動かせない場合が多い。そのため、第一フォルマントの周波数は、健常者と認知症患者とで違いが生じやすいと考えられる。これにより、第二フォルマントの周波数及び振幅にあわせて第一フォルマントの周波数及び振幅に関する量を特徴量として認知機能の評価に用いることで、更に精度良く被評価者Uの認知機能は評価され得る。
また、算出部120は、出力部140が課題情報を出力してから取得部110が音声データを取得するまでの時間、音声の振幅の時間変化、及び、課題情報に対する正語の少なくとも一つを特徴量として算出してもよい。ここで、課題情報とは、表示装置400に表示される被評価者Uが発話する文章の情報を含む情報である。課題情報に含まれる文章は、例えば、早口言葉、ランダムに表示される複数の母音「え」「おえう」や「いあえお」等の被評価者Uが読み上げる文章でもよいし、都道府県名等の被評価者Uの記憶を問う文章でもよい。
評価部130は、算出部120が算出した特徴量と、記憶部150に記憶されている参照データ151とを照合し、被評価者Uの認知機能を評価する。評価部130は、具体的には、プロセッサ、マイクロコンピュータ、又は、専用回路によって実現される。なお、算出部120及び評価部130は、それぞれの機能を併せ持つ1つのプロセッサ、マイクロコンピュータ、又は、専用回路で実現されてもよいし、プロセッサ、マイクロコンピュータ、又は、専用回路のうちの2つ以上の組み合わせによって実現されてもよい。
出力部140は、評価部130が評価した被評価者Uの認知機能の評価結果を表示装置400へ出力する。出力部140は、例えば、有線通信又は無線通信を行う通信インターフェースである。
記憶部150は、特徴量と、人の認知機能との関係を示す参照データ151が記憶されている記憶装置である。参照データ151は、被評価者Uの認知機能の程度の評価が行われるときに評価部130によって参照される。記憶部150は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、半導体メモリ、HDD(Hard Disk Drive)等によって実現される。
また、記憶部150には、算出部120及び評価部130が実行するプログラム、及び、被評価者Uの認知機能の評価結果を出力する際に用いられる当該評価結果を示す画像データも記憶されている。
[認知機能評価方法の処理手順]
続いて、認知機能評価装置100が実行する認知機能評価方法における具体的な処理手順について説明する。
続いて、認知機能評価装置100が実行する認知機能評価方法における具体的な処理手順について説明する。
取得部110は、集音装置300を介して被評価者Uの音声データを取得する(ステップS101)。ステップS101において、例えば、被評価者Uは、「ありがとう」等の、「あ」、「い」、「う」、「え」、「お」のうち、複数の母音を含む単語を集音装置300に向けて発する。取得部110は、集音装置300を介して、被評価者Uが発した「ありがとう」等の音声を、音声データとして取得する。
次に、算出部120は、取得部110が取得した音声データから、複数の母音を抽出する(ステップS102)。ステップS102において、算出部120は、例えば、ステップS101で取得部110が取得した「ありがとう」等の音声データから、「あ」、「う」の母音を抽出する。
次に、算出部120は、ステップS102で抽出した複数の母音から、複数の母音それぞれの母音のスペクトルを算出し、算出した複数の母音のスペクトルから、複数の母音それぞれのフォルマントの周波数及び振幅に基づく特徴量を算出する(ステップS103)。ステップS103において、例えば、算出部120は、ステップS102で算出した複数の母音のスペクトルから、複数の母音それぞれにおける、最も周波数の低いフォルマントである第一フォルマントの周波数及び振幅と、第一フォルマントの次に周波数の低いフォルマントである第二フォルマントの周波数及び振幅とを算出する。なお、ステップS103において、算出部120は、第三フォルマントの周波数及び振幅、第四フォルマントの周波数及び振幅等を算出してもよい。
次に、評価部130は、ステップS103で算出部120が算出した複数の母音それぞれにおけるフォルマントの周波数及び振幅から、被評価者Uの認知機能を評価する(ステップS104)。ステップS104において、評価部130は、例えば、ステップS103で算出部120が算出した複数の母音それぞれにおけるフォルマントの周波数及び振幅に基づいた特徴量と、記憶部150に記憶された参照データ151とから、被評価者Uの認知機能を評価する。
次に、出力部140は、評価部130が評価した被評価者Uの認知機能の評価結果を出力する(ステップS105)。ステップS105において、出力部140は、例えば、ステップS104で評価部130が評価した評価結果に対応する画像を記憶部150から取得して、表示装置400へ取得した画像を送信する。
表示装置400は、出力部140が出力した画像を取得して、当該画像を表示させる。こうすることで、被評価者Uは、簡便に、認知機能の評価結果を確認することができる。
図4は、図3に示すステップS101において、取得部110が被評価者Uの音声データを取得する方法の一例を示す図である。
図4の(a)に示すように、医者D等は、被評価者Uへ「端末に文章が表示されるので、それを大きな声で話してもらえませんか?」というように声をかける。なお、医者Dが直接被評価者Uに説明してもよいし、録音した音声を被評価者Uに聞かせてもよいし、説明文を表示装置400に表示させてもよい。録音した音声を被評価者Uに聞かせる、又は、説明文を表示装置400に表示させる方法を用いることにより、被評価者Uの近くに医者Dがいなくても、被評価者Uは、認知機能評価装置100を用いて自身の認知機能を確認することができる。
次に、図4の(b)に示すように、表示装置400には、被評価者Uが話す課題情報である文章が含まれる画像410が表示される。画像410に含まれる文章は、複数の母音が含まれていればよく、文章の内容は、特に限定されない。図4の(b)には、「昨日の夕飯は、娘が作ってくれたカレーライス。美味しかった。ありがとう。」という文章が含まれる画像410を例示している。なお、画像410に含まれる文章は、母音以外の文字が含まれていてもよいし、含まれていなくてもよい。また、画像410に含まれる文章は、単語でもよい。
次に、図4の(c)に示すように、被評価者Uは、画像410に含まれる文章を発話する。図4に示す例においては、算出部120は、例えば、「ありがとう」の「あ」と「う」とを抽出する。
このように、被評価者Uが発話する文章を画像410に表示させることで、医者Dが当該文章を声で被評価者Uに伝える場合と比較して、被評価者Uの音声を検出する場合にノイズが入りにくくなる。
また、被評価者Uに対して被評価者Uが発話する文章が提示されてから、被評価者Uが発話するまでの時間を測定し、認知機能の評価に用いる場合がある。この場合、算出部120は、出力部140が課題情報(具体的には、図4の(b)に示す画像410)を出力してから取得部110が音声データを取得するまでの時間を特徴量として算出する。このように、被評価者Uが発話する文章を画像410に表示させることで、医者Dが当該文章を声で被評価者Uに伝える場合と比較して、被評価者Uに対して被評価者Uが発話する文章が提示されてから、被評価者Uが発話するまでの時間が正確に測定しやすくなる。
図5は、被評価者Uが発話した音声を示す音声データの一例を示す図である。具体的には、図5は、被評価者Uが「ありがとう」と発話した場合の音声データを示すグラフである。図5に示すグラフの横軸は時間であり、縦軸は振幅である。
図5に示すように、グラフには、「あ」、「り」、「が」、「と」、「う」に対応する音圧の変化が確認される。取得部110は、ステップS101(図3参照)において、被評価者Uから音声データとして、図5に示すデータを取得する。算出部120は、例えば、ステップS102(図3参照)において、既知の方法により、図5に示す音声データから、母音である「あ」、「う」を抽出する。より具体的には、算出部120は、ステップS102(図3参照)において、既知の方法により、図5に示す音声データから、母音である「あ」を示す音声データの抽出範囲Wを抽出する。
また、被評価者Uに対して被評価者Uが発話する文章が提示されてから、被評価者Uが発話するまでの時間である経過時間tを測定し、認知機能の評価に用いる場合がある。この場合、算出部120は、出力部140が課題情報を出力した時刻である表示時刻t1と、取得部110が音声データを取得した時刻である発話時刻t2とから、経過時間tを算出する。なお、出力部140が課題情報を出力した時刻と、表示装置400が課題情報を表示した時刻には、時間差が生じることが想定される。この場合、表示時刻t1として、出力部140が課題情報を出力した時刻が採用されてもよいし、表示装置400が課題情報を表示した時刻が採用されてもよい。予め当該時間差が分かっている場合には、表示時刻t1として、出力部140が課題情報を出力した時刻を当該時間差で補正した時刻を採用してもよい。
なお、認知機能評価装置100は、時間を測定するために、RTC(Real Time Clock)等の計時部を備えてもよい。
図6は、音声データから算出部120が算出するフォルマントの周波数を説明するための図である。具体的には、図6は、図5に示す音声データを、横軸を周波数に変換して得られる母音のスペクトルを示すグラフである。なお、図6の縦軸は、振幅である。
図6に破線で示すように、音声データの横軸を周波数に変換して得られるデータには、複数のピークが確認される。複数のピークのうち、周波数の最も低いピークの周波数は、第一フォルマントの周波数F1である。また、第一フォルマントの周波数F1の次に周波数の低いピークの周波数は、第二フォルマントの周波数F2である。また、第二フォルマントの周波数F2の次に周波数の低いピークの周波数は、第三フォルマントの周波数F3である。このように、算出部120は、取得部110が取得した音声データから既知の方法により母音の部分を抽出して、抽出した母音の部分の音声データを、周波数に対する振幅にデータ変換することにより母音のスペクトルを算出して、フォルマントの周波数を算出する。また、フォルマントの振幅とは、例えば、図6に示す各フォルマントの周波数におけるピーク強度である。
なお、図6に示すグラフは、図5に示す音声データを回帰分析することにより算出される。回帰分析には、例えば、ケプストラム分析、線形予測分析(Linear Predictive Coding:LPC)等が採用される。
図7は、音声データから算出部120が算出するフォルマントの周波数の時間変化の一例を示す図である。具体的には、図7は、第一フォルマントの周波数F1と、第二フォルマントの周波数F2と、第三フォルマントの周波数F3との周波数の時間変化の一例を説明するためのグラフである。
例えば、被評価者Uが発する「あ」等の母音を、数秒間発する。認知機能評価装置100は、被評価者Uが発した音声を、60msec等の所定の時間間隔ごとに分割し、分割した時間間隔ごとのそれぞれにおいて、フォルマントの周波数を算出する。こうすることで、算出部120は、フォルマントの周波数の時間に対する変化量、標準偏差等を算出する。なお、所定の時間間隔は、任意に設定されてよく、例えば、60msec未満でもよいし、60msecより長くてもよい。また、標準偏差を算出する際の時間の幅もまた、任意に設定されてよい。また、フォルマントの振幅の時間変化は、フォルマントの周波数を算出する際に、あわせて算出すればよい。
ところで、認知症の診断は、認知症の診断のためのバッチテストであるMoCAテストを被評価者Uが受けることにより、被評価者Uが認知症であるかどうかを特定することができる。図8は、被評価者UがMoCAテストを受けた際に獲得したスコアを示す図である。
本発明者らは、健常者(NC:Normal Control)、軽度の認知症患者(MCI:Mild Cognitive Inpairment)及び認知症患者(AD)を含む複数の被評価者を集めて、MoCAテストを実施した。NCの被評価者数(Number of subjects)は90人とし、MCIの被評価者数は94人とし、ADの被評価者数は93人とした。
図8から、NC、MCI及びADとでMoCAのスコアの平均値(MoCA average score)及びスコアの範囲(MoCA score range)が異なることが確認できる。具体的には、NCのMoCAのスコアの平均値は27.4であり、MCIのMoCAのスコアの平均値は22.1であり、ADのMoCAのスコアの平均値は16.2であった。このように得られるMoCAテスト等の結果と、第一フォルマントの周波数F1、第二フォルマントの周波数F2等の被評価者Uの特徴量との相関を参照データ151として用いることで、認知機能評価装置100は、被評価者Uの音声と参照データ151とから、被評価者Uの認知機能を評価することができる。
図9は、参照データ151と、算出部120が算出した音声データの特徴量との関係の一例を説明するための図である。
記憶部150には、参照データ151として、例えば、第一フォルマントの周波数F1と第二フォルマントの周波数F2との比に対して、認知機能がNCか、MCIか、ADかの対応を示すデータが記憶されている。図9では、例えば、被評価者Uの特徴量である第一フォルマントの周波数F1と第二フォルマントの周波数F2との比率が、破線で示すグラフの範囲Aの内側にある場合には、評価部130は、被評価者UがMCIであると評価する例を示す。例えば、算出部120が算出した被評価者Uの特徴量が図9に示す特徴量Rであった場合、評価部130は、特徴量Rが範囲Aに含まれているか否かを判定し、含まれている場合、被評価者Uの認知機能をMCIと判定する。
図10は、表示装置400に表示される認知機能が低下していることを示す画像の一例を示す図である。
表示装置400は、評価部130が評価した評価結果として、図10に示されるような画像420を表示する。画像420は、例えば、評価部130が被評価者Uの認知機能をMCIと評価した場合に表示する画像の一例である。このように、表示装置400は、評価部130が評価した評価結果を画像として表示する。こうすることで、例えば、被評価者Uが自宅等で認知機能評価装置100を用いて認知機能を評価している場合には、認知機能評価装置100は、被評価者Uに対して医者等の診察を促すことが可能である。
[効果等]
以上、実施の形態に係る認知機能評価装置100は、取得部110と、算出部120と、評価部130と、出力部140とを備える。取得部110は、被評価者Uが発する音声を示す音声データを取得する。算出部120は、取得部110が取得した音声データから複数の母音を抽出し、複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する。評価部130は、算出部120が算出した特徴量から被評価者Uの認知機能を評価する。出力部140は、評価部130が評価した評価結果を出力する。
以上、実施の形態に係る認知機能評価装置100は、取得部110と、算出部120と、評価部130と、出力部140とを備える。取得部110は、被評価者Uが発する音声を示す音声データを取得する。算出部120は、取得部110が取得した音声データから複数の母音を抽出し、複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する。評価部130は、算出部120が算出した特徴量から被評価者Uの認知機能を評価する。出力部140は、評価部130が評価した評価結果を出力する。
これにより、認知機能評価装置100は、被評価者Uが発話した音声から、被評価者Uの音声データからフォルマントの周波数及び振幅を特徴量として算出する。フォルマントの周波数及び振幅は、NCとMCIとADとで、特徴が異なることが考えられる。そのため、認知機能評価装置100によれば、機械学習等による多量のデータを分析及び蓄積が必要なく、簡便に且つ精度良く被評価者Uの認知機能の評価が可能となる。また、複数の母音を評価の対象とすることにより、より精度良く被評価者Uの認知機能の評価が可能となる。
例えば、算出部120は、1以上のフォルマントの周波数及び振幅として、第二フォルマントの周波数F2及び振幅を特徴量として算出してもよい。
第二フォルマントの周波数F2は、人の音声の低周波数側から数えて2番目に見られる振幅のピーク周波数であり、声帯音源が声道、唇や舌等の口腔、鼻腔等で生じる共鳴のうち、舌の位置に関する影響が反映されやすいことが知られている。また、例えば、ADは、舌やあごの位置を維持する運動機能が衰える場合が多いと考えられる。そのため、第二フォルマントの周波数F2及び振幅には、NCとADとで違いが生じやすいと考えられる。これにより、第二フォルマントの周波数F2及び振幅に関する量を特徴量として認知機能の評価に用いることで、より精度良く被評価者Uの認知機能の評価が可能となる。
また、例えば、算出部120は、1以上のフォルマントの周波数として、音声データから算出されるスペクトルにおける所定時間ごとの複数の第二フォルマントの周波数F2及び振幅を算出し、算出した複数の第二フォルマントの周波数F2及び振幅から、第二フォルマントの周波数F2及び振幅の標準偏差を特徴量として算出してもよい。
上記のように、例えば、ADは、舌やあごの位置を維持する運動機能が衰える場合が多いと考えられる。そのため、ADは、NCと比較して、発する音声が安定しにくいことが考えられる。つまり。ADは、NCと比較して、発する音声がばらつくために、第二フォルマントの周波数F2及び振幅の標準偏差が大きくなることが考えられる。これにより、第二フォルマントの周波数F2及び振幅の標準偏差を特徴量として認知機能の評価に用いることで、より精度良く被評価者Uの認知機能の評価が可能となる。
また、例えば、算出部120は、1以上のフォルマントの周波数として、音声データから算出されるスペクトルにおける所定時間ごとの複数の第二フォルマントの周波数F2及び振幅を算出し、算出した複数の第二フォルマントの周波数F2及び振幅の時間に対する変化量を特徴量として算出してもよい。
上記のように、例えば、ADは、舌やあごの位置を維持する運動機能が衰える場合が多いと考えらえる。そのため、ADは、NCと比較して、発する音声が安定しにくいことが考えられる。つまり。ADは、NCと比較して、発する音声がばらつくために、第二フォルマントの周波数F2及び振幅の時間変化が大きくなることが考えられる。これにより、第二フォルマントの周波数F2及び振幅の時間に対する変化量を特徴量として認知機能の評価に用いることで、より精度良く被評価者Uの認知機能の評価が可能となる。
また、例えば、算出部120は、1以上のフォルマントの周波数及び振幅として、音声データから算出されるスペクトルから第一フォルマントの周波数F1及び振幅と第二フォルマントの周波数F2及び振幅とを算出してもよい。さらに、算出部120は、算出した第一フォルマントの周波数F1に対する第二フォルマントの周波数F2と、第一フォルマントの振幅に対する第二フォルマントの振幅とを特徴量として算出してもよい。
第一フォルマントの周波数F1は、人の音声の低周波数側から数えて1番目に見られる振幅のピーク周波数であり、舌の動きに関する特徴が反映されやすいことが知られている。また、ADは、NCと比較して舌をうまく動かせない場合が多い。そのため、第一フォルマントの周波数F1及び振幅は、NCとADとで違いが生じやすいと考えられる。また、フォルマントの周波数及び振幅には、個人差が生じることが推定される。さらに、第一フォルマントの周波数F1及び振幅と第二フォルマントの周波数F2及び振幅とには、個人ごとに相関がみられることが推定される。そのため、第一フォルマントの周波数F1に対する第二フォルマントの周波数F2、及び、第一フォルマントの振幅に対する第二フォルマントの振幅を特徴量として認知機能の評価に用いることで、個人差を抑制して更に精度良く被評価者Uの認知機能の評価が可能となる。
また、例えば、認知機能評価装置100は、人の特徴量に関する情報と、人の認知機能との関係を示す参照データ151が記憶された記憶部150をさらに備えてもよい。評価部130は、被評価者Uの特徴量と記憶部150に記憶されている参照データ151とを照合することにより、被評価者Uの認知機能を評価してもよい。
これにより、認知機能評価装置100は、取得した音声データからフォルマントの周波数及び振幅に基づいた特徴量を算出し、算出した特徴量と参照データ151とを照合することで、被評価者Uの認知機能を評価することができる。そのため、認知機能評価装置100によれば、機械学習等による多量のデータを分析及び蓄積が必要なく、簡便に且つ精度良く被評価者Uの認知機能の評価が可能となる。
また、例えば、出力部140は、被評価者Uに特定の音声を発せさせるための課題情報を出力してもよい。また、算出部120は、さらに、出力部140が課題情報を出力してから取得部110が音声データを取得するまでの時間、音声データが示す振幅の時間変化、及び、課題情報に対する正誤の少なくとも一つを特徴量として算出してもよい。
ADは、NCと比較して、反応速度が低下している場合が多い。そのため、課題情報が表示装置400に提示されてから発話するまでに、NCとADとで違いが生じやすいと考えられる。これにより、課題情報が表示装置400に表示されてから発話までの時間をさらに特徴量として認知機能の評価に用いることで、更に精度良く被評価者Uの認知機能の評価が可能となる。
また、ADは、NCと比較して、舌やあご等の口の周りの筋肉をうまく動かせない場合が多い。そのため、ADは、NCと比較して振幅が安定しないことが考えられる。これにより、フォルマントの周波数にあわせて被評価者の振幅の時間変化を特徴量として認知機能の評価に用いることで、更に精度良く被評価者Uの認知機能の評価が可能となる。
また、ADは、NCと比較して、簡単な問題に対しても答えを間違える可能性が高いことが考えられる。そのため、課題情報に含まれる文章を、正誤を問う問題(クイズ)とし、その正誤も合わせて特徴量として認知機能の評価に用いることで、更に精度良く被評価者Uの認知機能の評価が可能となる。
また、実施の形態に係る認知機能評価システム200は、認知機能評価装置100と、被評価者の音声を検出して、検出した音声を示す音声データを取得部110に出力する集音装置300と、出力部140が出力した評価結果を表示する表示装置400とを備える。
これにより、認知機能評価装置200は、集音装置300によって被評価者Uの音声を検出し、認知機能評価装置100によって被評価者Uの認知機能を評価し、表示装置400によって当該評価結果を表示できる。つまり、認知機能評価システム200によれば、機械学習等による多量のデータを分析及び蓄積が必要なく、簡便に且つ精度良く被評価者Uの認知機能の評価が可能となる。
また、実施の形態に係る認知機能評価方法は、被評価者Uが発する音声を示す音声データを取得する取得ステップと、取得ステップで取得された音声データから複数の母音を抽出し、複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出ステップと、算出ステップで算出された特徴量から被評価者の認知機能を評価し、評価結果を出力する評価ステップとを含む。
これにより、実施の形態に係る認知機能評価方法によれば、被評価者Uが発話した音声から、被評価者Uの特徴量としてフォルマントの周波数及び振幅が算出される。フォルマントの周波数及び振幅は、NCとMCIとADとで、特徴が異なることが考えられる。そのため、実施の形態に係る認知機能評価方法によれば、機械学習等による多量のデータを分析及び蓄積が必要なく、簡便に且つ精度良く被評価者Uの認知機能の評価が可能となる。
また、認知機能評価方法は、認知機能評価方法に含まれるステップをコンピュータに実行させるプログラムとして実現されてもよい。
これにより、実施の形態に係る認知機能評価方法は、コンピュータを用いて簡便に実行され得る。
(変形例)
続いて、実施の形態の変形例1及び変形例2に係る認知機能評価システムについて説明する。なお、実施の形態と同一の構成に関しては同一の符号を付しており、重複する説明は省略又は簡略化する場合がある。
続いて、実施の形態の変形例1及び変形例2に係る認知機能評価システムについて説明する。なお、実施の形態と同一の構成に関しては同一の符号を付しており、重複する説明は省略又は簡略化する場合がある。
図11は、実施の形態の変形例1に係る認知機能評価システムの構成を示す図である。
実施の形態の変形例1に係る認知機能評価システム200aは、実施の形態に係る認知機能評価システム200と同様に、認知機能評価装置100と、集音装置300と、表示装置400とを備える。認知機能評価システム200は、例えば、集音装置300を覆うように、ポップガード320を備えてもよい。
また、認知機能評価システム200aでは、指向性を有する集音装置300が採用されている。ここで、集音装置300及び表示装置400は、集音装置300が最大感度を示す方向(図11に示す集音方向V2)と表示装置400が課題情報を表示する表示面401の法線方向V1とが一致するように配置されている。具体的には、法線方向V1と集音方向V2とが平行となるように、集音装置300及び表示装置400は、机等の固定物に配置されている。なお、集音装置300及び表示装置400は、造営材などに固定されてもよい。また、認知機能評価システム200aは、集音装置300及び表示装置400の位置関係を固定するための固定具を備えてもよい。
こうすることで、被評価者Uが表示装置400を見ながら発話した場合においても、集音方向V2と、発話する方向とが一致しやすくなる。そのため、認知機能評価システム200aのような位置関係とすることで、集音装置300は、被評価者Uの音声を正確に検出しやすくなる。
続いて、実施の形態の変形例2に係る認知機能評価システムについて説明する。
図12は、実施の形態の変形例2に係る認知機能評価システムの構成を示す図である。
実施の形態の変形例2に係る認知機能評価システム200bは、実施の形態に係る認知機能評価システム200と同様に、認知機能評価装置100と、集音装置300aと、表示装置400とを備える。
集音装置300aは集音装置300と同様に、被評価者Uが発した音声を検出して、検出した音声を示す音声データを認知機能評価装置100へ出力するマイクである。また、集音装置300aは、実施の形態1に係る認知機能評価システム200における集音装置300と同様に、指向性を有する。
認知機能評価システム200bにおいては、集音装置300aと表示装置400とが一体として形成されている。具体的には、集音装置300aと表示装置400とは、同一の筐体に配置されている。集音装置300aと表示装置400とを一体に形成する製造工程において、法線方向V1と集音方向V2とを一致するように形成しておけば、被評価者Uが認知機能評価システム200bを利用する際に、法線方向V1及び集音方向V2がずれることが抑制される。
(その他の実施の形態)
以上、実施の形態、及び実施の形態の変形例1及び変形例2に係る認知機能評価システム等について説明したが、本発明は、上記実施の形態に限定されるものではない。
以上、実施の形態、及び実施の形態の変形例1及び変形例2に係る認知機能評価システム等について説明したが、本発明は、上記実施の形態に限定されるものではない。
上記実施の形態では、認知機能評価装置は、認知機能の評価の一具体例として、NDかMCIかADかの評価をした。しかしながら、認知機能評価装置は、NDかMCIかADかの評価に限定されない。例えば、被評価者Uの酩酊の度合いが評価されてもよい。
また、上記実施の形態では、認知機能の低下の症状の一具体例として、アルツハイマー型認知症が挙げられた。しかしながら、認知機能とは、認識したり、記憶したり、判断したりする能力を示し、認知症とは、上述した認知機能の低下が見られる症状を示す。つまり、認知機能評価装置が評価する認知機能の程度は、アルツハイマー型認知症に限定されず、例えば、血管性認知症などでもよい。
また、上記実施の形態では、被評価者Uの認知機能の程度を評価するために、MoCAテストのスコアとフォルマントの特徴量との関係性を示すデータを参照データ151として予め記憶部150が記憶している。しかしながら、参照データは、フォルマントの特徴量と照合することで認知機能の程度の評価をすることができるデータであればよく、MoCAテストとフォルマントの特徴量との関係性を示すデータに限定されない。例えば、参照データは、MMSE(Mini−Mental State Examination:ミニメンタルステート検査)等のスコアとフォルマントの周波数等の特徴量との関係を示すデータでもよい。
また、本発明は、認知機能評価装置が実行するステップをコンピュータに実行させるプログラムとして実現されてもよい。また、本発明は、そのプログラムを記録したコンピュータによって読み取り可能なCD−ROM等の記録媒体として実現されてもよい。また、本発明は、そのプログラムを示す情報、データ又は信号として実現されてもよい。そして、それらプログラム、情報、データ及び信号は、インターネット等の通信ネットワークを介して配信されてもよい。
また、被評価者が発話する文章が外国語の場合、「a」、「i」、「u」、「e」、「o」等を含む音声から、フォルマントの周波数が算出されればよい。
また、上記実施の形態では、被評価者から得られる音声データのみを特徴量として算出して被評価者の認知機能を評価したが、他の既知の認知機能を評価できるデータを組み合わせて評価を実施してもよい。例えば、認知機能と歩幅、歩隔、歩行速度等の歩行に関する歩行データとには、相関があることが知られている。上記実施の形態で評価された被評価者の音声データと、被評価者の歩行データとを組み合わせて認知機能の評価に用いることで、より精度良く被評価者の認知機能は評価され得る。
また、上記実施の形態では、算出部に算出される特徴量を複数例示した。評価部は、算出部によって算出された複数の異なる特徴量から、被評価者の認知機能を評価してもよい。また、評価部は、それぞれの特徴量に対して重み付けを実行して、被評価者の認知機能を評価してもよい。評価部が実行する重み付けで用いられる係数は、任意に定められてよい。
その他、各実施の形態に対して当業者が思いつく各種変形を施して得られる形態、又は、本発明の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態も本発明に含まれる。
100 認知機能評価装置
110 取得部
120 算出部
130 評価部
140 出力部
150 記憶部
151 参照データ
200、200a、200b 認知機能評価システム
300、300a 集音装置
400 表示装置
401 表示面
F1 第一フォルマントの周波数
F2 第二フォルマントの周波数
R 特徴量
t 経過時間
U 被評価者
V1 法線方向
V2 集音方向
110 取得部
120 算出部
130 評価部
140 出力部
150 記憶部
151 参照データ
200、200a、200b 認知機能評価システム
300、300a 集音装置
400 表示装置
401 表示面
F1 第一フォルマントの周波数
F2 第二フォルマントの周波数
R 特徴量
t 経過時間
U 被評価者
V1 法線方向
V2 集音方向
Claims (11)
- 被評価者が発する音声を示す音声データを取得する取得部と、
前記取得部が取得した前記音声データから複数の母音を抽出し、前記複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出部と、
前記算出部が算出した前記特徴量から前記被評価者の認知機能を評価する評価部と、
前記評価部が評価した評価結果を出力する出力部とを備える
認知機能評価装置。 - 前記算出部は、前記1以上のフォルマントの周波数及び振幅として、第二フォルマントの周波数及び振幅を前記特徴量として算出する
請求項1に記載の認知機能評価装置。 - 前記算出部は、前記1以上のフォルマントの周波数及び振幅として、前記スペクトルにおける所定時間ごとの複数の第二フォルマントの周波数及び振幅を算出し、
算出した前記複数の第二フォルマントの周波数及び振幅から、第二フォルマントの周波数及び振幅の標準偏差を前記特徴量として算出する
請求項1に記載の認知機能評価装置。 - 前記算出部は、前記1以上のフォルマントの周波数及び振幅として、前記スペクトルにおける所定時間ごとの複数の第二フォルマントの周波数及び振幅を算出し、
算出した前記複数の第二フォルマントの周波数及び振幅の時間に対する変化量を前記特徴量として算出する
請求項1に記載の認知機能評価装置。 - 前記算出部は、前記1以上のフォルマントの周波数及び振幅として、前記スペクトルから第一フォルマントの周波数及び振幅と第二フォルマントの周波数及び振幅とを算出し、
算出した前記第一フォルマントの周波数に対する前記第二フォルマントの周波数と、前記第一フォルマントの振幅に対する前記第二フォルマントの振幅とを前記特徴量として算出する
請求項1に記載の認知機能評価装置。 - さらに、人の前記特徴量に関する情報と、前記人の認知機能との関係を示す参照データが記憶された記憶部を備え、
前記評価部は、前記被評価者の前記特徴量と前記記憶部に記憶されている前記参照データとを照合することにより、前記被評価者の認知機能を評価する
請求項1〜5のいずれか1項に記載の認知機能評価装置。 - 前記出力部は、前記被評価者に特定の音声を発せさせるための課題情報を出力し、
前記算出部は、さらに、前記出力部が前記課題情報を出力してから前記取得部が前記音声データを取得するまでの時間、前記音声データが示す振幅の時間変化、及び、前記課題情報に対する正誤の少なくとも一つを前記特徴量として算出する
請求項1〜6のいずれか1項に記載の認知機能評価装置。 - 請求項1〜7のいずれか1項に記載の認知機能評価装置と、
前記被評価者の音声を検出する集音装置と、
前記出力部が出力した評価結果を表示する表示装置とを備える
認知機能評価システム。 - 前記集音装置は、指向性を有し、
前記集音装置が最大感度を示す方向と前記表示装置の表示面の法線方向とが一致するように、前記集音装置及び前記表示装置は配置されている
請求項8に記載の認知機能評価システム。 - 被評価者が発する音声を示す音声データを取得する取得ステップと、
前記取得ステップで取得された前記音声データから複数の母音を抽出し、前記複数の母音のそれぞれについて、当該母音のスペクトルから得られる1以上のフォルマントの周波数及び振幅に基づいた特徴量を算出する算出ステップと、
前記算出ステップで算出された前記特徴量から前記被評価者の認知機能を評価し、評価結果を出力する評価ステップとを含む
認知機能評価方法。 - 請求項10に記載の認知機能評価方法をコンピュータに実行させるための
プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017163795A JP6312014B1 (ja) | 2017-08-28 | 2017-08-28 | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム |
CN201880049623.4A CN110958859B (zh) | 2017-08-28 | 2018-07-20 | 认知能力评估装置、认知能力评估系统、认知能力评估方法及存储介质 |
PCT/JP2018/027230 WO2019044255A1 (ja) | 2017-08-28 | 2018-07-20 | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム |
US16/634,863 US11766209B2 (en) | 2017-08-28 | 2018-07-20 | Cognitive function evaluation device, cognitive function evaluation system, and cognitive function evaluation method |
TW107125849A TWI666633B (zh) | 2017-08-28 | 2018-07-26 | Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017163795A JP6312014B1 (ja) | 2017-08-28 | 2017-08-28 | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6312014B1 JP6312014B1 (ja) | 2018-04-18 |
JP2019040143A true JP2019040143A (ja) | 2019-03-14 |
Family
ID=61968199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017163795A Active JP6312014B1 (ja) | 2017-08-28 | 2017-08-28 | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11766209B2 (ja) |
JP (1) | JP6312014B1 (ja) |
CN (1) | CN110958859B (ja) |
TW (1) | TWI666633B (ja) |
WO (1) | WO2019044255A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020208889A1 (ja) * | 2019-04-10 | 2020-10-15 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020013302A1 (ja) * | 2018-07-13 | 2020-01-16 | 株式会社生命科学インスティテュート | 精神・神経系疾患の推定システム、推定プログラムおよび推定方法 |
CN109493968A (zh) * | 2018-11-27 | 2019-03-19 | 科大讯飞股份有限公司 | 一种认知评估方法及装置 |
US11133026B2 (en) * | 2019-01-04 | 2021-09-28 | International Business Machines Corporation | Natural language processor for using speech to cognitively detect and analyze deviations from a baseline |
JP7241321B2 (ja) * | 2019-03-26 | 2023-03-17 | パナソニックIpマネジメント株式会社 | 認知機能検査方法、プログラム、及び認知機能検査システム |
EP3952745A1 (en) * | 2019-04-10 | 2022-02-16 | Genting Taurx Diagnostic Centre SDN BHD | Adaptive neurological testing method |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240394A (ja) * | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム |
JP2007282992A (ja) * | 2006-04-19 | 2007-11-01 | Sky Kk | 認知症診断支援システム |
JP2009089800A (ja) * | 2007-10-04 | 2009-04-30 | Tottori Univ | 痴呆症診断装置及び痴呆症診断プログラム |
JP4876207B2 (ja) * | 2010-06-11 | 2012-02-15 | 国立大学法人 名古屋工業大学 | 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム |
JP2013246459A (ja) * | 2012-05-23 | 2013-12-09 | Sharp Corp | 認知症問診支援装置 |
US20150112232A1 (en) * | 2013-10-20 | 2015-04-23 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
US20170032804A1 (en) * | 2014-01-24 | 2017-02-02 | Foundation Of Soongsil University-Industry Cooperation | Method for determining alcohol consumption, and recording medium and terminal for carrying out same |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070111173A1 (en) * | 2004-01-13 | 2007-05-17 | Posit Science Corporation | Method for modulating listener attention toward synthetic formant transition cues in speech stimuli for training |
US8938390B2 (en) | 2007-01-23 | 2015-01-20 | Lena Foundation | System and method for expressive language and developmental disorder assessment |
KR100634526B1 (ko) * | 2004-11-24 | 2006-10-16 | 삼성전자주식회사 | 포만트 트래킹 장치 및 방법 |
US8014853B2 (en) * | 2005-05-11 | 2011-09-06 | Northwestern University | Neurophysiological central auditory processing evaluation system and method |
JP2007114631A (ja) | 2005-10-24 | 2007-05-10 | Takuya Shinkawa | 情報処理装置、情報処理方法、およびプログラム |
US20070134635A1 (en) * | 2005-12-13 | 2007-06-14 | Posit Science Corporation | Cognitive training using formant frequency sweeps |
US20090099848A1 (en) * | 2007-10-16 | 2009-04-16 | Moshe Lerner | Early diagnosis of dementia |
JP2011502564A (ja) * | 2007-11-02 | 2011-01-27 | シーグベルト ワーケンチン, | 発語分析による加齢脳および脳疾患によって誘発された脳機能障害の評価のためのシステムおよび方法 |
US8401849B2 (en) * | 2008-12-18 | 2013-03-19 | Lessac Technologies, Inc. | Methods employing phase state analysis for use in speech synthesis and recognition |
US8976973B2 (en) * | 2010-06-18 | 2015-03-10 | Panasonic Intellectual Property Corporation Of America | Sound control device, computer-readable recording medium, and sound control method |
TWI403304B (zh) * | 2010-08-27 | 2013-08-01 | Ind Tech Res Inst | 隨身語能偵知方法及其裝置 |
WO2012165602A1 (ja) | 2011-05-31 | 2012-12-06 | 国立大学法人名古屋工業大学 | 認知機能障害判別装置、認知機能障害判別システム、およびプログラム |
WO2013008471A1 (ja) * | 2011-07-14 | 2013-01-17 | パナソニック株式会社 | 声質変換システム、声質変換装置及びその方法、声道情報生成装置及びその方法 |
US20130158434A1 (en) * | 2011-12-20 | 2013-06-20 | Delta Electronics, Inc. | Apparatus for voice assisted medical diagnosis |
US20140073993A1 (en) * | 2012-08-02 | 2014-03-13 | University Of Notre Dame Du Lac | Systems and methods for using isolated vowel sounds for assessment of mild traumatic brain injury |
US20170150907A1 (en) * | 2015-02-04 | 2017-06-01 | Cerebral Assessment Systems, LLC | Method and system for quantitative assessment of visual motor response |
US10127929B2 (en) * | 2015-08-19 | 2018-11-13 | Massachusetts Institute Of Technology | Assessing disorders through speech and a computational model |
US10588536B2 (en) * | 2016-02-04 | 2020-03-17 | Northwestern University | Methods and systems for identifying non-penetrating brain injuries |
US10475530B2 (en) * | 2016-11-10 | 2019-11-12 | Sonde Health, Inc. | System and method for activation and deactivation of cued health assessment |
-
2017
- 2017-08-28 JP JP2017163795A patent/JP6312014B1/ja active Active
-
2018
- 2018-07-20 CN CN201880049623.4A patent/CN110958859B/zh active Active
- 2018-07-20 WO PCT/JP2018/027230 patent/WO2019044255A1/ja active Application Filing
- 2018-07-20 US US16/634,863 patent/US11766209B2/en active Active
- 2018-07-26 TW TW107125849A patent/TWI666633B/zh not_active IP Right Cessation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004240394A (ja) * | 2002-12-12 | 2004-08-26 | Sense It Smart Corp | 話者音声解析システムおよびこれに用いるサーバ装置、話者音声の解析を利用した健康診断方法、話者音声解析プログラム |
JP2007282992A (ja) * | 2006-04-19 | 2007-11-01 | Sky Kk | 認知症診断支援システム |
JP2009089800A (ja) * | 2007-10-04 | 2009-04-30 | Tottori Univ | 痴呆症診断装置及び痴呆症診断プログラム |
JP4876207B2 (ja) * | 2010-06-11 | 2012-02-15 | 国立大学法人 名古屋工業大学 | 認知機能障害危険度算出装置、認知機能障害危険度算出システム、及びプログラム |
JP2013246459A (ja) * | 2012-05-23 | 2013-12-09 | Sharp Corp | 認知症問診支援装置 |
US20150112232A1 (en) * | 2013-10-20 | 2015-04-23 | Massachusetts Institute Of Technology | Using correlation structure of speech dynamics to detect neurological changes |
US20170032804A1 (en) * | 2014-01-24 | 2017-02-02 | Foundation Of Soongsil University-Industry Cooperation | Method for determining alcohol consumption, and recording medium and terminal for carrying out same |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020208889A1 (ja) * | 2019-04-10 | 2020-10-15 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム |
JPWO2020208889A1 (ja) * | 2019-04-10 | 2021-12-16 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム |
JP7296595B2 (ja) | 2019-04-10 | 2023-06-23 | パナソニックIpマネジメント株式会社 | 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム |
Also Published As
Publication number | Publication date |
---|---|
TW201913648A (zh) | 2019-04-01 |
WO2019044255A1 (ja) | 2019-03-07 |
US20200229752A1 (en) | 2020-07-23 |
TWI666633B (zh) | 2019-07-21 |
CN110958859B (zh) | 2023-06-30 |
CN110958859A (zh) | 2020-04-03 |
US11766209B2 (en) | 2023-09-26 |
JP6312014B1 (ja) | 2018-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6337362B1 (ja) | 認知機能評価装置、及び、認知機能評価システム | |
JP6312014B1 (ja) | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム | |
JP6268628B1 (ja) | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム | |
WO2020013302A1 (ja) | 精神・神経系疾患の推定システム、推定プログラムおよび推定方法 | |
KR102314213B1 (ko) | 인공지능 기술을 활용한 경도 인지 장애 감지 방법 및 장치 | |
JP7022921B2 (ja) | 認知機能評価装置、認知機能評価システム、認知機能評価方法及びプログラム | |
US20210186370A1 (en) | Automated and objective symptom severity score | |
JP2021110895A (ja) | 難聴判定装置、難聴判定システム、コンピュータプログラム及び認知機能レベル補正方法 | |
JP7307507B2 (ja) | 病態解析システム、病態解析装置、病態解析方法、及び病態解析プログラム | |
JP6639857B2 (ja) | 聴力検査装置、聴力検査方法および聴力検査プログラム | |
JP7296595B2 (ja) | 認知機能評価装置、認知機能評価システム、認知機能評価方法、及び、プログラム | |
HU231329B1 (hu) | Eljárás, adatfeldolgozó rendszer, számítógépes programtermék és számítógéppel olvasható tárolóegység neurokognitív zavar automatizált felismerésére | |
Toledo-Ronen et al. | Emotion Detection for Dementia Patients Monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180308 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6312014 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |