JP2021058573A - Cognitive function prediction device, cognitive function prediction method, program and system - Google Patents
Cognitive function prediction device, cognitive function prediction method, program and system Download PDFInfo
- Publication number
- JP2021058573A JP2021058573A JP2020150612A JP2020150612A JP2021058573A JP 2021058573 A JP2021058573 A JP 2021058573A JP 2020150612 A JP2020150612 A JP 2020150612A JP 2020150612 A JP2020150612 A JP 2020150612A JP 2021058573 A JP2021058573 A JP 2021058573A
- Authority
- JP
- Japan
- Prior art keywords
- user
- feature data
- unit
- cognitive function
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003920 cognitive function Effects 0.000 title claims abstract description 192
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000005259 measurement Methods 0.000 claims abstract description 65
- 208000024891 symptom Diseases 0.000 claims abstract description 65
- 238000000605 extraction Methods 0.000 claims abstract description 49
- 230000005540 biological transmission Effects 0.000 claims abstract description 47
- 208000010877 cognitive disease Diseases 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 23
- 230000006999 cognitive decline Effects 0.000 claims description 22
- 230000001815 facial effect Effects 0.000 claims description 15
- 238000007477 logistic regression Methods 0.000 claims description 11
- 238000012706 support-vector machine Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 7
- 206010012289 Dementia Diseases 0.000 description 52
- 238000012795 verification Methods 0.000 description 22
- 230000007423 decrease Effects 0.000 description 21
- 230000006866 deterioration Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 13
- 230000035484 reaction time Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 230000000877 morphologic effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 239000000945 filler Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000007787 long-term memory Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 208000024827 Alzheimer disease Diseases 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 230000032683 aging Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000010855 neuropsychological testing Methods 0.000 description 3
- 208000028698 Cognitive impairment Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000008717 functional decline Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000008897 memory decline Effects 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002610 neuroimaging Methods 0.000 description 1
- 230000003557 neuropsychological effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 230000035882 stress Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、認知機能予測装置、認知機能予測方法、プログラム及びシステムに関する。 The present invention relates to a cognitive function prediction device, a cognitive function prediction method, a program and a system.
近年、先進国では高齢化が進んでおり、特に日本の高齢化率(総人口の占める65歳以上人口の割合)は、厚生労働省の調査によると、2017年に27.5%となり、超高齢社会に突入している。今後も高齢化率は増加すると考えられており、高齢者の医療対策が重要な課題になっている。そのうちの一つに、認知症が挙げられる。認知症とは、記憶、思考、および行動などの認知機能が低下することで、日常生活に支障をきたす状態になることを指す。現在、認知症を含む認知機能の低下に起因する状態または症状の有効な治療方法は確立されておらず、患者およびその家族が将来の計画を立てるなどの診断後支援が必要となる。そのためには、認知機能の低下に起因する状態または症状の早期発見が重要となる。 In recent years, the aging of the population has progressed in developed countries. In particular, the aging rate of Japan (the ratio of the total population aged 65 and over) was 27.5% in 2017, according to a survey by the Ministry of Health, Labor and Welfare. We are entering society. The aging rate is expected to increase in the future, and medical measures for the elderly have become an important issue. One of them is dementia. Dementia refers to a condition in which cognitive functions such as memory, thinking, and behavior are impaired, which interferes with daily life. Currently, no effective treatment for conditions or symptoms caused by cognitive decline, including dementia, has been established, and post-diagnosis support such as future planning by patients and their families is required. For that purpose, early detection of conditions or symptoms caused by cognitive decline is important.
認知機能の低下に起因する状態又は症状の早期発見は、神経心理検査や血液検査、脳画像検査などを組み合わせて行われる。しかし、この検査には、侵襲的な検査が含まれており、被験者に不安感やストレスを与えるため、被験者への負担が大きい。このため、非侵襲で手軽な検出法が必要とされている。よって、これまでに、非侵襲で手軽に認知機能の低下に起因する状態又は症状を検出する手法が、数多く提案されている。 Early detection of conditions or symptoms caused by cognitive decline is performed by combining neuropsychological tests, blood tests, and brain imaging tests. However, this test includes an invasive test, which causes anxiety and stress to the subject, and thus places a heavy burden on the subject. Therefore, a non-invasive and easy detection method is required. Therefore, many methods have been proposed so far that are non-invasive and easily detect a condition or symptom caused by a decrease in cognitive function.
提案された手法に、言語情報を用いた研究や音声情報を用いた研究がある(例えば、非特許文献1、2及び3)。これらは、写真の叙述や神経心理検査中の一方的な発話を分析したものがほとんどである。また、エージェントを用いて、対話的に検出する手法も提案されている(非特許文献4及び5)。この手法では、神経心理検査を元に作成された質問を3問用意し、その応答の音声情報や言語情報から検出を試みている。しかし、神経心理検査の質問は、高齢者が覚え、あらかじめ対策を講じられる可能性があった。 Proposed methods include research using linguistic information and research using voice information (for example, Non-Patent Documents 1, 2 and 3). Most of these are analyzes of unilateral utterances during photographic narratives and neuropsychological tests. In addition, a method of interactively detecting using an agent has also been proposed (Non-Patent Documents 4 and 5). In this method, three questions created based on a neuropsychiatric test are prepared, and detection is attempted from the voice information and linguistic information of the responses. However, the questions of the neuropsychological test could be remembered by the elderly and taken in advance.
早期に認知機能の低下に起因する状態又は症状を検出するためには、定期的に、かつ、長期的にモニタリングする必要があるが、上記対話的に認知機能の低下に起因する状態又は症状を検出する場合、あらかじめ対策ができないようにする必要があった。 In order to detect the condition or symptom caused by the cognitive decline at an early stage, it is necessary to monitor it regularly and for a long period of time. When detecting, it was necessary to make it impossible to take measures in advance.
本発明は、認知機能の低下に起因する状態又は症状を予測するための装置、方法、プログラム及びシステムを提供することを目的とする。 An object of the present invention is to provide a device, a method, a program and a system for predicting a condition or symptom caused by a decrease in cognitive function.
(1)利用者に対し音声情報及び画像情報を伝達するための情報伝達部と、利用者音声及び/又は利用者画像を測定するための測定部と、上記測定部で得られた測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成するための特徴データ作成部と、上記特徴データ作成部で得られた特徴データから、特徴量を抽出するための特徴量抽出部と、上記特徴量抽出部で得られた少なくとも1種の特徴量に基づき、上記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測するように構成されている認知機能予測部とを備え、上記情報伝達部から伝達される情報は、非定型質問を含み、
上記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測装置。
(2)利用者からの応答に基づき質問を作成するように構成されている質問作成部をさらに備え、上記非定型質問は、前記質問作成部にて作成された質問を含む(1)に記載の認知機能予測装置。
(3)上記特徴量抽出部は、上記測定部で得られた利用者音声に基づき上記特徴データ作成部で作成された音声的特徴データ及び言語的特徴データのうち少なくとも1種の特徴データに基づき、特徴量を抽出するように構成されている(1)又は(2)に記載の認知機能予測装置。
(4)上記特徴量抽出部は、上記測定部で得られた利用者画像に基づき上記特徴データ作成部で作成された視線パターン、フェイシャルアクションコーディングシステム及びフェイシャルランドマーク特徴からなる群より選択される少なくとも1種の画像的特徴データと、上記測定部で得られた利用者音声に基づき上記特徴データ作成部で作成された音声的特徴データ及び言語的特徴データのうち少なくとも1種の特徴データとに基づき、特徴量を抽出するように構成されている(1)又は(2)に記載の認知機能予測装置。
(5)上記認知機能予測部は、上記特徴量抽出部で抽出された特徴量に基づき、上記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを、SVM(Support Vector Machine)、ロジスティック回帰分析、及び、深層学習からなる群から選択される少なくとも1つを用いて予測するように構成されている(1)〜(4)のいずれかに記載の認知機能予測装置。
(6)利用者に対し音声情報及び画像情報を伝達する情報伝達ステップと、利用者音声及び/又は利用者画像を測定する測定ステップと、上記測定部の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成する特徴データ作成ステップと、上記特徴データ作成ステップで得られた特徴データから、特徴量を抽出する特徴量抽出ステップと、上記特徴量抽出部で得られた少なくとも1種の特徴量に基づき、上記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測する認知機能予測ステップとを備え、上記情報伝達部から伝達される情報は、非定型質問を含み、上記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測方法。
(7)(6)に記載の認知機能予測方法をコンピュータに実行させるためのプログラム。
(8)利用者に対し音声情報及び画像情報を伝達するための情報伝達部と、利用者音声及び/又は利用者画像を測定するための測定部と、を備える利用者端末と、上記測定部の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成するための特徴データ作成部と、上記特徴データ作成部で得られた特徴データから特徴量を抽出するための特徴量抽出部と、上記特徴量抽出部で抽出された少なくとも1種の特徴量に基づき上記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測するように構成されている認知機能予測部と、を備える認知機能予測装置とを有し、上記情報伝達部から伝達される情報は、非定型質問を含み、上記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測システム。
(1) The information transmission unit for transmitting voice information and image information to the user, the measurement unit for measuring the user voice and / or the user image, and the measurement results obtained by the above measurement unit. Based on this, a feature data creation unit for creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data, and a feature data creation section obtained by the above feature data creation section. Based on the feature amount extraction unit for extracting the feature amount from the feature data and at least one kind of feature amount obtained by the feature amount extraction unit, the tendency of the state or symptom caused by the cognitive decline to the user. The information transmitted from the information transmission unit includes a cognitive function prediction unit configured to predict whether or not there is an atypical question.
The above-mentioned atypical question is a cognitive function prediction device characterized in that it includes a question about a past event according to the age of the user.
(2) A question creation unit configured to create a question based on a response from a user is further provided, and the atypical question is described in (1) including a question created by the question creation unit. Cognitive function predictor.
(3) The feature amount extraction unit is based on at least one of the voice feature data and the linguistic feature data created by the feature data creation unit based on the user voice obtained by the measurement unit. , The cognitive function predictor according to (1) or (2), which is configured to extract a feature amount.
(4) The feature amount extraction unit is selected from a group consisting of a line-of-sight pattern, a facial action coding system, and a facial landmark feature created by the feature data creation unit based on the user image obtained by the measurement unit. At least one kind of image feature data, and at least one kind of feature data among the voice feature data and the linguistic feature data created by the feature data creation section based on the user voice obtained by the measurement section. The cognitive function predictor according to (1) or (2), which is configured to extract a feature amount based on the above.
(5) Based on the feature amount extracted by the feature amount extraction unit, the cognitive function prediction unit determines whether or not the user has a tendency of a state or symptom caused by cognitive decline by SVM (Support Vector). The cognitive function predictor according to any one of (1) to (4), which is configured to predict using at least one selected from the group consisting of Machine), logistic regression analysis, and deep learning.
(6) Voice feature data based on the information transmission step of transmitting voice information and image information to the user, the measurement step of measuring the user voice and / or the user image, and the measurement result of the measurement unit. , The feature amount is extracted from the feature data creation step for creating at least one kind of feature data selected from the group consisting of linguistic feature data and image feature data, and the feature data obtained in the above feature data creation step. Cognitive function prediction that predicts whether or not the user is prone to a condition or symptom caused by cognitive decline based on the feature amount extraction step and at least one kind of feature amount obtained by the feature amount extraction unit. The information transmitted from the information transmission unit includes atypical questions, and the atypical questions include questions about past events according to the age of the user. Cognitive function prediction. Method.
(7) A program for causing a computer to execute the cognitive function prediction method described in (6).
(8) A user terminal including an information transmission unit for transmitting voice information and image information to a user, and a measurement unit for measuring user voice and / or user image, and the measurement unit. A feature data creation unit for creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data based on the measurement results of the above, and the above-mentioned feature data creation section. A condition or symptom caused by cognitive decline in the user based on the feature amount extraction unit for extracting the feature amount from the feature data obtained in the above and at least one kind of feature amount extracted by the feature amount extraction unit. The information transmitted from the information transmission unit includes a cognitive function prediction unit configured to predict whether or not there is a tendency of the above information transmission unit, and a cognitive function prediction device including the cognitive function prediction unit. The above atypical question is a cognitive function prediction system characterized by including questions about past events according to the age of the user.
本発明によれば、早期の認知機能の低下に起因する状態又は症状予測を簡便に行うことができる。 According to the present invention, it is possible to easily predict a state or a symptom caused by an early deterioration of cognitive function.
以下、本発明の実施形態について図面を参照しながら詳細に説明する。なお、本発明は以下の記述のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description, and can be appropriately modified without departing from the gist of the present invention.
[認知機能予測装置]
図1は、本発明の一実施形態に係る認知機能予測装置を説明するための図である。
図1に示すように、認知機能予測装置10は、情報伝達部11、測定部12、制御部13、外部情報入力部21及びデータベース31を備える。制御部13は、特徴データ作成部131、特徴量抽出部132、認知機能予測部133及び質問作成部134を備える。なお、本実施形態に係る認知機能予測装置10は、利用者と対話を行うように構成されており、その対話における利用者の応答に基づいて、当該利用者が認知機能の低下に起因する状態又は症状であるか否かを予測するように構成されている。
[Cognitive function predictor]
FIG. 1 is a diagram for explaining a cognitive function prediction device according to an embodiment of the present invention.
As shown in FIG. 1, the cognitive
情報伝達部11は、認知機能予測装置10の利用者(以下、単に「利用者」と記す)に対し、音声情報及び画像情報を伝達するためのものであり、例えば、ディスプレイ等の表示部111とスピーカ等の音声出力部112で構成される。ここで、情報伝達部11の一例について図面を参照して説明する。図2は、情報伝達部及び測定部の一例を示す模式図である。
The
図2に示すように、情報伝達部11は、画像を表示する表示部111と、音声を出力する音声出力部112とを備える。表示部111は、例えば、人を模した画像(アバター)111a及び/又はテキスト111bを表示することができる。情報伝達部11は、利用者と対話を行うために、利用者に対する質問を音声出力部112において音声として出力することができる。また、音声出力部112により出力される音声情報に合わせて、表示部111に表示されるアバター111aを動かすことができる。そのため、表示部111にアバター111aが表示される場合、音声出力部112により出力される音声情報に合わせて、表示部111に表示されるアバター111aの口や表情が動くように構成することができ、利用者がアバターと対話しているような環境を作り出すことができる。これにより、認知機能予測装置10を利用し、情報伝達部11より伝達される質問に回答する利用者の違和感や緊張を緩和することができる。
As shown in FIG. 2, the
また、表示部111に表示されるアバター111aは、利用者の好みに合わせて設定することができる。例えば、利用者の好みに合わせて、家族、ペット、友人、有名人、動物及びキャラクター等を模した画像をアバターとして設定することができる。このように利用者の好みに応じたアバター111aを表示部111に表示させることで、利用者による認知機能予測装置10の定期的な利用が促進され、早期段階で認知機能の低下に起因する状態又は症状を予測することができる。
Further, the
また、音声出力部112から出力される音声は、利用者の好みに合わせて設定することができる。例えば、声の高さ低さの変更、声色、話し方、スピード、音量等を設定することができる。これにより、利用者の好みに応じたアバター111aに最適な音声を設定することができ、利用者の違和感や緊張をより緩和し、聞き取りやすさを向上することができる。
Further, the voice output from the
なお、表示部111に表示される画像データ及び音声出力部112より出力される音声データは、制御部13から与えられる。
例えば、利用者は外部情報入力部21及び/又は集音部121から、好みの画像データや音声データを入力することができ、該画像データ及び音声データはデータベース31に保管される。制御部13は、データベース31に保管されたデータを読み出し、表示部111に画像データを与え、音声出力部112に音声データを与えることができる。
The image data displayed on the
For example, the user can input favorite image data and audio data from the external
測定部12は、例えばマイクロフォン等で構成される集音部121と、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成される撮像部122とを備える。集音部121は、利用者が発する音声を集音するために設けられており、撮像部122は利用者の表情等を撮像するために設けられている。例えば、集音部121は、利用者が図2に示す表示部111と向かい合った場合に、利用者の音声を集音し易い位置に設けられることが好ましい。撮像部122も同様であり、利用者が図2に示す表示部111と向かい合った場合に、利用者の表情等を撮像し易い位置に設けられることが好ましい。具体的に例えば、集音部121及び撮像部122は、表示部111の周囲のベゼル等に設けられることが好ましい。
The measuring
図1に示す外部情報入力部21は、所定の入力操作が可能なものであればよく、例えば、マウス、キーボード、タッチパネル等の入力インターフェースが挙げられる。
The external
制御部13は、特徴データ作成部131、特徴量抽出部132及び認知機能予測部133を備えている。制御部13は、情報伝達部11が利用者に情報を伝達するために必要なデータ(表示部111に表示される画像データ及び音声出力部112から出力される音声データ)を情報伝達部11に与えることができる。また、制御部13は、測定部12の測定結果(集音部121から得られる音声データ及び/又は撮像部122から得られる画像のデータ)に基づいて、特徴データ作成部131において、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成する。また、制御部13における特徴量抽出部132において、特徴データ作成部131から得られた特徴データから特徴量を抽出し、認知機能予測部133において、特徴量抽出部132で得られた少なくとも1種の特徴量に基づき、利用者に認知機能の低下に起因する状態又は症状の傾向があるか否かを予測する。
The
制御部13は、いわゆるコンピュータであり、図示しないCPU(Central Processing Unit)等の演算装置と、データメモリ、データ蓄積用のメモリ及びワーキングメモリといった公知の構成を備えている。特徴データ作成部131、特徴量抽出部132及び認知機能予測部133は、各々コンピュータ上で動作して所定の機能を発揮するハードウェアとプログラムとを含むものである。
The
上記制御部13では、利用者が理解しやすいように、又は、利用者の好みに応じて、音声出力部112から出力される音声情報の音量及び/又は速度を調節することができる。また、上記制御部13では、利用者の選択により、音声情報にテキスト111bを付与することができる。
The
データベース31は、例えばハードディスクや半導体メモリなどの記録装置で構成され、上記の制御部13が行う各種処理に必要なデータ(例えば、利用者に対する質問のデータ、アバター111aを表示するためのデータなど)を記録している。
The
ここで、情報伝達部11は、利用者に対し、非定型質問を含む情報を伝達するように構成されている。本明細書において「非定型質問」とは、利用者が認知機能予測装置を利用するたびに必ず質問される定型質問以外の質問である。
なお、定型質問としては、例えば、長谷川式認知症スケール(HDS−R)及びMMSE等の神経心理検査に含まれる日時、場所、計算等の質問が挙げられる。また、非定型質問としては、あらかじめ定められた複数の質問からランダムに選択される質問、利用者の年齢に応じた過去のイベントに関する質問、利用者の応答に基づき作成された質問等が含まれる。情報伝達部11から利用者に対し伝達される非定型質問には、利用者の年齢に応じた過去のイベントに関する質問が必ず含まれるように構成されている。また、非定型質問は、少なくとも10問から構成される非定型質問セットからランダムに3問選択される非定型質問セットであってもよい。
Here, the
Examples of standard questions include questions such as date and time, place, and calculation included in neuropsychological tests such as the Hasegawa Dementia Scale (HDS-R) and the MMSE. In addition, the atypical questions include questions randomly selected from a plurality of predetermined questions, questions about past events according to the user's age, questions created based on the user's response, and the like. .. The atypical question transmitted from the
ここで、利用者の年齢に応じた過去のイベントに関する質問は、利用者が10〜40代だった頃のイベント(例えば、当時の出来事、事件、行事、事象、流行等)であることが好ましい。上記非定型質問に利用者が10〜40代だった頃の過去のイベントに関する質問を含むことで、認知機能の低下に起因する状態又は症状の予測精度が向上する可能性があるためである。
なお、利用者の年齢は、利用者の認知機能予測装置10の利用時の年齢を、外部情報入力部21や、測定部12における集音部121、撮像部122を介して、制御部13で利用毎に確認することとしてもよい。また、認知機能予測装置10の利用開始時の初期設定において、予め利用者の年齢が外部情報入力部21や、測定部12における集音部121、撮像部122を介して入力され、データベース31に保管されている利用者初期情報に基づき、制御部13にて利用時の利用者年齢を算出するものとしてもよい。
利用者の年齢に応じた過去のイベントに関する質問は、制御部13が上記のように確認又は算出した利用者年齢に基づき、予めデータベースに保管されている過去のイベントから利用者の年齢に基づき選択されるものであってよい。また、認知機能予測装置10がインターネット等のネットワーク回線等に接続可能である場合は、制御部13は、確認又は算出された利用者の年齢に基づき、利用者が特定の年代である過去のイベントに関する質問を、ウェブ情報や外部データベースから取得した情報から選択、作成することができる。
Here, the question about the past event according to the age of the user is preferably an event when the user was in his 10s to 40s (for example, an event, an incident, an event, an event, a fashion, etc. at that time). .. This is because including questions about past events when the user was in his 10s and 40s in the above atypical questions may improve the prediction accuracy of the condition or symptom caused by the deterioration of cognitive function.
As for the age of the user, the age at the time of using the cognitive
Questions about past events according to the user's age are selected from past events stored in the database in advance based on the user's age, based on the user's age confirmed or calculated by the
また、情報伝達部11は、日時、場所及び人間関係から選択される少なくとも1つの定型質問と、利用者が10〜40代だった頃のイベントに関する少なくとも1つの非定型質問とを伝達するように構成されていることが好ましい。定型質問のうち、上述の日時、場所及び人間関係に関する質問は、見当識及び短期記憶(即時記憶)を基に回答される質問である。また、利用者が10〜40代だった頃のイベントに関する質問は、長期記憶(遠隔記憶)を基に回答される質問である。認知機能の低下に起因する状態又は症状の進行に伴い、短期記憶の低下に続き、長期記憶が低下することが知られており、これら二つの質問を組み合わせて利用者に質問することで、認知機能の低下に起因する状態又は症状の初期症状の進行度を図ることができる。
In addition, the
制御部13は、利用者からの応答に基づき自由質問を作成するように構成されている質問作成部134をさらに備えることができる。質問作成部134は、特徴データ作成部131、特徴量抽出部132及び認知機能予測部133と同様に、コンピュータ上で動作して所定の機能を発揮するハードウェアとプログラムとを含むものである。
なお、質問作成部134で作成される質問(以下、単に自由質問と記載する。)は、利用者の応答に基づき作成される質問でもあってもよく、予め準備されている質問の中から、利用者の応答に基づき選択される質問であってもよい。例えば、上記自由質問は、制御部13における質問作成部134が、予めデータベースに保管されている複数の質問から利用者の応答に基づき選択した質問であってもよく、利用者からの応答に基づき、予めデータベースに保管されているデータを組み合わせて作成された質問であってもよい。また、認知機能予測装置10がインターネット等のネットワーク回線等に接続可能である場合、上記自由質問は、質問作成部134において利用者の応答に基づき、ウェブ情報や外部データベースから取得した情報から選択、作成された質問であってもよい。
情報伝達部11において、利用者からの応答に基づく自由質問を伝達することで、利用者は、認知機能予測装置10の利用にあたり、アバター111aと対話をしている感覚を得ることができ、緊張感がほぐれ、自然な状態での利用者を測定することができ、認知機能予測の精度が向上するためである。
The
The question created by the question creation unit 134 (hereinafter, simply referred to as a free question) may be a question created based on the response of the user, and is selected from the questions prepared in advance. The question may be selected based on the user's response. For example, the free question may be a question selected by the
By transmitting a free question based on the response from the user in the
なお、利用者の趣味や興味等に関する情報を、利用者の認知機能予測装置10の利用時、又は、認知機能予測装置10の初期設定時に、外部情報入力部21や、測定部12における集音部121、撮像部122を介して入手し、制御部13から、データベース31に保管しておいてもよい。質問作成部134において自由質問が作成される際に、データベース31から利用者の趣味や興味のある情報を読み出し、自由質問の分野を利用者の趣味や興味のある分野に特定することにより、認知機能予測装置10から伝達される質問に対し、利用者の関心が高まり、定期的な認知機能予測装置10の利用を促進することができる。これにより、早期認知機能予測が可能となる。
また、認知機能予測部133において、利用者の趣味や興味のある分野に関する質問と、そうではない分野に関する質問に対する特徴量の差を検出することにより、より高精度に認知機能の低下に起因する状態又は症状を予測することができる可能性がある。
Information on the user's hobbies, interests, etc. is collected by the external
In addition, the cognitive
制御部13における特徴量抽出部132は、測定部12で得られた利用者音声に基づき特徴データ作成部131で作成された音声的特徴データ及び言語的特徴データのうち少なくとも1種の特徴データに基づき、特徴量を抽出するように構成されていることが好ましい。また、制御部13における特徴量抽出部132は、測定部12で得られた利用者音声に基づき特徴データ作成部131で作成された音声的特徴データ及び言語的特徴データに基づき特徴量を抽出するように構成されていることがより好ましい。言い換えると、音声的特徴データに基づく特徴量と言語的特徴データに基づく特徴量との2種以上が抽出されることが好ましい。
特徴データ作成部131で作成された音声的特徴データ及び言語的特徴データに基づき特徴量を抽出することにより、認知機能の低下に起因する状態又は症状を有さない利用者と、軽度の認知機能の低下に起因する状態又は症状を有する利用者とを高精度で分類することができるためである。特に認知機能の低下に起因する状態又は症状が認知症である場合には、非認知症の利用者と経度認知障害(MCI)の利用者とを高精度(90%以上)で分類することができる。
なお、上記音声的特徴データから抽出される特徴量としては、ピッチ(基本周波数、声の高さ)、声量(パワー)、声質、反応時間、ポーズ(発話間隔)等が挙げられる。
また、上記言語的特徴データから抽出される特徴量としては、トークン数(形態素)数、フィラー、タイプトークン比(TTR(Type Token Ratio))、品詞情報(名詞、動詞、形容詞及び副詞の数等)、構文の複雑さ、語彙の選定及び語彙の難易度等が挙げられる。なお、上記タイプトークン比とは、利用者が応答時に発する音声に含まれる単語の総数であるトークン数と、上記利用者が応答時に発する音声に含まれる重複を許さない単語の総数であるタイプ数を前記トークン数で除した値である。
The feature
By extracting the feature amount based on the voice feature data and the linguistic feature data created by the feature
Examples of the feature amount extracted from the voice feature data include pitch (basic frequency, pitch), voice volume (power), voice quality, reaction time, pause (speech interval), and the like.
The feature quantities extracted from the linguistic feature data include the number of tokens (morphemes), fillers, type-token ratio (TTR (Type Taken Radio)), part of speech information (number of nouns, verbs, adjectives, adverbs, etc.). ), Syntax complexity, vocabulary selection and vocabulary difficulty. The type-token ratio is the number of tokens, which is the total number of words included in the voice uttered by the user when responding, and the number of types, which is the total number of words included in the voice uttered by the user when the user does not allow duplication. Is divided by the number of tokens.
制御部13における特徴量抽出部132では、測定部12で得られた利用者画像に基づき特徴データ作成部131で作成された視線パターン、フェイシャルアクションコーディングシステム(FACS)及びフェイシャルランドマーク特徴からなる群より選択される少なくとも1種の画像的特徴データと、測定部12で得られた利用者音声に基づき特徴データ作成部131で作成された音声的特徴データ及び言語的特徴データのうち少なくとも1種の特徴データとに基づき、特徴量が抽出されるように構成されていることが好ましい。この場合、画像的特徴データから抽出される特徴量と、音声的特徴データ及び/又は言語的特徴データから抽出される特徴量との計2種以上が抽出される。また、測定部12で得られた利用者画像に基づき特徴データ作成部で作成された上記画像的特徴データと、測定部12で得られた利用者音声に基づき特徴データ作成部131で作成された音声的特徴データ及び言語的特徴データとに基づき、特徴量が抽出されるように構成されていることがより好ましい。この場合、画像的特徴データから抽出される特徴量、音声的特徴データから抽出される特徴量及び言語的特徴データから抽出される特徴量の計3種以上が抽出される。
音声的特徴データ及び/又は言語的特徴データに加え、画像的特徴データから、特徴量を抽出することにより、より高精度な認知機能予測が可能となるためである。また、利用者によっては、音声的特徴データにおいて外部雑音などのノイズが含まれるが、画像的特徴データから抽出される特徴量を併せて用いることにより、認知機能予測の精度を向上できる可能性があるためである。
The feature
This is because it is possible to predict the cognitive function with higher accuracy by extracting the feature amount from the image feature data in addition to the voice feature data and / or the linguistic feature data. In addition, depending on the user, noise such as external noise is included in the audio feature data, but there is a possibility that the accuracy of cognitive function prediction can be improved by using the feature amount extracted from the image feature data together. Because there is.
なお、画像的特徴データは、公知の画像処理方法及び/又は画像認識方法を用いて作成されるが、例えば、インテル(登録商標)オープンCV(Intel Open Source Computer Vision Library)や、フリーのツールOpenFace等を利用して作成してもよい。また、例えば、オープンCV等に登録されているオブジェクト検出プログラムを用いること等により顔認識プログラムを作成し、画像処理及び/又は画像認識を行ってもよい。なお、画像認識プログラムに必ずしもオープンCVを利用しなくてもよいし、既存のプログラムや、既存の画像認識回路を搭載したチップを利用してもよい。 The image feature data is created by using a known image processing method and / or image recognition method. For example, Intel® OpenCV (Intel Open Source Computer Vision Library) or a free tool OpenFace Etc. may be used to create the image. Further, for example, a face recognition program may be created by using an object detection program registered in OpenCV or the like, and image processing and / or image recognition may be performed. It is not always necessary to use the open CV for the image recognition program, or an existing program or a chip equipped with an existing image recognition circuit may be used.
また、特徴量抽出部132において特徴量を抽出するにあたって、個人差を吸収するために最尤線形回帰法(MLLR:Maximum Likelihood Linear Regression)といった手段により、特徴量を更新してもよい。これは、個人の少量の特徴、及びこれまでに収集した多数の人物の特徴から、特徴量分布を最尤推定により個人向けに適応的に変更する方法である。特徴量を抽出するにあたって、個人差を吸収するための処理を行うことにより、より高精度な認知機能予測が可能となるためである。
Further, when the feature amount is extracted by the feature
情報伝達部11は、制御部13における認知機能予測部133で得られた利用者に対する認知機能の低下に起因する状態又は症状の予測結果(認知機能予測結果)を表示することができる。
この場合、制御部13は、認知機能予測部133で得られた認知機能予測結果を情報伝達部11に送るように構成されている。
The
In this case, the
また、制御部13は、図示しないが、例えば、プリンター等の印刷装置、インターネットやLAN(Local Area Network)に接続可能な通信装置等を介して認知機能予測部133で得られた認知機能予測結果を印刷又はデータ送信することができる。
また例えば、制御部13は、認知機能予測部133で得られた認知機能予測結果を、通信手段を介して、利用者の親族やかかりつけ医療機関等に対して送信することができる。
上記印刷装置及び通信装置等は、本発明の認知機能予測装置10に含まれていてもよく、通信回線を介して本発明の認知機能予測装置10に繋がれていてもよい。
Although not shown, the
Further, for example, the
The printing device, communication device, and the like may be included in the cognitive
また、本発明の実施形態は、上記した認知機能予測装置10の構成を、例えば、利用者が使用するパソコン、スマホ、タブレット、テレビ等で実現してもよい。また、本発明の実施形態は上述の認知機能予測装置10のようにその構成要素の全てを一体の装置で構成されたものに限定されるものではなく、複数の装置で構成されたものであってもよい。例えば、情報伝達部11と測定部12とを備える利用者端末と、測定部12で得られた測定結果を演算処理して認知機能の低下に起因する状態又は症状を予測する認知機能予測装置とを別体とする構成であってもよい。
Further, in the embodiment of the present invention, the configuration of the cognitive
[認知機能予測システム]
図3は、図1に記載の認知機能予測装置10における情報伝達部11と測定部12とを別体として構成した例を示した図であり、本発明の一実施形態に係る認知機能予測システムを説明するための図である。
図3に示すように、認知機能予測システム40は、利用者に対し音声情報及び画像情報を伝達するための情報伝達部11と、利用者音声及び/又は利用者画像を測定するための測定部12と、外部情報入力部21とを有する利用者端末50と、利用者端末50における測定部12からの測定結果に基づき、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成するための特徴データ作成部131と、特徴データ作成部131で得られた特徴データから特徴量を抽出するための特徴量抽出部132と、特徴量抽出部132で得られた特徴量に基づき、利用者に認知機能の低下に起因する状態又は症状の傾向があるか否かを予測するように構成されている認知機能予測部133と、質問作成部134及びデータベース31を有する認知機能予測装置60と、を別体として備えるものである。このように利用者端末50と、認知機能の低下に起因する状態又は症状を予測する認知機能予測装置60とを別体とする場合、利用者端末50と認知機能予測装置60とは、通信回線により繋がれている。
[Cognitive function prediction system]
FIG. 3 is a diagram showing an example in which the
As shown in FIG. 3, the cognitive
通信回線としては、赤外線、近距離無線通信回線、ネットワーク回線、ローカルエリアネットワーク回線、電話回線等、一般的に用いられている通信回線を適宜選択することができる。また、利用者端末50と認知機能予測装置60との連結は、有線であるか無線であるかを問わず、一般的に用いられている通信回線を利用するのに必要な送受信機や通信部を備えることができる。
As the communication line, a commonly used communication line such as an infrared ray, a short-range wireless communication line, a network line, a local area network line, and a telephone line can be appropriately selected. Further, the connection between the
本実施形態を図3のように利用者端末50と認知機能予測装置60とに分けて構成した場合、例えば、利用者が既に使用しているスマートフォン、タブレット、パソコン及びテレビ等、情報伝達部11と測定部12とを備え、通信回線に接続可能な端末を、利用者端末50として用いることができる。こうすることで、利用者が従来から使用している端末を利用者端末50とすることができきるため、一実施形態である認知機能予測システムを利用する利用者の心理的負担を軽減することができる。これにより認知機能予測システムの定期的な利用が促進され、早期段階で認知機能の低下に起因する状態又は症状を予測することができる。
When the present embodiment is divided into the
[認知機能予測方法]
次に、本実施形態の一つである認知機能予測方法を説明する。
本実施形態の認知機能予測方法は、利用者に対し音声情報及び画像情報を伝達する情報伝達ステップと、利用者音声及び/又は利用者画像を測定する測定ステップと、上記測定部の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成する特徴データ作成ステップと、上記特徴データ作成ステップで得られた特徴データから特徴量を抽出する特徴量抽出ステップと、上記特徴量抽出ステップで得られた特徴量に基づき利用者に認知機能の低下に起因する状態又は症状の傾向があるか否かを予測する認知機能予測ステップとを備え、上記情報伝達部から伝達される情報は、非定型質問を含み、上記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含む。
[Cognitive function prediction method]
Next, a cognitive function prediction method, which is one of the present embodiments, will be described.
The cognitive function prediction method of the present embodiment includes an information transmission step of transmitting voice information and image information to the user, a measurement step of measuring the user voice and / or the user image, and the measurement result of the measurement unit. Based on this, a feature data creation step for creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data, and feature data obtained in the above feature data creation step. A cognitive function that predicts whether or not the user has a tendency of a state or symptom due to a decrease in cognitive function based on the feature amount extraction step of extracting the feature amount from the feature amount and the feature amount obtained in the above feature amount extraction step. The information transmitted from the information transmission unit including the prediction step includes an atypical question, and the atypical question includes a question about a past event according to the age of the user.
図4は、本発明の一実施形態の認知機能予測方法を説明するためのフローチャートである。また、図4のフローチャートは、図1で示した認知機能予測装置10及び図3で示した認知機能予測システム40の動作例を示している。なお図4では、簡便化のため、情報伝達部11における表示部111で表示される画像データをアバター111aとし、音声出力部112から出力される音声情報は、アバター111aが質問しているように認識されるよう、擬人化表現を用いて記載する。
FIG. 4 is a flowchart for explaining a cognitive function prediction method according to an embodiment of the present invention. Further, the flowchart of FIG. 4 shows an operation example of the cognitive
制御部において、利用者による認知機能予測装置の起動が検知されると、制御部は、情報伝達部に対し、非定型質問を含む質問を伝達する。情報伝達部を介して、アバターが質問しているように上記非定型質問を含む質問が利用者に対し伝達され、測定部により利用者の応答が測定される(ST1)。測定部における測定結果が制御部に送達され、制御部の特徴データ作成部にて、特徴データが作成される(ST2)。次に、特徴量抽出部にて、得られた特徴データから特徴量が抽出される(ST3)。そして、認知機能予測部にて、得られた特徴量から認知機能の低下に起因する状態又は症状か否かが予測される(ST4)。認知機能予測部で得られた認知機能予測結果は、制御部から情報伝達部へ伝達され、認知機能予測結果が出力される(ST5)。 When the control unit detects that the user activates the cognitive function prediction device, the control unit transmits a question including an atypical question to the information transmission unit. A question including the above-mentioned atypical question is transmitted to the user via the information transmission unit as if the avatar is asking a question, and the measurement unit measures the user's response (ST1). The measurement result in the measurement unit is delivered to the control unit, and the feature data creation unit in the control unit creates the feature data (ST2). Next, the feature amount extraction unit extracts the feature amount from the obtained feature data (ST3). Then, the cognitive function prediction unit predicts whether or not the condition or symptom is caused by the deterioration of the cognitive function from the obtained feature amount (ST4). The cognitive function prediction result obtained by the cognitive function prediction unit is transmitted from the control unit to the information transmission unit, and the cognitive function prediction result is output (ST5).
なお、図4のフロー図には明記しないが、ST1で得られる測定結果、ST2で得られる特徴データ、ST3で得られる特徴量、ST4で得られる認知機能予測結果は、制御部13により、適宜データベース31に保管される。
また、ST1で使用される質問は、予めデータベース31に保管されている質問データから選択された質問でもよく、利用者の応答に応じて、制御部13における質問作成部134において作成された質問であってもよい。
Although not specified in the flow chart of FIG. 4, the measurement result obtained in ST1, the feature data obtained in ST2, the feature amount obtained in ST3, and the cognitive function prediction result obtained in ST4 are appropriately determined by the
Further, the question used in ST1 may be a question selected from the question data stored in the
また、認知機能予測結果の出力は、情報伝達部を用いて出力される場合に限定されず、上述の通り、印刷装置や通信装置を用いて出力することが可能である。また、ST5における認知機能予測結果の出力のタイミングは、ST4終了後であればいつでもよく、例えば、利用者本人、利用者の家族及び/又はかかりつけ医師が設定する任意のタイミングにおいて、利用者本人、利用者の家族及び/又はかかりつけ医師に提供されるようにしてもよい。 Further, the output of the cognitive function prediction result is not limited to the case where it is output by using the information transmission unit, and can be output by using a printing device or a communication device as described above. Further, the timing of outputting the cognitive function prediction result in ST5 may be any time after the end of ST4, for example, at any timing set by the user himself / herself, the user's family and / or the family doctor, the user himself / herself. It may be provided to the user's family and / or family doctor.
以上説明したフローチャートの少なくともST1からST4は、例えば、コンピュータとして構成される認知機能予測装置において実現されるプログラムによって処理される。 At least ST1 to ST4 of the flowchart described above are processed by, for example, a program realized in a cognitive function prediction device configured as a computer.
以上説明した本実施形態は、利用者の年齢に応じた過去のイベントに関する質問を含む非定型質問に対する利用者の応答を測定し、得られた測定結果から1以上の特徴データを作成し、特徴データから得られた1以上の特徴量に基づいて、利用者が認知機能の低下に起因する状態又は症状であるか否かを予測している。このため、本実施形態は、利用者の見当識、短期記憶と長期記憶に関する質問を含んでおり、より高精度に認知機能予測を行うことができる。認知機能の低下に起因する状態又は症状の中でも、認知症についてより高精度に認知機能予測を行うことができる。 In the present embodiment described above, the user's response to an atypical question including a question about a past event according to the user's age is measured, and one or more feature data is created from the obtained measurement result, and the feature is characterized. Based on one or more features obtained from the data, it is predicted whether or not the user has a condition or symptom caused by a decrease in cognitive function. Therefore, this embodiment includes questions about user orientation, short-term memory and long-term memory, and can predict cognitive function with higher accuracy. Among the states or symptoms caused by the deterioration of cognitive function, it is possible to predict the cognitive function with higher accuracy for dementia.
なお、本明細書において、認知機能低下に起因する状態又は症状として、もの忘れ、記憶力低下、集中力低下、注意力低下、判断力低下、空間認識力低下、神経活動性低下、神経伝達機能低下、認知柔軟性低下、実行機能低下、情報処理速度低下、鬱様症状、認知症(アルツハイマー病などの疾患に起因するものを含む)のような状態又は症状が挙げられる。
なお、本明細書における認知機能予測装置は、認知症を予測するための認知症予測装置であることが好ましく、認知機能予測方法は認知症を予測するための認知症予測方法であることが好ましく、認知機能予測システムは認知症を予測するための認知症予測システムであることが好ましい。
本明細書において、認知機能の低下に起因する状態又は症状は認知症に読み替えることができ、認知機能予測装置は認知症予測装置と読み替えることができ、認知機能予測方法は認知症予測方法に読み替えることができ、認知機能予測システムは認知症予測システムに読み替えることができる。
In the present specification, as states or symptoms caused by cognitive decline, forgetfulness, memory decline, concentration decline, attention loss, judgment weakness, spatial cognitive decline, neural activity decline, and nerve transmission function decline. , Cognitive inflexibility, executive function, information processing slowdown, depression-like symptoms, dementia (including those caused by diseases such as Alzheimer's disease) and other conditions or symptoms.
The cognitive function prediction device in the present specification is preferably a dementia prediction device for predicting dementia, and the cognitive function prediction method is preferably a dementia prediction method for predicting dementia. , The cognitive function prediction system is preferably a dementia prediction system for predicting dementia.
In the present specification, a state or symptom caused by a decrease in cognitive function can be read as dementia, a cognitive function predictor can be read as a dementia predictor, and a cognitive function predictor can be read as a dementia predictor. The cognitive function prediction system can be read as a dementia prediction system.
次に本発明の実施形態に係る認知機能予測装置10の動作の一例について説明する。なお、以下で説明する認知機能予測装置10の動作は、図3に示される通信回線により接続されている利用者端末50及び認知機能予測装置60を備えた認知機能予測システム40の動作と共通するものであり、認知機能予測システム40の動作の一例として読み替えることができる。
Next, an example of the operation of the cognitive
最初に、例えば、制御部13が、オペレータ(例えば被験者の親族等)または利用者による認知機能予測装置10に対する所定の入力操作(例えば、外部情報入力部21及び/又は測定部12を介した操作)が行われたことを検出することで、認知機能予測装置10の動作が開始される。
First, for example, the
なお、初期設定として、認知機能予測装置10に利用者情報を登録してもよい。このような利用者情報の登録は、例えば、外部情報入力部21又は測定部12に対し、利用者情報(氏名、年齢等)等の所定の情報が入力されたことが、制御部13で検出されると、制御部13は入力された利用者情報をデータベース31に保管することにより達成される。上記利用者情報には、例えば、アバター111aに関するデータも含まれる。
また、利用者情報として、外部情報入力部21又は測定部12を介して、指紋認証、虹彩認証、静脈認証、声紋認証及び顔認証等の生体情報を予め登録してもよい。最初に利用者の生体情報を登録することで、次回の認知機能予測装置10の利用時に、測定部12及び/又は外部情報入力部21を介して制御部13にて生体情報が検出されることにより利用者が特定され、スムーズに認知機能予測装置10を作動させることができる。
As an initial setting, user information may be registered in the cognitive
Further, as user information, biometric information such as fingerprint authentication, iris authentication, vein authentication, voice print authentication and face authentication may be registered in advance via the external
認知機能予測装置10が作動すると、まず、アバター111aが自己紹介(名前を名乗る)をしていると利用者が感じるように、制御部13が、データベース31から必要な画像データ及び音声データを読み出し、当該データを情報伝達部11に対して入力する。なお、以下では説明の簡略化のため、アバター111aの擬人的な動作の説明のみを行い、アバター111aが擬人的な動作をするために必要となる制御部13の動作(データベース31から必要な画像データ及び音声データを読み出し、当該データを情報伝達部11に対して入力する動作)については説明を省略する。
When the cognitive
アバター111aが自己紹介を行うことによって、機械と対話する利用者の違和感や緊張を緩和することができる。また、アバター111aが自己紹介を行ったあと、アバター111aが利用者の自己紹介を促す(例えば、アバター111aが「お名前は何といいますか」という質問を行う)ことで、機械と対話する利用者の違和感や緊張をさらに緩和することができる。
When the
次に、アバター111aは、利用者に対して質問を行う。例えば、アバター111aが、「今日は何月何日ですか。」、「大阪万博について知っていることをお話しください。」、「あなたが20代の頃に、印象に残っている出来事を教えてください。」等の複数の質問を行う。アバター111aにより行われる複数の質問には、固定質問(長谷川式認知症スケール、MMSE等の神経心理検査に含まれる日時、場所、計算等の質問)の他、非定型質問を含み、非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むものである。
例えば、アバター111aは、図5に記載のような質問セットの中からランダムに少なくとも3問程度選択し、質問を行うが、図5の中では、Q5〜Q13に関する質問が、利用者の年齢に応じた過去のイベントに関する質問に該当するため、Q5〜Q13のいずれかの質問が含まれる。
なお、アバター111aによる質問は、利用者の年齢に応じた過去のイベントに関する質問を含む少なくとも3問以上であることが好ましく、5問以上であることがより好ましい。
Next, the
For example, the
The questions by the
アバター111aによる質問が行われてから利用者の回答が完了するまでの間、測定部12が利用者の反応を測定する。なお、アバター111aが、利用者に質問を行ったにもかかわらず利用者が何らの回答もしない場合(即ち、利用者に対する1つの質問が終了してから集音部121が利用者の音声を集音しない状態が所定の時間続いたことを制御部13が検出した場合)、その質問の回答を待たずに次の質問に移ってもよい。上記所定の時間は、例えば、利用者の会話リズムに応じて決定されることとしてもよく、一律で例えば15秒と設定してもよい。また、利用者が答え難い質問ほど、アバター111aが回答を待つ時間を長くするように設定してもよい。
また、アバター111aは、利用者が何らかの音声を発して回答した後に沈黙した場合(即ち、利用者に対する1つの質問が終了してから集音部121が利用者の音声を集音し、その後に集音部121が利用者の音声を集音しない状態が所定の時間続いたことを制御部13が検出した場合)、利用者の回答が完了したとして次の動作を行ってもよい。
The measuring
Further, when the
そして、制御部13における特徴データ作成部131が、測定部12の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成する。具体的には、特徴データ作成部131にて、測定部12における集音部121で得られた利用者音声データに対し、音声区間検出処理、音声認識処理等の各種処理を行い、音声的特徴データ及び言語的特徴データを準備することができる。また特徴データ作成部131にて、測定部12における撮像部122で得られた利用者画像データに対し、フリーのツールOpenFace等で表情特徴抽出処理を行い、画像的特徴に関するデータを準備することができる。なお、特徴データ作成部131では、音声的特徴データ及び/又は言語的特徴データ並びに画像的特徴データを作成することが好ましく、音声的特徴データ、言語的特徴データ及び画像的特徴データを作成することがより好ましい。
Then, the feature
次に、制御部13における特徴量抽出部132が、特徴データ作成部131で作成された特徴データから、特徴量を抽出する。上記特徴量は、特徴データ作成部131で作成された特徴データに基づき抽出されるものである。ここで、特徴量抽出部132が算出する特徴量について、図面を参照して説明する。図6は、制御部における特徴量抽出部132が抽出する特徴量を説明した表である。
Next, the feature
図6に示すように、特徴量抽出部132は、特徴データ作成部131で作成された音声的特徴データ、言語的特徴データ及び画像的特徴データから、種々の特徴量を抽出するよう構成されている。特徴量抽出部132は、音声的特徴データから抽出される特徴量及び/又は言語的特徴データから抽出される特徴量、並びに、画像的特徴データから抽出される特徴量を抽出することが好ましく、音声的特徴データから抽出される特徴量、言語的特徴データから抽出される特徴量、及び、画像的特徴データから抽出される特徴量を抽出することがより好ましい。図6に示される各特徴量は、例えば次のような処理により抽出されるものである。
As shown in FIG. 6, the feature
音声的特徴データからは、例えば、Snack sound toolkit、OpenSmileのような音声分析ツール等を使用することにより、ピッチ、声量(パワー)、声質、反応時間、ポーズ(発話間隔)等の特徴量を抽出することができる。
音声的特徴データから得られる特徴量は、利用者の音声の内容(音声に含まれる形態素や単語等)を解析することなく算出可能な、音声そのものに関する特徴量である。
「ピッチ」は、声の高さ、基本周波数である。ポーズは、利用者の発話(応答)の中で、沈黙が1秒以上の回数をカウントした合計数と発話間隔が最長の時間を特徴量としたものである。反応時間は、アバター111aの質問終了時から利用者の応答開始までの時間差のことである。基本周波数に関しては、変動係数、平均値、最大値、中央値、最小値、レンジを特徴量とすることができる。また、声量(パワー)に関しては、平均値、最大値、最小値を特徴量とすることができる。また、声質に関しては、利用者の音声における第1倍音(h1)と第3フォルマント(a3)の振幅差である。
Features such as pitch, voice volume (power), voice quality, reaction time, and pause (speech interval) are extracted from the voice feature data by using, for example, a voice analysis tool such as Snack sound toolkit or OpenSmile. can do.
The feature amount obtained from the voice feature data is a feature amount related to the voice itself, which can be calculated without analyzing the content of the user's voice (morphemes, words, etc. contained in the voice).
"Pitch" is the pitch and fundamental frequency of the voice. The pause is characterized by the total number of times the silence is counted for 1 second or more and the time when the utterance interval is the longest in the user's utterance (response). The reaction time is the time difference between the end of the question of the
言語的特徴データからは、例えば、MeCabのような形態素解析エンジン等を使用することにより、日本語の形態素解析を行うことができ、トークン(形態素)数、フィラー、タイプトークン比(TTR(Type Token Ratio))、品詞情報(名詞、動詞、形容詞及び副詞の数等)、構文の複雑さ、語彙の選定、語彙の難易度、及び、発話速度等の特徴量を抽出することができる。
すなわち、言語的特徴データから得られる特徴量は、利用者音声の内容に関する特徴量であり、利用者の音声の内容(音声に含まれる形態素や単語等)を解析することで抽出される。
言語特徴に分類される特徴量のそれぞれは、音声に含まれる形態素や単語の情報は、例えば、利用者の音声のデータに対して周知の音声認識方法を適用して利用者の音声を文字列に変換した上で、当該文字列に対して周知の形態素や単語の解析方法(例えば、Mecab)を適用することで得られる。
トークン数は、利用者の音声に含まれる単語の総数である。フィラーは、「うー」や「あー」といった特定の意味を持たない語句の数である。「TTR」は、利用者の音声に含まれている重複を許さない単語の総数であるタイプ数をトークン数で除した値である。なお、TTRは、利用者が同じ単語を使用するほど、タイプ数が増えずにトークン数が増えるため、値が小さくなる。「難易度」は、語句の難しさのレベルを数値で定義した所定の辞書に基づいて決定される全ての名詞の難しさのレベルの中間値である。「発話速度」は、被験者の発話時間を単語数で除した値である。
From the linguistic feature data, for example, by using a morphological analysis engine such as MeCab, Japanese morphological analysis can be performed, and the number of tokens (morphological elements), filler, and type-token ratio (TTR (Type Taken)). Ratio)), part of speech information (number of nouns, verbs, adjectives and adjuncts, etc.), syntactic complexity, vocabulary selection, vocabulary difficulty, and feature quantities such as speech speed can be extracted.
That is, the feature amount obtained from the linguistic feature data is a feature amount related to the content of the user's voice, and is extracted by analyzing the content of the user's voice (morphemes, words, etc. contained in the voice).
For each of the features classified into language features, the morphological element and word information contained in the voice is, for example, a character string of the user's voice by applying a well-known voice recognition method to the user's voice data. It can be obtained by applying a well-known morphological element or word analysis method (for example, Mecab) to the character string after converting to.
The number of tokens is the total number of words contained in the user's voice. A filler is a number of words that do not have a specific meaning, such as "uh" or "ah". "TTR" is a value obtained by dividing the number of types, which is the total number of non-duplicate words contained in the user's voice, by the number of tokens. The value of TTR becomes smaller as the user uses the same word because the number of types does not increase and the number of tokens increases. The "difficulty level" is an intermediate value of the difficulty level of all nouns determined based on a predetermined dictionary in which the difficulty level of a phrase is defined numerically. The "speaking speed" is a value obtained by dividing the speaking time of the subject by the number of words.
画像的特徴データとしては、例えば、Openfaceを使用することにより、フェイシャルアクションユニット(FACS)、フェイシャルランドマーク特徴及び視線パターン等の画像的特徴データが挙げられ、FACSから抽出した特徴量、フェイシャルランドマーク特徴から抽出した特徴量、及び、視線パターンから抽出した特徴量等を抽出することができる。また、アバター111aの質問終了時から利用者が口を動かすまでの応答時間(口元反応時間)を画像的特徴データから抽出される特徴量としてもよい。画像的特徴データから得られる特徴量は、利用者の音声とは無関係に、利用者の外見のみから抽出される特徴量である。
Examples of the image feature data include image feature data such as a facial action unit (FACS), a facial landmark feature, and a line-of-sight pattern by using Openface, and feature amounts and facial landmarks extracted from FACS. The feature amount extracted from the feature, the feature amount extracted from the line-of-sight pattern, and the like can be extracted. Further, the response time (mouth reaction time) from the end of the question of the
測定部12で得られた利用者音声に基づき作成された音声的特徴データ及び言語的特徴データのうち少なくとも1種の特徴データに基づき、特徴量が抽出されることが好ましく、音声的特徴データ及び言語的特徴データに基づき、特徴量が抽出されることがより好ましい。また、上記特徴量は、音声的特徴データ及び/又は言語的特徴データに基づき抽出された特徴量に加え、測定部12で得られた利用者画像に基づき作成された視線パターン、フェイシャルアクションコーディングシステム及びフェイシャルランドマーク特徴のうち少なくとも1種の画像的特徴データから抽出された特徴量が含まれることがさらに好ましい。また、音声的特徴データ、言語的特徴データ及び上記画像的特徴データから抽出された特徴量が含まれることが最も好ましい。特徴量抽出部132で得られる特徴量に画像的特徴データから得られる特徴量が含まれることで、認知機能予測精度が向上するためである。
また、特徴量抽出部132では、ピッチ(声の高さ、基本周波数)、声量(パワー)、声質、反応時間及びポーズ(発話間隔)からなる群より選択される少なくとも1種の音声的特徴と、トークン(形態素)数、フィラー、タイプトークン比(TTR(Type Token Ratio))及び品詞情報(名詞、動詞、形容詞及び副詞の数等)からなる群より選択される少なくとも1種の言語的特徴量と、フェイシャルアクションユニットから抽出される特徴量、フェイシャルランドマーク特徴から抽出される特徴量及び視線パターンからから抽出される特徴量からなる群より選択される少なくとも1種の画像的特徴量とが抽出されることが好ましく、上記特徴量から10種以上の特徴量が抽出されることがより好ましい。また、上記各特徴データから抽出されるそれぞれの特徴量を含むことが好ましい。認知機能予測結果の精度を向上できるためである。上述の各特徴量は、対話の際の脳の情報処理、認知活動をより反映した特徴量であると考えられるからである。
It is preferable that the feature amount is extracted based on at least one of the voice feature data and the linguistic feature data created based on the user voice obtained by the measuring
In addition, the feature
なお、上述のようにアバター111aが複数の質問を行う場合は、例えば質問毎に算出される10種類の特徴量を種類毎に平均化することで、最終的に質問数×10個の特徴量が抽出される。
When the
制御部13における認知機能予測部133では、特徴量抽出部132で得られた少なくとも1種の特徴量に基づき利用者に認知機能の低下に起因する状態又は症状の傾向があるか否かを予測する。具体的に、認知機能予測部133は、測定部12の測定結果に基づいて特徴量抽出部132において1以上の特徴量を抽出し、当該特徴量に基づいて利用者が認知機能の低下に起因する状態又は症状であるか否かを判定する。
なお、認知機能予測部133では、10種以上の特徴量に基づき利用者に認知機能の低下に起因する状態又は症状の傾向があるか否かを予測することが好ましい。また、上記10種以上の特徴量には、上記各特徴データから抽出されるそれぞれの特徴量を含むことがより好ましい。認知機能予測精度が高精度となるためである。
The cognitive
In addition, it is preferable that the cognitive
認知機能予測部133は、上記の10種(10次元)の特徴量に対して、所定の判定方法を適用することで、利用者が認知機能の低下に起因する状態又は症状であるか否かを予測する。この予測方法として、例えば、SVM(Support Vector Machine)、ロジスティック回帰分析、及び、深層学習からなる群から選択される少なくとも1つの識別モデルを用いて予測するように構成されていることが好ましい。識別モデルの入力として、特徴量抽出部132で抽出された特徴量がそれぞれ最小値0、最大値1になるように正規化し、認知機能の低下に起因する状態又は症状があるグループ(例えば、認知症グループ)と認知機能の低下に起因する状態又は症状がないグループ(例えば、非認知症グループ)とを分類するモデルを学習させることにより判定方法を構築させることができる。なお、判定方法の構築にあたっては、反応時間(音声的特徴量)を含む10種以上の特徴量を学習させることにより判定方法を構築させることが好ましい。
By applying a predetermined determination method to the above 10 types (10 dimensions) of the feature amount, the cognitive
そして、制御部13は、認知機能予測部133で得られた認知機能予測結果データを、情報伝達部11等に出力する。
Then, the
ここで、認知機能予測装置10における認知機能の予測精度の検証結果について、図面を参照して説明する。図7は、本発明の実施形態に係る認知機能予測装置における認知機能の低下に起因する状態又は症状の1種である認知症の予測精度の検証結果について示したグラフである。図7(a)は、判定方法としてSVMを採用して認知症を予測する場合の予測精度の検証結果を示したグラフであり、図7(b)は、ロジスティック回帰分析を採用して認知症を予測する場合の予測精度の検証結果を示したグラフである。
Here, the verification result of the prediction accuracy of the cognitive function in the cognitive
図7(a)及び(b)に示すグラフは、leave−one−participant−out交差検証を用いて算出したROC曲線及びAUC(Area Under the Curve)値を示したグラフである。leave−one−participant−out交差検証とは、複数の標本の中から1つを抜き出した残りの標本(学習用の標本)を用いて判定方法を構築するとともに、抜き出した1つの標本(テスト用の標本)に対して当該判定方法を適用して判定結果を得る検証方法であって、全ての標本が1回はテスト用の標本になるようにして複数の判定結果を得る検証方法である。また、図7(a)及び(b)に示す検証結果は、認知症グループと非認知症グループが半々である24人程度の協力者のそれぞれから21種の特徴量を得るとともに、この21種の特徴量のセットを1つの標本として算出したものである。
21種の特徴量は、質問の応答にかかった時間(反応時間)、発話と発話との間の中で沈黙が1秒以上の回数をカウントした合計数(ポーズカウント数)、発話と発話の間(1秒以上)の時間平均値(ポーズ時間平均値)、発話と発話の間(1秒以上)の時間の最大値(ポーズ時間最大値)、基本周波数の平均値、基本周波数の最小値、基本周波数の最大値、基本周波数の中央値、基本周波数の最大値と最小値との差、基本周波数の標準偏差、基本周波数の変動係数、声量の平均値、声量の標準偏差、発話の長さ(発話時間)、数発話内のトークン数、発話内のフィラーの総数、発話内の動詞の総数、発話内の名詞の総数、発話内の形容詞の総数、発話内の副詞の総数、発話時間あたりのトークン数である。なお、本実施例において、アバター111aは、図6に記載の19問のうち、Q5〜Q13の利用者の年齢に応じた過去のイベントに関する質問を少なくとも1つを含む質問セット(5問)をランダム選び、協力者にそれぞれ質問した。上記数発話は、アバター111aからの複数の質問に対する利用者の全回答(利用者応答の全発話)であってもよく、利用者の年齢に応じた過去のイベントに関する質問を含む少なくとも3問の質問に対する回答(利用者応答の発話)であってもよい。
The graphs shown in FIGS. 7A and 7B are graphs showing ROC curves and AUC (Area Under the Curve) values calculated using leave-one-participant-out cross-validation. In leave-one-participant-out cross-validation, a judgment method is constructed using the remaining sample (study sample) extracted from a plurality of samples, and one sample extracted (for testing). This is a verification method for obtaining a judgment result by applying the judgment method to the sample), and is a verification method for obtaining a plurality of judgment results so that all the samples are once used as test samples. In addition, the verification results shown in FIGS. 7 (a) and 7 (b) obtained 21 types of features from each of about 24 collaborators, each of whom has half the dementia group and half the non-dementia group, and these 21 types. This is a set of features calculated as one sample.
The 21 feature quantities are the time taken to answer the question (response time), the total number of silences between utterances of 1 second or more (pause count), and utterances and utterances. Time average value (pause time average value) between utterances (1 second or more), maximum value of time between utterances (1 second or more) (pause time maximum value), basic frequency average value, basic frequency minimum value , Maximum value of basic frequency, median value of basic frequency, difference between maximum value and minimum value of basic frequency, standard deviation of basic frequency, fluctuation coefficient of basic frequency, average value of voice volume, standard deviation of voice volume, length of utterance (Speech time), number of tokens in utterance, total number of fillers in utterance, total number of verbs in utterance, total number of nomenclature in utterance, total number of adjectives in utterance, total number of adjuncts in utterance, total time The number of tokens per. In this embodiment, the
ROC曲線は、特定の判定方法における陽性及び陰性の境界を決定付けるパラメータを変更しながら検証を行って得られる複数の検証結果を結んだ線であり、横軸が偽陽性率(陽性と判定されたが実際は陰性である割合)、縦軸が真陽性率(陽性と判定されて実際にも陽性である割合)である。また、図7(a)及び(b)に示すグラフにおいて、偽陽性率と真陽性率が一致する場合を表す斜めの破線は、陽性及び陰性を完全にランダムに判定する場合に相当する。そのため、ROC曲線が、当該破線よりも上側(ランダムに判定する場合よりも真陽性率が高い領域)にあり、当該破線から乖離しているほど、認知症の判定精度が高いと言える。また、AUC値は、ROC曲線の下側の面積の大きさを表しており、この値が最大値である1に近づくほど、認知症の判定精度が高いと言える。 The ROC curve is a line connecting a plurality of verification results obtained by performing verification while changing the parameters that determine the boundary between positive and negative in a specific determination method, and the horizontal axis is the false positive rate (determined as positive). However, the percentage that is actually negative) and the vertical axis are the true positive percentage (the percentage that is determined to be positive and is actually positive). Further, in the graphs shown in FIGS. 7A and 7B, the diagonal broken line indicating the case where the false positive rate and the true positive rate match corresponds to the case where positive and negative are completely randomly determined. Therefore, it can be said that the more the ROC curve is on the upper side of the broken line (the region where the true positive rate is higher than that of the random judgment) and the more deviated from the broken line, the higher the determination accuracy of dementia. Further, the AUC value represents the size of the area on the lower side of the ROC curve, and it can be said that the closer this value is to 1, which is the maximum value, the higher the determination accuracy of dementia.
図7(a)及び(b)に示すように、SVM及びロジスティック回帰のいずれを採用した場合のROC曲線も、上述した斜めの斜線よりも上側にあり、当該斜線から充分乖離している。さらに、SVM及びロジスティック回帰のいずれを採用した場合のAUC値も、最大値である1に極めて近い値(SVM:0.95、ロジスティック回帰:0.92)になっている。したがって、本発明の実施形態に係る認知機能予測装置は、認知機能の低下に起因する状態又は症状の1種である認知症の予測精度が極めて高いことが分かる。 As shown in FIGS. 7A and 7B, the ROC curve when either SVM or logistic regression is adopted is above the diagonal diagonal line described above, and is sufficiently deviated from the diagonal line. Further, the AUC value when either SVM or logistic regression is adopted is a value extremely close to the maximum value of 1 (SVM: 0.95, logistic regression: 0.92). Therefore, it can be seen that the cognitive function prediction device according to the embodiment of the present invention has extremely high prediction accuracy of dementia, which is one of the states or symptoms caused by the deterioration of cognitive function.
以上のように、本発明の実施形態に係る認知機能予測装置は、利用者の年齢に応じた過去のイベントに関する質問を含む非定型質問に対する利用者の応答を測定し、得られた測定結果から1以上の特徴データを作成し、特徴データから得られた1以上の特徴量に基づいて、利用者が認知機能の低下に起因する状態又は症状であるか否かを予測する。このため、本実施形態は、利用者の短期記憶と長期記憶に関する質問を含んでおり、より高精度な認知機能の低下に起因する状態又は症状予測が可能になる。 As described above, the cognitive function predictor according to the embodiment of the present invention measures the user's response to an atypical question including a question about a past event according to the user's age, and from the obtained measurement result. One or more feature data is created, and based on the one or more feature amounts obtained from the feature data, it is predicted whether or not the user is in a state or symptom caused by a decrease in cognitive function. Therefore, the present embodiment includes questions regarding the user's short-term memory and long-term memory, and enables more accurate prediction of the state or symptom caused by the deterioration of cognitive function.
なお、図7(a)及び(b)に例示した検証結果は、上述した21種の特徴量を用いて利用者が認知機能の低下に起因する状態又は症状の1種である認知症か否かを判定した場合の検証結果であるが、必ずしもこの21種の特徴量の全てを用いなくても認知症の判定精度を向上させることは可能である。特に、この21種の特徴量の中で、認知症の判定精度の向上に資するものを選択的に用いて利用者が認知症か否かを判定することによって、認知症の判定精度の向上を見込むことができる。すなわち、認知機能の低下に起因する状態又は症状の向上に資する特徴量を選択的に用いて利用者が認知機能の低下に起因する状態又は症状か否かを判定することによって、認知機能の低下に起因する状態又は症状の判定精度の向上を見込むことができる。 The verification results illustrated in FIGS. 7 (a) and 7 (b) show whether or not the user has dementia, which is one of the states or symptoms caused by the deterioration of cognitive function, using the above-mentioned 21 types of features. Although it is a verification result when it is determined whether or not, it is possible to improve the determination accuracy of dementia without necessarily using all of these 21 types of feature quantities. In particular, among these 21 types of feature quantities, those that contribute to the improvement of the determination accuracy of dementia are selectively used to determine whether or not the user has dementia, thereby improving the determination accuracy of dementia. Can be expected. That is, the cognitive decline is determined by the user determining whether the condition or symptom is caused by the cognitive decline by selectively using the feature amount that contributes to the improvement of the cognitive decline or the symptom. It is expected that the accuracy of determining the condition or symptom caused by the above will be improved.
また、図7(a)及び(b)に例示した検証結果は、画像的特徴データから抽出された特徴量を含まないものであるが、画像的特徴データから抽出された特徴量を含めることとしてもよい。ここで、図8に示すグラフは、図7と同様にLeave−one−participant−out交差検証を用いて算出したROC曲線及びAUC(Area Under the Curve)値を示したグラフであり、画像的特徴データを用いた認知機能の低下に起因する状態又は症状の1種である認知症の判定精度の検証について示したグラフである。図8に示す検証結果は、認知症グループと非認知症グループが半々である24人程度の協力者のそれぞれから、画像的特徴データから抽出された3種の特徴量を得るとともに、この3種のセットを特徴量として、各協力者から抽出し算出したものである。
3種の特徴量は、フェイシャルアクションコーディングシステムから抽出された動作単位(Action Units(AUs))と、視線パターンから抽出された特徴量、及び、フェイシャルランドマーク特徴から抽出された口元反応時間である。
Further, the verification results illustrated in FIGS. 7A and 7B do not include the feature amount extracted from the image feature data, but include the feature amount extracted from the image feature data. May be good. Here, the graph shown in FIG. 8 is a graph showing the ROC curve and the AUC (Area Under the Curve) value calculated by using the Leave-one-participant-out intersection verification as in FIG. 7, and is an image feature. It is a graph which showed the verification of the determination accuracy of dementia which is one of the states or symptoms caused by the deterioration of cognitive function using data. The verification results shown in FIG. 8 obtained three types of features extracted from the image feature data from each of about 24 collaborators, half of whom were in the dementia group and half of the non-dementia group, and these three types. It is calculated by extracting from each collaborator using the set of features as the feature quantity.
The three types of features are the action units (Action Units (Australia)) extracted from the facial action coding system, the features extracted from the line-of-sight pattern, and the mouth reaction time extracted from the facial landmark features. ..
図8に示すように、画像的特徴データから抽出された3種の特徴量の組合せを用い、ロジスティック回帰を採用した場合のROC曲線は、異なる2つの質問(Q1、Q2)のいずれの場合も斜線よりも上側にあり、斜線から充分乖離している。更に、AUC値も最大値である1に近い値(Q1:0.78、Q2:0.82)になっている。したがって、画像的特徴データから抽出される特徴量のみを用いた場合でも本発明の実施形態に係る認知機能予測装置は、認知機能の低下に起因する状態又は症状の予測精度が高く、具体的に認知症の予測精度が高いことが分かる。なお、図8中のQ1及びQ2は、定型質問であり、Q1は、「今日は何月何日ですか」であり、Q2は、「これまでに楽しかった思い出を話してください」である。
よって、画像的特徴データから抽出される特徴量と、言語的特徴データ及び/又は音声的特徴データから抽出される特徴量とを組み合わせることで、認知機能予測精度の個人差によるばらつきが解消され、一貫性のある認知機能予測が可能になると考えられる。
As shown in FIG. 8, the ROC curve when logistic regression is adopted using a combination of three types of features extracted from the image feature data is in any case of two different questions (Q1 and Q2). It is above the diagonal line and is sufficiently deviated from the diagonal line. Further, the AUC value is also close to the maximum value of 1 (Q1: 0.78, Q2: 0.82). Therefore, even when only the feature amount extracted from the image feature data is used, the cognitive function prediction device according to the embodiment of the present invention has high prediction accuracy of the state or symptom caused by the deterioration of the cognitive function, and specifically. It can be seen that the prediction accuracy of dementia is high. In addition, Q1 and Q2 in FIG. 8 are standard questions, Q1 is "what month and what day is it today", and Q2 is "tell me the memories you have enjoyed so far".
Therefore, by combining the feature amount extracted from the image feature data and the feature amount extracted from the linguistic feature data and / or the phonetic feature data, the variation due to the individual difference in the cognitive function prediction accuracy can be eliminated. It is thought that consistent cognitive function prediction will be possible.
ここで、認知機能の低下に起因する状態又は症状の1種である認知症の予測におけるそれぞれの特徴量の有意性について説明する。
図7(b)に示したロジスティック回帰法による検証結果では、21種の特徴量の中でも1)反応時間、2)基本周波数の最大値と最小値との差、3)基本周波数の最大値、4)ポーズ時間の平均値、5)発話内の動詞の総数は、認知症の検出に当たって重要な特徴量であり、特に反応時間は、ロジスティック回帰法による認知症予測において、最も影響が大きい特徴量であり、認知症の早期発見に最も効果的な属性を示す。よって、認知機能の低下に起因する状態又は症状の早期発見に最も効果的な属性を示すと考えられる。
Here, the significance of each feature amount in the prediction of dementia, which is one of the states or symptoms caused by the deterioration of cognitive function, will be described.
According to the verification results by the logistic regression method shown in FIG. 7 (b), among the 21 types of features, 1) reaction time, 2) difference between the maximum and minimum values of the basic frequency, and 3) the maximum value of the basic frequency, 4) Mean value of pause time, 5) Total number of verbs in speech is an important feature in detecting dementia, and reaction time is the feature that has the greatest influence on the prediction of dementia by logistic regression. It shows the most effective attributes for early detection of dementia. Therefore, it is considered to show the most effective attributes for early detection of conditions or symptoms caused by cognitive decline.
また、本発明においては、アバター111aが利用者に対して行う質問に非定型質問が含まれており、非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含む。認知機能の低下に起因する状態又は症状を有する患者の中でも初期段階に属する患者は、過去のイベントに関する質問に対する反応時間は、健常者の同質問に対する反応時間と統計的な有意差を示さない。そのため、本質問を含むことにより、認知機能の低下に起因する状態又は症状の進行度、なかでも認知症の進行度を予測することができる。
なお、アバター111aによる質問は、上記質問の他、認知機能の低下に起因する状態又は症状の初期段階の患者と、健常者のそれぞれにおける反応時間に統計学的な有意差がある質問を利用者に対して行うようにすると、好ましい。
Further, in the present invention, the question asked by the
In addition to the above questions, the questions asked by
また、認知機能予測装置の使用が想定される状況に応じて、質問の内容を決めると好ましい。例えば、自宅のテレビ、パソコン、タブレット及びスマートフォン等を認知機能予測システム40における利用者端末50として使用することが想定される場合、自宅で回答しやすい質問として、例えば、「朝食は何を食べましたか」などの質問を行ってもよい。
In addition, it is preferable to determine the content of the question according to the situation in which the cognitive function prediction device is expected to be used. For example, when it is assumed that a TV, a personal computer, a tablet, a smartphone, or the like at home is used as a
上述の実施形態では、アバター111aが画像である場合について例示しているが(図2参照)、アバターはロボット等の立体的な物体であってもよい。ただし、アバターを画像とした方が、認知機能予測装置の構成を簡略化することができるため、好ましい。
In the above embodiment, the case where the
本発明は、利用者が認知機能の低下に起因する状態又は症状であるか否かを予測する認知機能予測装置、認知機能予測システム、認知機能予測方法及びプログラムに利用可能である。 The present invention can be used for a cognitive function prediction device, a cognitive function prediction system, a cognitive function prediction method and a program for predicting whether or not a user has a state or symptom caused by a decrease in cognitive function.
10、60: 認知機能予測装置
11 : 情報伝達部
111 : 表示部
111a : アバター
111b : テキスト
112 : 音声出力部
12 : 測定部
121 : 集音部
122 : 撮像部
13 : 制御部
131 : 特徴データ作成部
132 : 特徴量抽出部
133 : 認知機能予測部
134 : 質問作成部
21 : 外部情報入力部
31 : データベース
40 : 認知機能予測システム
50 : 利用者端末
10, 60: Cognitive function prediction device 11: Information transmission unit 111:
Claims (8)
利用者音声及び/又は利用者画像を測定するための測定部と、
前記測定部で得られた測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成するための特徴データ作成部と、
前記特徴データ作成部で得られた特徴データから、特徴量を抽出するための特徴量抽出部と、
前記特徴量抽出部で得られた少なくとも1種の特徴量に基づき、前記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測するように構成されている認知機能予測部とを備え、
前記情報伝達部から伝達される情報は、非定型質問を含み、
前記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測装置。 An information transmission unit for transmitting audio and image information to users,
A measuring unit for measuring user voice and / or user image,
A feature data creation unit for creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data based on the measurement results obtained by the measurement unit. ,
A feature amount extraction unit for extracting a feature amount from the feature data obtained by the feature data creation unit, and a feature amount extraction unit.
A cognitive function prediction configured to predict whether or not the user is prone to a condition or symptom caused by cognitive decline based on at least one feature amount obtained by the feature amount extraction unit. With a department
The information transmitted from the information transmission unit includes atypical questions.
The atypical question is a cognitive function predictor including a question about a past event according to a user's age.
前記非定型質問は、前記質問作成部にて作成された質問を含む請求項1に記載の認知機能予測装置。 It also has a question-making unit that is configured to create questions based on user responses.
The cognitive function prediction device according to claim 1, wherein the atypical question includes a question created by the question creation unit.
利用者音声及び/又は利用者画像を測定する測定ステップと、
前記測定部の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成する特徴データ作成ステップと、
前記特徴データ作成ステップで得られた特徴データから、特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出部で得られた少なくとも1種の特徴量に基づき、前記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測する認知機能予測ステップとを備え、
前記情報伝達部から伝達される情報は、非定型質問を含み、
前記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測方法。 Information transmission steps to convey audio and image information to users,
Measurement steps to measure user voice and / or user image,
A feature data creation step of creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data based on the measurement results of the measurement unit.
A feature amount extraction step for extracting a feature amount from the feature data obtained in the feature data creation step, and a feature amount extraction step.
Based on at least one feature amount obtained by the feature amount extraction unit, the user is provided with a cognitive function prediction step for predicting whether or not the user is prone to a state or symptom caused by cognitive decline.
The information transmitted from the information transmission unit includes atypical questions.
The atypical question is a cognitive function prediction method including a question about a past event according to a user's age.
前記測定部の測定結果に基づいて、音声的特徴データ、言語的特徴データ及び画像的特徴データからなる群から選択される少なくとも1種の特徴データを作成するための特徴データ作成部と、前記特徴データ作成部で得られた特徴データから、特徴量を抽出するための特徴量抽出部と、前記特徴量抽出部で抽出された少なくとも1種の特徴量に基づき、前記利用者に認知機能低下に起因する状態又は症状の傾向があるか否かを予測するように構成されている認知機能予測部と、を備える認知機能予測装置とを有し、
前記情報伝達部から伝達される情報は、非定型質問を含み、
前記非定型質問は、利用者の年齢に応じた過去のイベントに関する質問を含むことを特徴とする認知機能予測システム。
A user terminal including an information transmission unit for transmitting voice information and image information to a user, and a measurement unit for measuring user voice and / or user image.
A feature data creation unit for creating at least one type of feature data selected from a group consisting of voice feature data, linguistic feature data, and image feature data based on the measurement results of the measurement unit, and the feature data creation unit. Based on the feature amount extraction unit for extracting the feature amount from the feature data obtained by the data creation unit and at least one kind of feature amount extracted by the feature amount extraction unit, the user suffers from cognitive decline. It has a cognitive function predictor that is configured to predict whether or not there is a tendency for the resulting condition or symptom, and a cognitive function predictor.
The information transmitted from the information transmission unit includes atypical questions.
The atypical question is a cognitive function prediction system characterized by including questions about past events according to the age of the user.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185331 | 2019-10-08 | ||
JP2019185331 | 2019-10-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058573A true JP2021058573A (en) | 2021-04-15 |
JP7390268B2 JP7390268B2 (en) | 2023-12-01 |
Family
ID=75380884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020150612A Active JP7390268B2 (en) | 2019-10-08 | 2020-09-08 | Cognitive function prediction device, cognitive function prediction method, program and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7390268B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023224333A1 (en) * | 2022-05-18 | 2023-11-23 | 의료법인 명지의료재단 | Dementia diagnosis system |
WO2023229016A1 (en) * | 2022-05-25 | 2023-11-30 | 積水化学工業株式会社 | Medical cooperation system, medical cooperation method, and program |
JP7437825B1 (en) | 2023-01-06 | 2024-02-26 | カイアイ カンパニー インク. | Dementia early examination system using screen interaction |
WO2024143937A1 (en) * | 2022-12-28 | 2024-07-04 | (주) 로완 | Method and apparatus for estimating specific effect of content related to cognitive ability improvement by using deep learning |
KR102706365B1 (en) * | 2022-05-18 | 2024-09-11 | 의료법인 명지의료재단 | Dementia Diagnosis System |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002007560A (en) * | 2000-06-19 | 2002-01-11 | Az-Navi:Kk | Recollection database system and medium with recorded recollection support program |
JP2007282992A (en) * | 2006-04-19 | 2007-11-01 | Sky Kk | Dementia diagnostic support system |
JP2010092358A (en) * | 2008-10-09 | 2010-04-22 | Nippon Telegr & Teleph Corp <Ntt> | Episodic memory-recall support system, episodic memory-recall support method, and program |
JP2018015139A (en) * | 2016-07-26 | 2018-02-01 | ヤンマー株式会社 | Dementia testing system |
-
2020
- 2020-09-08 JP JP2020150612A patent/JP7390268B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002007560A (en) * | 2000-06-19 | 2002-01-11 | Az-Navi:Kk | Recollection database system and medium with recorded recollection support program |
JP2007282992A (en) * | 2006-04-19 | 2007-11-01 | Sky Kk | Dementia diagnostic support system |
JP2010092358A (en) * | 2008-10-09 | 2010-04-22 | Nippon Telegr & Teleph Corp <Ntt> | Episodic memory-recall support system, episodic memory-recall support method, and program |
JP2018015139A (en) * | 2016-07-26 | 2018-02-01 | ヤンマー株式会社 | Dementia testing system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023224333A1 (en) * | 2022-05-18 | 2023-11-23 | 의료법인 명지의료재단 | Dementia diagnosis system |
KR20230161179A (en) * | 2022-05-18 | 2023-11-27 | 의료법인 명지의료재단 | Dementia Diagnosis System |
KR102706365B1 (en) * | 2022-05-18 | 2024-09-11 | 의료법인 명지의료재단 | Dementia Diagnosis System |
WO2023229016A1 (en) * | 2022-05-25 | 2023-11-30 | 積水化学工業株式会社 | Medical cooperation system, medical cooperation method, and program |
WO2024143937A1 (en) * | 2022-12-28 | 2024-07-04 | (주) 로완 | Method and apparatus for estimating specific effect of content related to cognitive ability improvement by using deep learning |
JP7437825B1 (en) | 2023-01-06 | 2024-02-26 | カイアイ カンパニー インク. | Dementia early examination system using screen interaction |
Also Published As
Publication number | Publication date |
---|---|
JP7390268B2 (en) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6263308B1 (en) | Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program | |
JP7390268B2 (en) | Cognitive function prediction device, cognitive function prediction method, program and system | |
EP3701529B1 (en) | System and method for assessing physiological state | |
US11848079B2 (en) | Biomarker identification | |
US10376197B2 (en) | Diagnosing system for consciousness level measurement and method thereof | |
WO2020013302A1 (en) | Mental/nervous system disorder estimation system, estimation program, and estimation method | |
US7315821B2 (en) | System and method for health care information processing based on acoustic features | |
JP2018015139A (en) | Dementia testing system | |
JP2004310034A (en) | Interactive agent system | |
CN111315302A (en) | Cognitive function evaluation device, cognitive function evaluation system, cognitive function evaluation method, and program | |
US20080045805A1 (en) | Method and System of Indicating a Condition of an Individual | |
JP2006071936A (en) | Dialogue agent | |
Ziegler et al. | Gauging the auditory dimensions of dysarthric impairment: Reliability and construct validity of the Bogenhausen Dysarthria Scales (BoDyS) | |
US11766209B2 (en) | Cognitive function evaluation device, cognitive function evaluation system, and cognitive function evaluation method | |
Whitfield et al. | Effects of concurrent manual task performance on connected speech acoustics in individuals with Parkinson disease | |
KR102321520B1 (en) | Depression identification and care system through voice analysis | |
CN116807476B (en) | Multi-mode psychological health assessment system and method based on interface type emotion interaction | |
US20220142535A1 (en) | System and method for screening conditions of developmental impairments | |
US10820851B2 (en) | Diagnosing system for consciousness level measurement and method thereof | |
KR102468833B1 (en) | Artificial Intelligence-based Mirror Counseling Method for Depression Treatment | |
JP7307507B2 (en) | Pathological condition analysis system, pathological condition analyzer, pathological condition analysis method, and pathological condition analysis program | |
WO2023075746A1 (en) | Detecting emotional state of a user | |
Ahmed et al. | Early dementia detection through conversations to virtual personal assistant | |
KR102455859B1 (en) | Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof | |
TW202135048A (en) | Method of extracting acoustic features in a disease estimation program, and disease estimation program and an apparatus using the acoustic features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231120 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7390268 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |