JP2018007792A - Expression recognition diagnosis support device - Google Patents

Expression recognition diagnosis support device Download PDF

Info

Publication number
JP2018007792A
JP2018007792A JP2016138000A JP2016138000A JP2018007792A JP 2018007792 A JP2018007792 A JP 2018007792A JP 2016138000 A JP2016138000 A JP 2016138000A JP 2016138000 A JP2016138000 A JP 2016138000A JP 2018007792 A JP2018007792 A JP 2018007792A
Authority
JP
Japan
Prior art keywords
face
face information
information
storage unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016138000A
Other languages
Japanese (ja)
Inventor
黒木 義彦
Yoshihiko Kuroki
義彦 黒木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Comfort Vision Res Lab Co Ltd
Comfort Vision Research Lab Co Ltd
Original Assignee
Comfort Vision Res Lab Co Ltd
Comfort Vision Research Lab Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Comfort Vision Res Lab Co Ltd, Comfort Vision Research Lab Co Ltd filed Critical Comfort Vision Res Lab Co Ltd
Priority to JP2016138000A priority Critical patent/JP2018007792A/en
Publication of JP2018007792A publication Critical patent/JP2018007792A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an expression recognition diagnosis support device for supporting diagnosis of a relatively early symptom of dementia.SOLUTION: The expression recognition diagnosis support device includes: a face expression pattern storage part for previously storing a plurality of moving image patterns; a question pattern storage part for previously storing a plurality of question patterns; a camera part capable of photographing the face of a user performing response according to a moving image pattern and a question pattern; a face image processing part for extracting face information; a learning control part for performing machine learning by using the face information of the user face information storage part, and face information of a healthy person face information storage part or face information of a slight dementia face information storage part on the basis of preset teacher information, and storing a weighting coefficient of each part of an updated face; and a determination processing part for calculating a prescribed distance between the face information extracted by the face image processing part and the face information stored in the healthy person face information storage part or the face information stored in the slight dementia face information storage part to determine which a user belongs to either a healthy person group or a slight dementia group.SELECTED DRAWING: Figure 2

Description

本発明は、認知症の比較的初期の症状の診断を支援するための表情認知診断支援装置に関する。   The present invention relates to a facial expression recognition diagnosis support apparatus for supporting diagnosis of relatively early symptoms of dementia.

近年、認知症の予防や早期発見に対する関心は非常に高くなってきている。認知症は、要介護状態に陥る3大原因疾患の一つに挙げられており、日本人で認知症の人は2012年では約462万人(65歳以上の約7人に1人)であったが、今後高齢化の進展に伴い増加が見込まれ、2025年には約700万人(65歳以上の約5人に1人)になると予測されている。   In recent years, interest in prevention and early detection of dementia has become very high. Dementia is listed as one of the three major causative diseases that require nursing care. In 2012, there were approximately 4.62 million people with dementia (about 1 in 7 people over the age of 65). However, it is expected to increase with the aging of the population in the future, and is expected to reach about 7 million in 2025 (about 1 in 5 people over 65).

認知症には、アルツハイマー型認知症、脳血管性認知症、前頭側頭型認知症、レビー小体型認知症等のいくつかのタイプがあるが、認知症のうち最も多いのが、アルツハイマー型認知症である。   There are several types of dementia such as Alzheimer-type dementia, cerebrovascular dementia, frontotemporal dementia, and Lewy body dementia, but the most common type of dementia is Alzheimer-type dementia. It is symptom.

認知症は、日常の態度や行動において健常者との違いが表れる。例えば、健常者であれば、相手の顔の筋肉の動きによる口角、目尻、眉等の微小な位置の変化や眼球運動によって表れる微細な表情変化を十分に認知することができるが、認知症では、相手の表情変化を認知するのに障害がでるほど能力が低下していることが知られている(非特許文献1)。また、認知症の進行過程が進むと、その能力の低下はより顕著になっていく。   Dementia is different from normal people in daily attitudes and behaviors. For example, a healthy person can fully recognize minute positional changes such as the corners of the mouth, the corners of the eyes, and the eyebrows due to the movement of the opponent's facial muscles and minute facial expression changes that appear due to eye movements. Further, it is known that the ability decreases as the obstacles occur in recognizing the facial expression change of the other party (Non-patent Document 1). In addition, as the dementia progresses, the ability decline becomes more prominent.

他方で、認知症の前駆状態である軽度認知障害(MCI:Mild Cognition Impairment)であれば、脳の適応力によりある程度の回復が見込める場合があるとの考えが示されている(一般社団法人日本神経学会、認知症疾患治療ガイドライン2010、p75)。   On the other hand, it has been shown that mild cognitive impairment (MCI), which is a precursor of dementia, may be expected to recover to some extent due to the adaptability of the brain (Japan) Neurological Society, Dementia Disease Treatment Guidelines 2010, p75).

また、アルツハイマー型認知症は、病状発症の10年以上前に脳神経変性が始まることが多く、比較的初期の症状のうちに診断することができれば、認知症の進行を抑制し、又は発症を予防できる可能性が高くなることが示されている(厚生労働省、認知症予防・支援マニュアル(改訂版)、平成21年3月)。   In addition, Alzheimer-type dementia often begins with cranial nerve degeneration 10 years or more before the onset of the disease, and if it can be diagnosed in relatively early symptoms, the progression of dementia is prevented or the onset is prevented. It has been shown that the possibility of being able to be increased (Ministry of Health, Labor and Welfare, Dementia Prevention and Support Manual (revised version), March 2009).

ところで、認知症をはじめ、人の病状の診断には、従来から問診や視診が行われており、これらを支援する診断支援システムが存在する。   By the way, in the diagnosis of a person's medical condition including dementia, an inquiry and a visual inspection have been conventionally performed, and there is a diagnosis support system that supports these.

例えば、特許文献1に開示されている認知症診断支援システムは、患者に対して、患者の属性やスケジュール、ニュースなどについて質問を行い、その回答の正解率又は正解数などに基づいて患者の認知症のレベルを判定し、医師が利用するコンピュータ端末へ結果が通知する。医師は、この通知された結果を見て詳細な問診などを行うことができる。   For example, the dementia diagnosis support system disclosed in Patent Document 1 asks a patient about the patient's attributes, schedule, news, etc., and recognizes the patient based on the correct answer rate or the number of correct answers. The disease level is determined, and the result is notified to the computer terminal used by the doctor. The doctor can make a detailed inquiry by looking at the notified result.

特許文献2に開示されている認知症予見システムは、定期的な入力を求める約束のもとで対象者によって入力された入力情報に基づいて認知症可能性判定基準に該当するか否かを判定し、該当するときは、認知症の可能性があることを通知する。対象者は、定期的な入力に基づいて認知症の可能性を予見するシステムに利用することができる。   The system for predicting dementia disclosed in Patent Document 2 determines whether or not a dementia possibility determination criterion is satisfied based on input information input by a subject under a promise for periodic input. And, when applicable, notify you of the possibility of dementia. The subject can use the system for predicting the possibility of dementia based on regular input.

特許文献3に開示されている表情診断支援装置は、被診断者の顔の表情をディジタルカメラで撮影し、その顔画像の特徴点を抽出し、診断データとして数値化したものを、複数の専門家の知見を数値化した診断マトリックスを用いて演算し、その結果を診断結果として表示器に表示する。診断者は、この診断結果から容易に被診断者の心因性疾病の度合いの判断をすることができる。   The facial expression diagnosis support apparatus disclosed in Patent Document 3 captures the facial expression of a person to be diagnosed with a digital camera, extracts feature points of the facial image, and quantifies it as diagnostic data. It calculates using the diagnosis matrix which digitizes the knowledge of the house, and displays the result on the display as the diagnosis result. The diagnostician can easily determine the degree of the psychogenic disease of the diagnosed person from the diagnosis result.

特開2007−282992号公報JP 2007-282929 A 特開2015−138488号公報Japanese Patent Laying-Open No. 2015-138488 特開2006−305260号公報JP 2006-305260 A

D.McCade et al.: Review of emotion recognition in mild cognitive impairment, Dement Geriatr Cogn Disord, 32, 257−266, 2011D. McCade et al. : Review of emotion recognition in mild cognitive impulse, Dimension Geriatr Cognition, 32, 257-266, 2011

しかしながら、軽度認知障害では、脳の適応力によりある程度の回復が見込める場合があるにも関わらず、認知症の比較的初期の症状の診断を支援するための手段が確立されているとはいいにくいのが現状である。   However, for mild cognitive impairment, although some recovery can be expected due to the adaptability of the brain, it is difficult to say that a means for supporting diagnosis of relatively early symptoms of dementia has been established. is the current situation.

また、認知症の診断ではその症状を適切に捉えることが必要であるが、従来の認知症診断支援システム等により行われる診断支援では、例えばユーザーの顔の表情等に健常者と違う微細な特徴が表れていても、それを認知症の症状として適切に捉えることができているかどうかは不明である。   In addition, the diagnosis of dementia needs to properly capture the symptom, but in the diagnosis support performed by the conventional dementia diagnosis support system etc., for example, the facial features of the user, etc., fine features that are different from normal subjects Even if appears, it is unclear whether it can be properly understood as a symptom of dementia.

本発明は、このような問題点に鑑みてなされたものであり、認知症の比較的初期の症状の診断を支援するための表情認知診断支援装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a facial expression recognition diagnosis support apparatus for supporting diagnosis of relatively early symptoms of dementia.

本発明は、上記問題点を解決するために、
人の顔面を毎秒120フレーム以上で立体撮影した複数の動画パターンを予め記憶した顔表情パターン記憶部と、
ユーザーに対する複数の質問パターンを予め記憶した質問パターン記憶部と、
ユーザーからの入力操作を受付可能な操作部と、
予め設定された設定情報及び前記操作部で受け付けられた入力情報に基づいて、情報表示部を制御する表示制御部と、
前記表示制御部からの指令に基づいて、前記顔表情パターン記憶部に記憶された動画パターン及び前記質問パターン記憶部に記憶された質問パターンを表示する情報表示部と、
毎秒120フレーム以上で撮影可能な複数のイメージセンサを、前記情報表示部に表示される動画パターン及び質問パターンに従って応答するユーザーの顔面を立体撮影可能に配置したカメラ部と、
前記カメラ部で撮影された動画から顔面の各部位についての顔情報を抽出する顔画像処理部と、
前記顔画像処理部で抽出された顔情報を記憶するユーザー顔情報記憶部と、
健常者グループに属する顔情報を予め記憶した健常者顔情報記憶部と、
軽度認知障害者グループに属する顔情報を予め記憶した軽度認知障害者顔情報記憶部と、
予め設定された教師情報に基づいて、前記ユーザー顔情報記憶部に記憶された顔情報と、前記健常者顔情報記憶部に記憶された顔情報又は前記軽度認知障害者顔情報記憶部に記憶された顔情報とを用いて機械学習し、更新された顔面の各部位の重み係数を記憶する学習制御部と、
前記顔画像処理部で抽出された顔情報と、前記健常者顔情報記憶部に記憶された顔情報又は前記軽度認知障害者顔情報記憶部に記憶された顔情報との間で、前記学習制御部に記憶された重み係数を用いて所定の距離を計算し、該距離に基づいて、ユーザーが健常者グループ又は軽度認知障害者グループのいずれに属するかの判定を行う判定処理部と、
前記判定処理部における判定の結果を記憶する判定情報記憶部と、
を備えることを特徴とする。
In order to solve the above problems, the present invention
A facial expression pattern storage unit that pre-stores a plurality of moving image patterns obtained by stereoscopically photographing a human face at 120 frames or more per second;
A question pattern storage unit that stores a plurality of question patterns for the user in advance;
An operation unit that can accept input operations from the user,
A display control unit that controls the information display unit based on preset setting information and input information received by the operation unit;
Based on a command from the display control unit, an information display unit that displays a moving image pattern stored in the facial expression pattern storage unit and a question pattern stored in the question pattern storage unit;
A plurality of image sensors that can be photographed at 120 frames per second or more, a camera unit arranged so that a user's face that responds according to a moving image pattern and a question pattern displayed on the information display unit can be stereoscopically photographed,
A face image processing unit that extracts face information about each part of the face from a video imaged by the camera unit;
A user face information storage unit for storing the face information extracted by the face image processing unit;
A healthy person face information storage unit that stores face information belonging to the healthy person group in advance;
A mild cognitive impairment face information storage unit that stores face information belonging to the mild cognitive impairment group in advance;
Based on preset teacher information, the face information stored in the user face information storage unit and the face information stored in the healthy person face information storage unit or stored in the mild cognitive impairment face information storage unit A learning control unit that performs machine learning using the acquired face information and stores a weight coefficient of each part of the updated face;
The learning control between the face information extracted by the face image processing unit and the face information stored in the healthy person face information storage unit or the face information stored in the mild cognitive impairment person face information storage unit A determination processing unit that calculates a predetermined distance using the weighting factor stored in the unit, and determines whether the user belongs to a group of healthy persons or a group of mild cognitive impairments based on the distance;
A determination information storage unit for storing the determination result in the determination processing unit;
It is characterized by providing.

本発明によれば、認知症の比較的初期の症状の診断支援を簡便に行うことができる。   According to the present invention, diagnosis support for relatively early symptoms of dementia can be easily performed.

本発明の全体的な構成を示す全体図である。1 is an overall view showing an overall configuration of the present invention. 本発明の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of this invention. 本発明の情報表示部における表示の一例を示した説明図である。It is explanatory drawing which showed an example of the display in the information display part of this invention. 本発明の質問パターンの例を表形式で示した図である。It is the figure which showed the example of the question pattern of this invention in tabular form. 顔面画像における顔の各部位のベクトル情報の一例を示した説明図である。It is explanatory drawing which showed an example of the vector information of each part of the face in a face image. 本発明のベクトル情報の距離Dに関する概念図である。It is a conceptual diagram regarding the distance D of the vector information of this invention. 本発明を携帯端末装置に実装した例を示した説明図である。It is explanatory drawing which showed the example which mounted this invention in the portable terminal device.

以下、本発明の実施形態について図面を参照しながら詳細に説明する。なお、本発明は以下の記述のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において適宜変更可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description, and can be appropriately changed without departing from the gist of the present invention.

まず、本発明に係る表情認知診断支援装置100の構成について説明する。図1は本発明100の全体的な構成を示す全体図であり、図2は本発明100の機能的な構成を示すブロック図である。
図1に示すように、表情認知診断支援装置100は、本体部1、情報表示部2、カメラ部3及び操作部4を備える。
First, the configuration of the facial expression recognition diagnosis support apparatus 100 according to the present invention will be described. FIG. 1 is an overall view showing the overall configuration of the present invention 100, and FIG. 2 is a block diagram showing the functional configuration of the present invention 100.
As shown in FIG. 1, the facial expression recognition diagnosis support apparatus 100 includes a main body unit 1, an information display unit 2, a camera unit 3, and an operation unit 4.

カメラ部3は、毎秒120フレーム以上で立体撮影が可能な2又は複数のイメージセンサで構成される。イメージセンサは、CCDイメージセンサやCMOSイメージセンサ等である。
このカメラ部3は、ユーザー5に情報表示部2に表示される動画パターンや質問パターンに従って応答してもらい、そのときのユーザー5の顔の表情を立体撮影するためのものである。カメラ部3は、ユーザー5の顔面に表れる微細な表情をも適切に撮影できるように、撮影時のフレームレートは毎秒120フレーム以上、好ましくは毎秒240フレームとされている。
また、カメラ部3は、情報表示部2を観視するユーザー5の顔面を正面のアングルで立体撮影できるように、情報表示部2に近接した位置に2又は複数のイメージセンサが設置されている。
The camera unit 3 is composed of two or more image sensors capable of stereoscopic shooting at 120 frames or more per second. The image sensor is a CCD image sensor, a CMOS image sensor, or the like.
This camera unit 3 is used to cause a user 5 to respond according to a moving image pattern or a question pattern displayed on the information display unit 2 and to stereoscopically photograph the facial expression of the user 5 at that time. The camera unit 3 has a frame rate of 120 frames per second or more, preferably 240 frames per second, so that even a fine expression appearing on the face of the user 5 can be captured appropriately.
The camera unit 3 is provided with two or more image sensors at positions close to the information display unit 2 so that the face of the user 5 viewing the information display unit 2 can be stereoscopically photographed at a front angle. .

本体部1は、物理的な構成としては、CPU等の処理装置、ROMやRAM等の主記憶装置、ハードディスクやフラッシュメモリ等の補助記憶装置等を備えており、予め設定されている各種の設定情報や、操作部4等の入力装置からの入力信号に基づいて各種プログラムを実行し、必要な制御処理を行う。   The main unit 1 includes a processing device such as a CPU, a main storage device such as a ROM and a RAM, an auxiliary storage device such as a hard disk and a flash memory, and the like as physical configurations. Various programs are executed based on information and input signals from an input device such as the operation unit 4 to perform necessary control processing.

一方で、本体部1は、図2に示すように、機能的な構成としては、顔表情パターン記憶部101、質問パターン記憶部102、表示制御部103、顔画像処理部111、判定処理部112、判定情報記憶部113、ユーザー顔情報記憶部121、健常者顔情報記憶部122、軽度認知障害者顔情報記憶部123及び学習制御部131を備えている。   On the other hand, as shown in FIG. 2, the body unit 1 has a functional configuration such as a facial expression pattern storage unit 101, a question pattern storage unit 102, a display control unit 103, a face image processing unit 111, and a determination processing unit 112. A judgment information storage unit 113, a user face information storage unit 121, a healthy person face information storage unit 122, a mild cognitive impairment person face information storage unit 123, and a learning control unit 131.

顔表情パターン記憶部101は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
この顔表情パターン記憶部101には、情報表示部2を介してユーザーに立体的映像として提示される、人の顔面の複数の動画パターンが予め記憶されている。
この動画パターンは、人の顔面に表れる微細な表情をも適切に提示できるように、フレームレートは毎秒120フレーム以上、好ましくは毎秒240フレームで撮影されている。また、人の顔面を立体映像表示できるように、2又は複数のカメラで立体撮影されている。
また、この動画パターンには複数のパターンがあり、人の顔面に表れる表情や感情によるパターン、人の性別や年齢層等によるパターン、構図のとり方や背景設定によるパターン等があるが、ユーザー5が、この動画パターンを見ながら表情の模倣、作為又は自然な表情をしやすいものを採択することが好ましい。
The facial expression pattern storage unit 101 includes a magnetic disk device such as a hard disk, a non-volatile memory device such as a flash memory, and the like.
The facial expression pattern storage unit 101 stores in advance a plurality of moving image patterns of a human face that are presented as a stereoscopic image to the user via the information display unit 2.
This moving image pattern is photographed at a frame rate of 120 frames per second or more, preferably 240 frames per second so that fine expressions appearing on the human face can be appropriately presented. In addition, stereoscopic imaging is performed with two or more cameras so that a human face can be displayed as a stereoscopic video.
In addition, there are a plurality of moving image patterns, such as patterns based on facial expressions and emotions appearing on a person's face, patterns based on a person's sex and age group, patterns based on composition and background settings, etc. It is preferable to adopt a pattern that is easy to imitate, act, or have a natural expression while looking at this moving image pattern.

質問パターン記憶部102は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
この質問パターン記憶部102には、情報表示部2を介してユーザーに提示される、複数の質問パターンが予め記憶されている。
この質問パターンには、文字表示により提示される文字情報だけでなく、必要に応じて画像表示により提示される動画情報等も含まれる。
また、この質問パターンには複数のパターンがあり、テーマによるパターン、設問形式によるパターン等があるが、ユーザー5の応答に健常者と違い、軽度認知障害や認知症に見られる特徴が表れやすいものを採択することが好ましい。
The question pattern storage unit 102 includes a magnetic disk device such as a hard disk, a non-volatile memory device such as a flash memory, and the like.
The question pattern storage unit 102 stores in advance a plurality of question patterns that are presented to the user via the information display unit 2.
This question pattern includes not only character information presented by character display but also moving image information presented by image display as required.
In addition, there are multiple patterns of this question pattern. There are patterns based on themes, patterns based on the question format, etc., but the response of the user 5 is different from that of the healthy person, and the characteristics seen in mild cognitive impairment and dementia are likely to appear. Is preferably adopted.

図4は、本発明の質問パターンの例を表形式で示した図である。
この図に示す例では、質問パターンには4つのテーマがある。1つは表情の判別であり、ユーザー5の直接的な回答を収集するためのものである。ただし、ユーザー5に対して回答の正解、不正解を意識させるものではなく、ユーザー5に対して心理的負担を与えないよう配慮したものである。
他の3つは表情の模倣、表情の作為及び自然な表情であり、ユーザー5の顔面の表情を収集するためのものである。ユーザー5は、画面表示を見ながら表情の模倣、作為又は自然な表情をしやすいように配慮したものである。
FIG. 4 is a diagram showing an example of a question pattern according to the present invention in a table format.
In the example shown in this figure, there are four themes for the question pattern. One is discrimination of facial expressions, for collecting direct answers of the user 5. However, it does not make the user 5 aware of the correct answer or incorrect answer, and is designed so as not to give the user 5 a psychological burden.
The other three are facial expressions imitation, facial expressions, and natural facial expressions for collecting facial expressions of the user 5. The user 5 considers the expression on the screen so that the user can easily imitate, work, or have a natural expression.

表示制御部103は、予め設定されている設定情報や操作部4からの入力信号等に基づいて、顔表情パターン記憶部101に記憶された人の顔面の動画パターン及び質問パターン記憶部102に記憶された質問パターンを、情報表示部2に表示するための表示制御を行う。   The display control unit 103 stores the moving image pattern of the human face stored in the facial expression pattern storage unit 101 and the question pattern storage unit 102 based on preset setting information, an input signal from the operation unit 4, and the like. The display control for displaying the question pattern thus displayed on the information display unit 2 is performed.

顔画像処理部111は、カメラ部3で撮影されたユーザー5の顔面画像21から口角、目尻、眉、眼球等の各部位の微細な動きを適切に捉えた顔情報を抽出する。
この顔情報には、ユーザー5の顔面の各部位の位置ベクトル情報及び時間情報のほか、速度ベクトルが含まれる。
The face image processing unit 111 extracts face information that appropriately captures minute movements of each part such as a mouth corner, an eye corner, an eyebrow, and an eyeball from the face image 21 of the user 5 photographed by the camera unit 3.
This face information includes a velocity vector in addition to position vector information and time information of each part of the face of the user 5.

図5は、顔面画像21における顔の各部位のベクトル情報の一例を示した図である。この図に示すように、顔座標系22は、顔面画像21の鼻頂点の位置を基準点とするX軸、Y軸及びZ軸の3軸からなる直交座標系であり、顔情報としては、表情を構成する代表的な部位である口角、目尻、眉、眼球等の位置ベクトル情報23及び時間情報が顔情報として抽出される。   FIG. 5 is a diagram showing an example of vector information of each part of the face in the face image 21. As shown in this figure, the face coordinate system 22 is an orthogonal coordinate system composed of three axes of the X axis, the Y axis, and the Z axis with the position of the nose apex of the face image 21 as a reference point. Position vector information 23 and time information such as mouth corners, corners of the eyes, eyebrows, and eyeballs, which are representative parts constituting the facial expression, are extracted as face information.

ユーザー顔情報記憶部121は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
このユーザー顔情報記憶部121は、顔画像処理部111で抽出されたユーザー5の顔情報が記憶される。
The user face information storage unit 121 includes a magnetic disk device such as a hard disk, a nonvolatile memory device such as a flash memory, and the like.
The user face information storage unit 121 stores the face information of the user 5 extracted by the face image processing unit 111.

健常者顔情報記憶部122は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
この健常者顔情報記憶部122には、多数の健常者から収集した多数の顔面画像から各部位ごとに抽出したベクトル情報及び時間情報が、健常者グループに属する顔情報として記憶されている。
この健常者顔情報記憶部122に記憶された顔情報は、健常者に情報表示部2に提示される動画パターンや質問パターンに従って応答してもらい、このときにカメラ部3で撮影された顔面画像から口角、目尻、眉、眼球等の部位ごとにベクトル情報及び時間情報を抽出し、蓄積したものであり、顔画像処理部111で抽出されたユーザー5の顔情報やその他の顔情報と演算することができる。
この顔情報には、顔面の各部位の位置ベクトル情報及び時間情報のほか、速度ベクトルが含まれる。
The healthy person face information storage unit 122 includes a magnetic disk device such as a hard disk, a non-volatile memory device such as a flash memory, or the like.
In this healthy person face information storage unit 122, vector information and time information extracted for each part from a large number of facial images collected from a large number of healthy persons are stored as face information belonging to the healthy person group.
The face information stored in the healthy person face information storage unit 122 has the healthy person respond according to a moving image pattern or a question pattern presented on the information display unit 2, and the facial image photographed by the camera unit 3 at this time Vector information and time information are extracted for each part such as the corner of the mouth, the corner of the eye, the eyebrows, and the eyeballs, and accumulated, and calculated with the face information of the user 5 and other face information extracted by the face image processing unit 111. be able to.
This face information includes a velocity vector in addition to position vector information and time information of each part of the face.

軽度認知障害者顔情報記憶部123は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
この軽度認知障害者顔情報記憶部123には、多数の軽度認知障害者から収集した多数の顔面画像から各部位ごとに抽出したベクトル情報及び時間情報が、軽度認知障害者グループに属する顔情報として記憶されている。
この軽度認知障害者顔情報記憶部123に記憶された顔情報は、予め軽度認知障害者に情報表示部2に提示される動画パターンや質問パターンに従って応答してもらい、このときにカメラ部3で撮影された顔面画像から口角、目尻、眉、眼球等の部位ごとにベクトル情報及び時間情報を抽出し、蓄積したものであり、顔画像処理部111で抽出されたユーザー5の顔情報やその他の顔情報と演算することができる。
この顔情報には、顔面の各部位の位置ベクトル情報及び時間情報のほか、速度ベクトルが含まれる。
The mildly cognitively impaired person face information storage unit 123 includes a magnetic disk device such as a hard disk, a non-volatile memory device such as a flash memory, and the like.
In this mild cognitive impairment face information storage unit 123, vector information and time information extracted for each part from a large number of facial images collected from a large number of mild cognitive impairment persons as face information belonging to the mild cognitive impairment group. It is remembered.
The face information stored in the mild cognitively impaired person face information storage unit 123 has a mild cognitively impaired person respond in advance according to a moving image pattern or a question pattern presented on the information display unit 2. Vector information and time information are extracted and accumulated for each part such as the mouth corner, the corner of the eye, the eyebrows, and the eyeballs from the photographed face image. The face information of the user 5 extracted by the face image processing unit 111 and other information are collected. It can be calculated with face information.
This face information includes a velocity vector in addition to position vector information and time information of each part of the face.

判定処理部112は、顔画像処理部111で抽出されたユーザー5の顔情報と、健常者顔情報記憶部122に記憶された健常者グループに属する顔情報又は軽度認知障害者顔情報記憶部123に記憶された軽度認知障害者グループに属する顔情報との間で、学習制御部131で決定された顔面の各部位の重み係数を用いて距離を計算し、該距離の比較の結果に基づいて、ユーザー5が健常者グループ又は軽度認知障害者グループのいずれに属するかの判定を行う。   The determination processing unit 112 includes the face information of the user 5 extracted by the face image processing unit 111, the face information belonging to the healthy person group stored in the healthy person face information storage part 122, or the face information storage part 123 with mild cognitive impairment. Between the face information belonging to the mild cognitive impairment group stored in the table, using the weighting coefficient of each part of the face determined by the learning control unit 131, and based on the comparison result of the distance Then, it is determined whether the user 5 belongs to the normal group or the mild cognitive impairment group.

該判定は、ある時刻において、ユーザー5の顔面の各部位の速度ベクトルが健常者グループ又は軽度認知障害者グループのいずれに属するかを判定するための判別関数として実行することができる。   The determination can be performed as a discriminant function for determining whether the velocity vector of each part of the face of the user 5 belongs to a normal group or a mild cognitive impairment group at a certain time.

例えば、ユーザー5の顔情報を判別関数に入力すると、健常者グループに属する顔情報の平均パターンとの間の距離と、軽度認知障害者グループに属する顔情報の平均パターンとの間の距離のそれぞれが計算され、該距離のうちいずれか近い方の距離について、その逆数として得られる値に基づいて類似性が高いかどうかの判定結果を得ることができる。   For example, when the face information of the user 5 is input to the discriminant function, each of the distance between the average pattern of the face information belonging to the healthy person group and the average pattern of the face information belonging to the mild cognitive impairment group Is calculated, and it is possible to obtain a determination result as to whether or not the similarity is high based on the value obtained as the reciprocal of the shorter one of the distances.

なお、該距離には、幾何学的距離に相当するユークリッド距離のほか、1から速度ベクトル間の相関係数を引いた数値として定義される相関距離、分散を考慮したマハラノビス距離、近いところを大きく評価するキャンベラ距離等を用いることができる。   In addition to the Euclidean distance corresponding to the geometric distance, the distance includes a correlation distance defined as a numerical value obtained by subtracting the correlation coefficient between 1 and the velocity vector, a Mahalanobis distance considering dispersion, The Canberra distance to be evaluated can be used.

また、該距離は、顔面の各部位を均等なものと仮定して計算することもできるが、本発明では、顔の部位ごとに重み係数による重み付けをして計算する。   The distance can be calculated on the assumption that each part of the face is equal, but in the present invention, the distance is calculated by weighting each part of the face with a weighting coefficient.

例えば、時刻tにおけるユーザー5の顔情報と、時刻t′における健常者グループに属する顔情報との間のユークリッド距離Dは、次式で表すことができる。
ただし、t0及びt′0は、それぞれ顔面の部位nの動きが開始された時刻、wnは、顔面の部位nにおける重み係数、xn、yn、zn及びx′n、y′n、z′nは、それぞれ顔面の部位nの位置ベクトル、Δxn、Δyn、Δzn及びΔx′n、Δy′n、Δz′nは、それぞれ顔面の部位nの速度ベクトルである。
For example, the Euclidean distance D between the face information of the user 5 at time t and the face information belonging to the healthy subject group at time t ′ can be expressed by the following equation.
Where t0 and t′0 are times when the movement of the facial part n is started, and wn is a weighting factor in the facial part n, xn, yn, zn and x′n, y′n, z′n. Are the position vectors of the facial part n, Δxn, Δyn, Δzn and Δx′n, Δy′n, Δz′n are the velocity vectors of the facial part n, respectively.

判定情報記憶部113は、ハードディスク等の磁気ディスク装置や、フラッシュメモリ等の不揮発性メモリ装置等で構成される。
この判定情報記憶部113は、判定処理部112で判定された結果が記憶される。
The determination information storage unit 113 is configured by a magnetic disk device such as a hard disk, a nonvolatile memory device such as a flash memory, or the like.
The determination information storage unit 113 stores the result determined by the determination processing unit 112.

学習制御部131は、予め設定された教師情報に基づいて、ユーザー顔情報記憶部121に記憶された顔情報と、健常者顔情報記憶部122に記憶された顔情報又は軽度認知障害者顔情報記憶部123に記憶された顔情報とを用いて機械学習し、更新された顔の各部位の重み係数を記憶する。   The learning control unit 131 uses the face information stored in the user face information storage unit 121 and the face information stored in the normal person face information storage unit 122 or the mild cognitively impaired person face information based on preset teacher information. Machine learning is performed using the face information stored in the storage unit 123, and the weighting coefficient of each part of the updated face is stored.

顔の各部位の重み係数は、ユーザー5の顔情報が健常者グループに属する場合には、軽度認知障害者グループの顔情報との距離が小さく、健常者グループの顔情報との距離が大きくなるように予め設定された教師情報に基づいて機械学習し、他方で、ユーザー5の顔情報が軽度認知障害者グループに属する場合には、健常者グループの顔情報との距離が小さく、軽度認知障害者グループの顔情報との距離が大きくなるように予め設定された教師情報に基づいて機械学習することで、最適重み係数を決定することができる。   When the face information of the user 5 belongs to the healthy person group, the weight coefficient of each part of the face has a small distance from the face information of the mild cognitive impairment group and a large distance from the face information of the healthy person group. If, on the other hand, the user 5's face information belongs to the mild cognitive impairment group, the distance from the healthy person's face information is small, and the mild cognitive impairment The optimal weighting coefficient can be determined by machine learning based on teacher information set in advance so that the distance from the face information of the person group increases.

最適重み係数を用いて距離を計算すれば、判定の精度を向上させることができる。   If the distance is calculated using the optimum weight coefficient, the accuracy of the determination can be improved.

また、学習制御部131には、2層以上の多層構造のニューラルネットワーク等、深層学習の機能が実装されていることが判定の精度を向上させるうえで好ましい。   Moreover, it is preferable that the learning control unit 131 is provided with a deep learning function such as a neural network having a multilayer structure of two or more layers in order to improve the accuracy of determination.

ユーザー5が過去にfMRIやCT、血液検査等の方法による診断を受けている場合には、その結果を反映させるため、検出値等に対応した教師情報に基づいて機械学習することで、判定の精度を向上させていくこともできる。   When the user 5 has been diagnosed by a method such as fMRI, CT, or blood test in the past, in order to reflect the result, machine learning is performed based on teacher information corresponding to the detected value, etc. The accuracy can also be improved.

情報表示部2は、液晶ディスプレイやプラズマディスプレイ等のフラットパネルディスプレイで構成される。
この情報表示部2は、表示制御部103からの出力信号に基づいて、顔表情パターン記憶部101に記憶された動画パターン及び質問パターン記憶部102に記憶された質問パターンを画面に表示する。
この情報表示部2は、ユーザー5に対して、人の顔面に表れる微細な表情を適切に提示できるように、フレームレートは毎秒120フレーム以上、好ましくは毎秒240フレームで表示する。
なお、顔表情パターン記憶部101に記憶されている動画パターンは立体撮影されたものであるため、3Dメガネを使用しないで立体映像表示することができる。
The information display unit 2 is configured by a flat panel display such as a liquid crystal display or a plasma display.
Based on the output signal from the display control unit 103, the information display unit 2 displays the moving image pattern stored in the facial expression pattern storage unit 101 and the question pattern stored in the question pattern storage unit 102 on the screen.
The information display unit 2 displays the frame rate at 120 frames per second or more, preferably 240 frames per second so that the user 5 can appropriately present a fine expression appearing on the human face.
Note that since the moving image pattern stored in the facial expression pattern storage unit 101 is a three-dimensional image, a three-dimensional image can be displayed without using 3D glasses.

図3は、情報表示部2における表示の一例を示した図である。この図では、画面の中央部には人の顔面の動画パターンが高フレームレートかつ立体映像表示され、画面の上部にはユーザー5に対する質問パターン11、画面の下部には該質問パターン11に対する回答選択肢13の文字がそれぞれ表示されている。
なお、この図では情報表示部2の左右両隅に2個のイメージスキャナ12が設置されているが、このように情報表示部2にカメラ部3を設置してもよい。
FIG. 3 is a diagram showing an example of display on the information display unit 2. In this figure, a moving image pattern of a human face is displayed at a central portion of the screen at a high frame rate and a stereoscopic image, a question pattern 11 for the user 5 is displayed at the top of the screen, and answer options for the question pattern 11 are displayed at the bottom of the screen. Thirteen characters are displayed.
In this figure, two image scanners 12 are installed at the left and right corners of the information display unit 2, but the camera unit 3 may be installed in the information display unit 2 in this way.

操作部4は、操作キー、ボタン、タッチパッド等で構成される。
この操作部4は、例えば、ユーザー5が情報表示部2に提示された質問パターンに対する回答を回答選択肢のうちから選択するとき等に、入力操作を受け付ける。
The operation unit 4 includes operation keys, buttons, a touch pad, and the like.
The operation unit 4 accepts an input operation, for example, when the user 5 selects an answer to the question pattern presented on the information display unit 2 from among answer options.

なお、上記の実施形態のほか、例えば、本体部1の構成のうち、膨大なデータを処理するユーザー顔情報記憶部121、健常者顔情報記憶部122、軽度認知障害者顔情報記憶部123、学習制御部131、判定情報記憶部113及び顔画像処理部111については、例えばクラウド、サーバーシステム等の、インターネットに接続して通信可能なコンピュータシステムに実装し、情報表示部2、カメラ部3、操作部4及び本体部1の顔情報パターン記憶部101、質問パターン102、表示制御部103及び判定処理部112等の残りの構成を携帯端末装置に実装することで、インターネットに接続可能な多数のユーザー5が利用できるようにすることもできる。図7に本発明を携帯端末装置に実装した例を示す。   In addition to the above-described embodiment, for example, in the configuration of the main body unit 1, a user face information storage unit 121, a healthy person face information storage unit 122, a mild cognitive impairment person face information storage unit 123 that processes enormous data, The learning control unit 131, the determination information storage unit 113, and the face image processing unit 111 are mounted on a computer system that can be connected to the Internet and communicated, such as a cloud or a server system, and the information display unit 2, the camera unit 3, By mounting the remaining components such as the face information pattern storage unit 101, the question pattern 102, the display control unit 103, and the determination processing unit 112 of the operation unit 4 and the main body unit 1 on a mobile terminal device, a large number of devices that can be connected to the Internet It can also be made available to the user 5. FIG. 7 shows an example in which the present invention is implemented in a mobile terminal device.

以上のように本発明の実施形態によれば、ユーザー5は3Dメガネを使用することなく、情報表示部2に毎秒120フレーム以上で、かつ、見やすく表示された人の顔面の動画パターンの立体映像表示を見ながら、表情の識別、表情の模倣、表情の作為、自然な表情等のテーマに関する質問パターンに従って無理なく回答することができるとともに、このときにカメラ部3で毎秒120フレーム以上で立体撮影されたユーザー5の顔面画像から各部位の微細な動きを適切に捉えた顔情報を抽出し、該顔情報に基づいて、ユーザー5が健常者グループ又は軽度認知障害者グループのいずれに属するかを判定することができるので、認知症の比較的初期の症状の診断支援を簡便に行うことができる。   As described above, according to the embodiment of the present invention, the user 5 does not use the 3D glasses, and the 3D image of the moving face pattern of the human face displayed on the information display unit 2 at 120 frames or more per second and easily displayed. While viewing the display, it is possible to answer reasonably according to question patterns related to themes such as facial expression identification, facial expression imitation, facial expression creation, and natural facial expression. At this time, the camera unit 3 performs stereoscopic shooting at 120 frames or more per second. Face information that appropriately captures minute movements of each part is extracted from the face image of the user 5 and whether the user 5 belongs to a group of normal subjects or a group of mild cognitive impairment based on the face information is extracted. Since it can be determined, diagnosis support for relatively early symptoms of dementia can be easily performed.

また、本発明の実施形態によれば、判定処理部112において、顔画像処理部111で抽出されたユーザー5の顔情報と、健常者顔情報記憶部122に記憶された健常者グループに属する顔情報又は軽度認知障害者顔情報記憶部123に記憶された軽度認知障害者グループに属する顔情報との間で、学習制御部131で決定された顔面の各部位の重み係数を用いて距離を計算し、該距離の比較の結果に基づいて、ユーザー5が健常者グループ又は軽度認知障害者グループのいずれに属するかの判定を行うことができるので、予め設定された教師情報に基づいて機械学習し、顔面の各部位の最適重み係数を決定しておくことで、該判定の精度を向上させることができる。   Further, according to the embodiment of the present invention, in the determination processing unit 112, the face information of the user 5 extracted by the face image processing unit 111 and the faces belonging to the healthy person group stored in the healthy person face information storage part 122. The distance is calculated using the weight coefficient of each part of the face determined by the learning control unit 131 between the information or the face information belonging to the mild cognitive impairment group stored in the face information storage unit 123 of the mild cognitive impairment In addition, since it is possible to determine whether the user 5 belongs to the normal group or the mild cognitive impairment group based on the comparison result of the distance, machine learning is performed based on preset teacher information. The accuracy of the determination can be improved by determining the optimum weighting coefficient for each part of the face.

また、本発明の他の実施形態によれば、インターネットから多数のユーザー5が手軽に自己診断用に利用できるようになる。また、遠隔地にいる医師でもインターネットを介してユーザー5が保有する判定結果を確認することができるようになるため、遠隔診断として利用できるようになる。   Further, according to another embodiment of the present invention, a large number of users 5 can easily use for self-diagnosis from the Internet. In addition, since a doctor at a remote location can confirm the determination result held by the user 5 via the Internet, it can be used as a remote diagnosis.

本発明は、軽度認知障害又は認知症の早期診断に適用することができる。   The present invention can be applied to early diagnosis of mild cognitive impairment or dementia.

本発明は、明細書に記載の実施形態に限定されるものではなく、他の実施例、変形例を含むことは、本明細書に記載の実施形態や思想から本発明の属する分野における当業者にとって明らかである。   The present invention is not limited to the embodiments described in the specification, and other examples and modifications are included in the field to which the present invention belongs from the embodiments and ideas described in the present specification. It is obvious to

100 表情認知診断支援装置
1 本体部
2 情報表示部
3 カメラ部
4 操作部
5 ユーザー
11 質問パターン
12 カメラ部
13 回答候補表示
21 ユーザーの顔面画像
22 顔座標系
23 顔面の部位の位置ベクトル
31 診断支援携帯端末装置
32 質問パターン
33 カメラ部
34 回答候補表示
101 顔表情パターン記憶部
102 質問パターン記憶部
103 表示制御部
111 顔画像処理部
112 判定処理部
113 判定情報記憶部
121 ユーザー顔情報記憶部
122 健常者顔情報記憶部
123 軽度認知障害者顔情報記憶部
131 学習制御部

DESCRIPTION OF SYMBOLS 100 Facial expression recognition diagnosis support apparatus 1 Main body part 2 Information display part 3 Camera part 4 Operation part 5 User 11 Question pattern 12 Camera part 13 Answer candidate display 21 User's face image 22 Facial coordinate system 23 Face part position vector 31 Diagnosis support Mobile terminal device 32 Question pattern 33 Camera unit 34 Answer candidate display 101 Facial expression pattern storage unit 102 Question pattern storage unit 103 Display control unit 111 Face image processing unit 112 Determination processing unit 113 Determination information storage unit 121 User face information storage unit 122 Healthy Person face information storage unit 123 Mild cognitive impairment person face information storage part 131 Learning control part

Claims (6)

人の顔面を毎秒120フレーム以上で立体撮影した複数の動画パターンを予め記憶した顔表情パターン記憶部と、
ユーザーに対する複数の質問パターンを予め記憶した質問パターン記憶部と、
ユーザーからの入力操作を受付可能な操作部と、
予め設定された設定情報及び前記操作部で受け付けられた入力情報に基づいて、情報表示部を制御する表示制御部と、
前記表示制御部からの指令に基づいて、前記顔表情パターン記憶部に記憶された動画パターン及び前記質問パターン記憶部に記憶された質問パターンを表示する情報表示部と、
毎秒120フレーム以上で撮影可能な複数のイメージセンサを、前記情報表示部に表示される動画パターン及び質問パターンに従って応答するユーザーの顔面を立体撮影可能に配置したカメラ部と、
前記カメラ部で撮影された動画から顔面の各部位についての顔情報を抽出する顔画像処理部と、
前記顔画像処理部で抽出された顔情報を記憶するユーザー顔情報記憶部と、
健常者グループに属する顔情報を予め記憶した健常者顔情報記憶部と、
軽度認知障害者グループに属する顔情報を予め記憶した軽度認知障害者顔情報記憶部と、
予め設定された教師情報に基づいて、前記ユーザー顔情報記憶部に記憶された顔情報と、前記健常者顔情報記憶部に記憶された顔情報又は前記軽度認知障害者顔情報記憶部に記憶された顔情報とを用いて機械学習し、更新された顔面の各部位の重み係数を記憶する学習制御部と、
前記顔画像処理部で抽出された顔情報と、前記健常者顔情報記憶部に記憶された顔情報又は前記軽度認知障害者顔情報記憶部に記憶された顔情報との間で、前記学習制御部に記憶された重み係数を用いて所定の距離を計算し、該距離に基づいて、ユーザーが健常者グループ又は軽度認知障害者グループのいずれに属するかの判定を行う判定処理部と、
前記判定処理部における判定の結果を記憶する判定情報記憶部と、
を備えることを特徴とする表情認知診断支援装置。
A facial expression pattern storage unit that pre-stores a plurality of moving image patterns obtained by stereoscopically photographing a human face at 120 frames or more per second;
A question pattern storage unit that stores a plurality of question patterns for the user in advance;
An operation unit that can accept input operations from the user,
A display control unit that controls the information display unit based on preset setting information and input information received by the operation unit;
Based on a command from the display control unit, an information display unit that displays a moving image pattern stored in the facial expression pattern storage unit and a question pattern stored in the question pattern storage unit;
A plurality of image sensors that can be photographed at 120 frames per second or more, a camera unit arranged so that a user's face that responds according to a moving image pattern and a question pattern displayed on the information display unit can be stereoscopically photographed,
A face image processing unit that extracts face information about each part of the face from a video imaged by the camera unit;
A user face information storage unit for storing the face information extracted by the face image processing unit;
A healthy person face information storage unit that stores face information belonging to the healthy person group in advance;
A mild cognitive impairment face information storage unit that stores face information belonging to the mild cognitive impairment group in advance;
Based on preset teacher information, the face information stored in the user face information storage unit and the face information stored in the healthy person face information storage unit or stored in the mild cognitive impairment face information storage unit A learning control unit that performs machine learning using the acquired face information and stores a weight coefficient of each part of the updated face;
The learning control between the face information extracted by the face image processing unit and the face information stored in the healthy person face information storage unit or the face information stored in the mild cognitive impairment person face information storage unit A determination processing unit that calculates a predetermined distance using the weighting factor stored in the unit, and determines whether the user belongs to a group of healthy persons or a group of mild cognitive impairments based on the distance;
A determination information storage unit for storing the determination result in the determination processing unit;
A facial expression recognition diagnosis support apparatus comprising:
前記カメラ部の撮影時のフレームレートが毎秒240フレームであることを特徴とする請求項1に記載の表情認知診断支援装置。   The facial expression recognition diagnosis support apparatus according to claim 1, wherein a frame rate at the time of photographing by the camera unit is 240 frames per second. 前記顔画像処理部で抽出される顔情報には、ユーザーの顔面の各部位のベクトル情報及び時間情報が含まれ、
前記健常者顔情報記憶部に記憶される顔情報には、健常者グループに属する人の顔面の各部位のベクトル情報及び時間情報が含まれ、
前記軽度認知障害者顔情報記憶部に記憶される顔情報には、軽度認知障害者グループに属する人の顔面の各部位のベクトル情報及び時間情報が含まれることを特徴とする請求項1又は2に記載の表情認知診断支援装置。
The face information extracted by the face image processing unit includes vector information and time information of each part of the user's face,
The face information stored in the healthy person face information storage unit includes vector information and time information of each part of the face of a person belonging to the healthy person group,
The face information stored in the mild cognitive impairment face information storage unit includes vector information and time information of each part of the face of a person belonging to the mild cognitive impairment group. The facial expression recognition diagnosis support device described in 1.
前記判定処理部112は、前記顔画像処理部で抽出されたユーザーの顔情報と、前記健常者顔情報記憶部に記憶された顔情報又は前記軽度認知障害者顔情報記憶部に記憶された顔情報との間で、前記学習制御部に記憶された重み係数を用いてユークリッド距離、相関距離、マハラノビス距離又はキャンベラ距離を計算し、該距離の比較の結果に基づいて、ユーザーが健常者グループ又は軽度認知障害者グループのいずれに属するかの判定を行うことを特徴とする請求項1乃至3に記載の表情認知診断支援装置。   The determination processing unit 112 includes the face information of the user extracted by the face image processing unit, the face information stored in the normal person face information storage unit, or the face stored in the mild cognitive impairment face information storage unit. The Euclidean distance, the correlation distance, the Mahalanobis distance or the Canberra distance is calculated using the weighting factor stored in the learning control unit between the information, and based on the comparison result of the distance, The facial expression recognition diagnosis support apparatus according to claim 1, wherein it is determined which of the mild cognitive impairment group it belongs to. 前記学習制御部は、ユーザーの顔情報が健常者グループに属する場合には、軽度認知障害者グループの顔情報との距離が小さく、健常者グループの顔情報との距離が大きくなるように機械学習し、一方、ユーザーの顔情報が軽度認知障害者グループに属する場合には、健常者グループの顔情報との距離が小さく、軽度認知障害者グループの顔情報との距離が大きくなるように機械学習することで、最適重み係数を決定することを特徴とする請求項1乃至4に記載の表情認知診断支援装置。   When the face information of the user belongs to a healthy person group, the learning control unit performs machine learning so that the distance from the face information of the mild cognitive impairment group is small and the distance from the face information of the healthy person group is large. On the other hand, when the user's face information belongs to the mild cognitive impairment group, machine learning is performed so that the distance from the healthy person's face information is small and the distance from the mild cognitive group is large. The facial expression recognition diagnosis support apparatus according to claim 1, wherein an optimum weighting coefficient is determined. 携帯端末装置に実装したことを特徴とする請求項1乃至5に記載の表情認知診断支援装置。


The facial expression recognition diagnosis support apparatus according to claim 1, wherein the facial expression recognition diagnosis support apparatus is mounted on a portable terminal device.


JP2016138000A 2016-07-12 2016-07-12 Expression recognition diagnosis support device Pending JP2018007792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138000A JP2018007792A (en) 2016-07-12 2016-07-12 Expression recognition diagnosis support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138000A JP2018007792A (en) 2016-07-12 2016-07-12 Expression recognition diagnosis support device

Publications (1)

Publication Number Publication Date
JP2018007792A true JP2018007792A (en) 2018-01-18

Family

ID=60994074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138000A Pending JP2018007792A (en) 2016-07-12 2016-07-12 Expression recognition diagnosis support device

Country Status (1)

Country Link
JP (1) JP2018007792A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190133900A (en) * 2018-05-24 2019-12-04 재단법인대구경북과학기술원 System and method for diagnosing brain neuronal disease
JP2020000483A (en) * 2018-06-28 2020-01-09 株式会社アルム Dementia diagnostic device, and dementia diagnostic system
CN110674773A (en) * 2019-09-29 2020-01-10 燧人(上海)医疗科技有限公司 Dementia recognition system, device and storage medium
KR20200005987A (en) * 2018-07-09 2020-01-17 주식회사 두브레인 System and method for diagnosing cognitive impairment using touch input
WO2022054677A1 (en) * 2020-09-08 2022-03-17 テルモ株式会社 Program, information processing device, information processing method, and information processing program
WO2022091642A1 (en) * 2020-10-29 2022-05-05 グローリー株式会社 Cognitive function evaluation device, cognitive function evaluation system, learning model generation device, cognitive function evaluation method, learning model production method, trained model, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190133900A (en) * 2018-05-24 2019-12-04 재단법인대구경북과학기술원 System and method for diagnosing brain neuronal disease
KR102142694B1 (en) 2018-05-24 2020-08-07 재단법인대구경북과학기술원 System and method for diagnosing brain neuronal disease
JP2020000483A (en) * 2018-06-28 2020-01-09 株式会社アルム Dementia diagnostic device, and dementia diagnostic system
KR20200005987A (en) * 2018-07-09 2020-01-17 주식회사 두브레인 System and method for diagnosing cognitive impairment using touch input
KR20200005986A (en) * 2018-07-09 2020-01-17 주식회사 두브레인 System and method for diagnosing cognitive impairment using face recognization
KR102166011B1 (en) * 2018-07-09 2020-10-15 주식회사 두브레인 System and method for determining cognitive impairment using touch input
KR102166010B1 (en) * 2018-07-09 2020-10-15 주식회사 두브레인 System and method for determining cognitive impairment using face recognization
CN110674773A (en) * 2019-09-29 2020-01-10 燧人(上海)医疗科技有限公司 Dementia recognition system, device and storage medium
WO2022054677A1 (en) * 2020-09-08 2022-03-17 テルモ株式会社 Program, information processing device, information processing method, and information processing program
WO2022091642A1 (en) * 2020-10-29 2022-05-05 グローリー株式会社 Cognitive function evaluation device, cognitive function evaluation system, learning model generation device, cognitive function evaluation method, learning model production method, trained model, and program

Similar Documents

Publication Publication Date Title
JP2018007792A (en) Expression recognition diagnosis support device
CN105184246B (en) Living body detection method and living body detection system
KR20200074951A (en) Machine learning-based system for identification and monitoring of nervous system disorders
US11699529B2 (en) Systems and methods for diagnosing a stroke condition
US20150320343A1 (en) Motion information processing apparatus and method
CN111933275B (en) Depression evaluation system based on eye movement and facial expression
JP2008522652A (en) Multivariate dynamic biometric system
CN109286748A (en) The method of mobile system and eye imaging
JP2014140097A (en) Image display device and image display method
EP4134981A1 (en) Method for acquiring side image for eye protrusion analysis, image capture device for performing same, and recording medium
JP2005100366A (en) Visual line input communication method using eyeball motion
US20170156585A1 (en) Eye condition determination system
TWI557601B (en) A puppil positioning system, method, computer program product and computer readable recording medium
CN113303791A (en) Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium
JP6579411B1 (en) Monitoring system and monitoring method for care facility or hospital
Mehrizi et al. Automatic health problem detection from gait videos using deep neural networks
US20230337913A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
KR20210141197A (en) Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine
WO2023189309A1 (en) Computer program, information processing method, and information processing device
CN113197542B (en) Online self-service vision detection system, mobile terminal and storage medium
JP4831750B2 (en) Communication trigger system
Li et al. A smart eye tracking system for virtual reality
Jebakani et al. Eye blink to voice for paralyzed patients
JP2007164617A (en) Template forming method using gaussian function, and vision input communication method using eye motion
WO2023189313A1 (en) Program, information processing device, and information processing method