JP2019055064A - Diagnosis support information providing device and diagnosis support information providing method - Google Patents

Diagnosis support information providing device and diagnosis support information providing method Download PDF

Info

Publication number
JP2019055064A
JP2019055064A JP2017181766A JP2017181766A JP2019055064A JP 2019055064 A JP2019055064 A JP 2019055064A JP 2017181766 A JP2017181766 A JP 2017181766A JP 2017181766 A JP2017181766 A JP 2017181766A JP 2019055064 A JP2019055064 A JP 2019055064A
Authority
JP
Japan
Prior art keywords
support information
diagnosis support
change amount
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017181766A
Other languages
Japanese (ja)
Other versions
JP7123539B2 (en
Inventor
明子 柳橋
Akiko Yanagibashi
明子 柳橋
妙 佐谷
Tae Satani
妙 佐谷
知栄実 佐藤
Chiemi Sato
知栄実 佐藤
洸司 増田
Koji Masuda
洸司 増田
淳志 小原
Atsushi Obara
淳志 小原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Nisshin Oillio Group Ltd
Original Assignee
Omron Corp
Nisshin Oillio Group Ltd
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Nisshin Oillio Group Ltd, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017181766A priority Critical patent/JP7123539B2/en
Publication of JP2019055064A publication Critical patent/JP2019055064A/en
Application granted granted Critical
Publication of JP7123539B2 publication Critical patent/JP7123539B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To provide information useful for a diagnosis of cerebral function diseases such as dementia with easy measurement.SOLUTION: In a diagnosis support information providing device 1, a facial direction measurement part 12 measures a facial direction of a subject in each time-series image data, a change amount calculation part 16 calculates a time-series facial direction change amount on the basis of the facial direction measured by the facial direction measurement part 12, a diagnosis support information generation part 18 calculates a ratio at which the facial direction change amount is equal to or less than a prescribed value in a prescribed period on the basis of the facial direction change amount calculated by the change amount calculation part 16, and generates diagnosis support information indicating a calculation result, and an output part 19 outputs the diagnosis support information generated by the diagnosis support information generation part 18.SELECTED DRAWING: Figure 1

Description

本発明は、診断支援情報提供装置及び診断支援情報提供方法に関する。   The present invention relates to a diagnosis support information providing apparatus and a diagnosis support information providing method.

被検者の画像を解析することにより、認知症などの脳機能疾患の診断に有用な情報を提供する技術がある(例えば、特許文献1、2参照)。一方で、画像から人物の心身の状態を解析する技術や(例えば、特許文献3参照)、画像から表情を解析する技術がある(例えば、特許文献4参照)。   There is a technique for providing information useful for diagnosis of a brain function disorder such as dementia by analyzing an image of a subject (for example, see Patent Documents 1 and 2). On the other hand, there is a technique for analyzing the state of mind and body of a person from an image (for example, see Patent Document 3) and a technique for analyzing a facial expression from an image (for example, see Patent Document 4).

認知症患者は笑顔が減るなど、認知症と認知症患者の笑顔とには関連があることがわかっている。そこで近年では、認知症に関する診断等に笑顔を利用する研究が行われている。一例として、画像解析により笑顔を数値化した結果に基づいて、認知症患者のQOL(クオリティ・オブ・ライフ)を評価する研究がある。   It has been found that dementia and smiles of patients with dementia are related, for example, people with dementia have fewer smiles. Therefore, in recent years, research using smiles for diagnosis related to dementia has been conducted. As an example, there is a study that evaluates QOL (quality of life) of patients with dementia based on the result of quantifying smiles by image analysis.

笑顔の解析に用いる画像は、被検者に負担を与えることなく撮影することが可能である。しかしながら、笑顔の時間は健常成人女性でも1日30秒未満とのデータもあり、1日に占める笑顔の表情構成率は低い。加えて、年齢に依存して笑顔が減少する傾向もみられる。このように、笑顔が現れるのは一般的に低頻度であるため、笑顔を利用して認知症に関する診断に有用な情報を得ることは困難であった。   Images used for smile analysis can be taken without imposing a burden on the subject. However, there is data that smile time is less than 30 seconds per day even for healthy adult women, and the facial expression composition rate of smiles per day is low. In addition, smiles tend to decrease depending on age. Thus, since smiles generally appear at a low frequency, it has been difficult to obtain information useful for diagnosis related to dementia using smiles.

特開2013−169375号公報JP 2013-169375 A 特公平6−53107号公報Japanese Examined Patent Publication No. 6-53107 特開2005−237561号公報JP 2005-237561 A 特開2014−206903号公報JP 2014-206903 A

上記のような事情を考慮して本発明がなされた。容易な測定により認知症などの脳機能疾患の診断に有用な情報を提供することができる診断支援情報提供装置及び診断支援情報提供方法を提供する。   The present invention has been made in consideration of the above circumstances. Provided are a diagnosis support information providing apparatus and a diagnosis support information providing method capable of providing useful information for diagnosis of a brain function disorder such as dementia by easy measurement.

本発明の一態様は、時系列の画像データそれぞれにおける被検者の顔向きを測定する顔向き測定部と、前記顔向き測定部が測定した前記顔向きに基づいて、時系列の顔向き変化量を算出する変化量算出部と、所定期間において顔向き変化量が所定値以下であった割合を前記変化量算出部が算出した前記顔向き変化量に基づいて算出し、算出結果を示す診断支援情報を生成する診断支援情報生成部と、前記診断支援情報生成部が算出した前記診断支援情報を出力する出力部と、を備える診断支援情報提供装置である。   One aspect of the present invention is a face orientation measurement unit that measures the face orientation of a subject in each of time series image data, and a time series face orientation change based on the face orientation measured by the face orientation measurement unit. A change amount calculation unit that calculates an amount, and a ratio that the face direction change amount is equal to or less than a predetermined value during a predetermined period is calculated based on the face direction change amount calculated by the change amount calculation unit, and the diagnosis indicates the calculation result A diagnosis support information providing apparatus comprising: a diagnosis support information generation unit that generates support information; and an output unit that outputs the diagnosis support information calculated by the diagnosis support information generation unit.

本発明の一態様は、上述の診断支援情報提供装置であって、時系列の前記画像データそれぞれにおける前記被検者の視線方向を測定する視線方向測定部をさらに備え、前記変化量算出部は、前記視線方向測定部が測定した前記視線方向に基づいて、時系列の視線変化量を算出し、前記診断支援情報生成部は、前記所定期間において視線変化量が所定値以下であった割合を前記変化量算出部が算出した時系列の前記視線変化量に基づいて算出し、算出結果をさらに前記診断支援情報に設定する。   One aspect of the present invention is the above-described diagnosis support information providing apparatus, further including a gaze direction measurement unit that measures the gaze direction of the subject in each of the time-series image data, and the change amount calculation unit is Then, based on the line-of-sight direction measured by the line-of-sight direction measurement unit, a time-series line-of-sight change amount is calculated, and the diagnosis support information generation unit calculates a rate at which the line-of-sight change amount is a predetermined value or less during the predetermined period. Calculation is performed based on the time-series gaze change amount calculated by the change amount calculation unit, and the calculation result is further set in the diagnosis support information.

本発明の一態様は、上述の診断支援情報提供装置であって、前記診断支援情報生成部は、顔向き変化量が所定値以下であった前記割合に基づいて、又は、顔向き変化量が所定値以下であった前記割合及び視線変化量が所定値以下であった前記割合に基づいて、脳機能疾患の可能性又は程度を判定し、前記出力部は、前記診断支援情報生成部による判定結果を出力する。   One aspect of the present invention is the above-described diagnosis support information providing device, wherein the diagnosis support information generation unit is configured to determine whether the face direction change amount is based on the ratio in which the face direction change amount is equal to or less than a predetermined value. Based on the ratio that is equal to or less than a predetermined value and the ratio that the amount of line-of-sight change is equal to or less than a predetermined value, the possibility or degree of a brain function disease is determined, Output the result.

本発明の一態様は、上述の診断支援情報提供装置であって、時系列の前記画像データそれぞれにおける前記被検者の表情を推定する表情推定部をさらに備え、前記診断支援情報生成部は、前記所定期間について前記表情推定部が推定した前記表情をさらに用いて脳機能疾患の可能性又は程度を判定する。   One aspect of the present invention is the above-described diagnosis support information providing apparatus, further comprising a facial expression estimation unit that estimates the facial expression of the subject in each of the time-series image data, and the diagnostic support information generation unit includes: The facial expression estimated by the facial expression estimation unit for the predetermined period is further used to determine the possibility or degree of a brain function disorder.

本発明の一態様は、時系列の画像データそれぞれにおける被検者の顔向きを測定する顔向き測定ステップと、前記顔向き測定ステップにおいて測定された前記顔向きに基づいて、時系列の顔向き変化量を算出する変化量算出ステップと、所定期間において顔向き変化量が所定値以下であった割合を前記変化量算出ステップにおいて算出された前記顔向き変化量に基づいて算出し、算出結果を示す診断支援情報を生成する診断支援情報生成ステップと、前記診断支援情報生成ステップにおいて算出された前記診断支援情報を出力する出力ステップと、を有する診断支援情報提供方法である。   One aspect of the present invention is a face orientation measurement step for measuring a face orientation of a subject in each of time series image data, and based on the face orientation measured in the face orientation measurement step, A change amount calculating step for calculating a change amount; and a ratio of the face direction change amount being equal to or less than a predetermined value in a predetermined period based on the face direction change amount calculated in the change amount calculating step; A diagnostic support information providing method comprising: a diagnostic support information generating step for generating diagnostic support information to be shown; and an output step for outputting the diagnostic support information calculated in the diagnostic support information generating step.

本発明によれば、容易な測定により、認知症などの脳機能疾患の診断に有用な情報を提供することが可能となる。   According to the present invention, it is possible to provide information useful for diagnosis of a brain function disease such as dementia by easy measurement.

第1の実施形態による診断支援情報提供装置の機能ブロック図である。It is a functional block diagram of the diagnostic assistance information provision apparatus by 1st Embodiment. 同実施形態による顔向き測定情報、視線方向測定情報及び表情推定情報の例を示す図である。It is a figure which shows the example of face direction measurement information by the same embodiment, gaze direction measurement information, and facial expression estimation information. 同実施形態による診断支援情報の例を示す図である。It is a figure which shows the example of the diagnostic assistance information by the same embodiment. 同実施形態による診断支援情報提供装置が実行する解析処理を示すフロー図である。It is a flowchart which shows the analysis process which the diagnosis assistance information provision apparatus by the embodiment performs. 同実施形態による診断支援情報提供装置を用いた試験の被験者に関する認知症に特有な周辺症状(BPSD)及び表情の評価を示す図である。It is a figure which shows evaluation of the peripheral symptom (BPSD) peculiar to dementia and a facial expression regarding the test subject using the diagnostic assistance information provision apparatus by the embodiment. 同実施形態による診断支援情報提供装置を用いた試験結果を示す図である。It is a figure which shows the test result using the diagnostic assistance information provision apparatus by the embodiment. 第2の実施形態による診断支援情報提供システムの構成図である。It is a block diagram of the diagnostic assistance information provision system by 2nd Embodiment. 第3の実施形態による診断支援システムの構成図である。It is a block diagram of the diagnosis assistance system by 3rd Embodiment.

以下、図面を参照しながら本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施形態]
従来からの研究によって、認知症患者は笑顔が減少することが分かっている。認知症患者の介護者には、認知症の症状が進むにつれ、笑顔だけではなく他の表情なども減少し、無表情の時間が増えているようである、との印象を得ている。これに基づけば、認知症に関する診断に有用な情報を得るために、無表情の時間を測定し、認知症の症状を判断することに利用することが考えられる。しかしながら、無表情とは、真顔であるが動きがなく何らかの思考中や動作中でない状態であり、人は比較的容易に無表情でない真顔と無表情の状態を総合的な情報をもとに判断することが可能である一方で、装置を用いた場合には、無表情を含む真顔の状態を測定はできても、無表情であることを正確に測定することができない。
そこで、本実施形態では、被検者の顔の動き、及び、視線の動きを利用して、脳機能疾患、特に、認知症の診断に有用な情報を提供する。
[First Embodiment]
Previous studies have shown that smiles are reduced in patients with dementia. Caregivers of patients with dementia have the impression that as the symptoms of dementia progress, not only smiles but also other facial expressions decrease, and the time without facial expressions seems to increase. Based on this, in order to obtain information useful for diagnosis related to dementia, it can be considered to measure the time of expressionlessness and use it to determine the symptoms of dementia. However, an expressionless expression is a state that is a straight face but does not move and is not thinking or operating in any way, and it is relatively easy for a person to judge a face that is not expressionless and an expressionless state based on comprehensive information. On the other hand, when the apparatus is used, it is not possible to accurately measure the expressionlessness even if the state of the true face including the expressionlessness can be measured.
Therefore, in the present embodiment, information useful for diagnosis of a brain function disease, particularly dementia, is provided using the movement of the subject's face and the movement of the line of sight.

図1は、本実施形態による診断支援情報提供装置1の構成を示すブロック図である。診断支援情報提供装置1は、画像取得部11、顔向き測定部12、視線方向測定部13、表情推定部14、記憶部15、変化量算出部16、入力部17、診断支援情報生成部18及び出力部19を備える。診断支援情報提供装置1は、1台のコンピュータ装置により実現してもよく、ネットワークで接続された複数台のコンピュータ装置により実現してもよい。複数台のコンピュータ装置により実現する場合、いずれのコンピュータ装置がいずれの機能部を実現するかは任意とすることができ、1つの機能部を複数台のコンピュータ装置で実現してもよい。   FIG. 1 is a block diagram illustrating a configuration of a diagnosis support information providing apparatus 1 according to the present embodiment. The diagnosis support information providing apparatus 1 includes an image acquisition unit 11, a face orientation measurement unit 12, a gaze direction measurement unit 13, a facial expression estimation unit 14, a storage unit 15, a change amount calculation unit 16, an input unit 17, and a diagnosis support information generation unit 18. And an output unit 19. The diagnosis support information providing apparatus 1 may be realized by a single computer apparatus or may be realized by a plurality of computer apparatuses connected via a network. When realized by a plurality of computer devices, which computer device realizes which functional unit is arbitrary, and one functional unit may be realized by a plurality of computer devices.

画像取得部11は、時系列の画像データを取得する。画像データは、被検者2の少なくとも顔の画像が含まれるデータである。画像データには、時系列で撮影された順序を示す時系列情報が付加されている。時系列情報は、撮影日時でもよく、順序を表す番号でもよく、1ファイル内に時系列の画像データが含まれる場合には、その画像データの並び順を時系列情報としてもよい。画像取得部11は、取得した画像データを、顔向き測定部12、視線方向測定部13及び表情推定部14における画像解析に適したデータ形式に変換する機能を備えてもよい。本実施形態では、画像取得部11は、撮像装置3が撮影した映像データを受信する。撮像装置3は、例えば、家庭用のビデオカメラである。画像取得部11は、受信した映像データから得られる各フレームのデータを、時系列の画像データとして取得する。この場合、各画像データの時系列情報は、映像データに付加された撮影日時や、何枚目のフレームであるかに基づいて得ることができる。なお、画像取得部11は、映像データ又は時系列の画像データを、USB(Universal Serial Bus)メモリやCD−ROMなどの記録媒体から読み出してもよく、他のコンピュータ装置から受信してもよい。また、診断支援情報提供装置1が撮像装置3の機能を有してもよい。   The image acquisition unit 11 acquires time-series image data. The image data is data including at least a face image of the subject 2. Time-series information indicating the order of photographing in time series is added to the image data. The time-series information may be a shooting date and time, or a number representing the order, and when time-series image data is included in one file, the arrangement order of the image data may be the time-series information. The image acquisition unit 11 may have a function of converting the acquired image data into a data format suitable for image analysis in the face orientation measurement unit 12, the gaze direction measurement unit 13, and the facial expression estimation unit 14. In the present embodiment, the image acquisition unit 11 receives video data captured by the imaging device 3. The imaging device 3 is a home video camera, for example. The image acquisition unit 11 acquires the data of each frame obtained from the received video data as time-series image data. In this case, the time-series information of each image data can be obtained based on the shooting date / time added to the video data and the number of frames. Note that the image acquisition unit 11 may read video data or time-series image data from a recording medium such as a USB (Universal Serial Bus) memory or a CD-ROM, or may receive it from another computer apparatus. Further, the diagnosis support information providing apparatus 1 may have the function of the imaging apparatus 3.

顔向き測定部12は、画像データを解析し、各画像データにおける被検者2の顔向きを測定する。視線方向測定部13は、画像データを解析し、各画像データにおける被検者2の視線方向を測定する。表情推定部14は、画像データを解析し、各画像データにおける被検者2の表情を推定する。顔向き測定部12における顔向き測定、視線方向測定部13における視線方向の測定、及び、表情推定部14における表情の推定には、任意の既存の画像解析技術を適用できる。   The face orientation measurement unit 12 analyzes the image data and measures the face orientation of the subject 2 in each image data. The gaze direction measuring unit 13 analyzes the image data and measures the gaze direction of the subject 2 in each image data. The facial expression estimation unit 14 analyzes the image data and estimates the facial expression of the subject 2 in each image data. Any existing image analysis technique can be applied to the face orientation measurement in the face orientation measurement unit 12, the gaze direction measurement in the gaze direction measurement unit 13, and the facial expression estimation in the facial expression estimation unit 14.

記憶部15は、磁気ハードディスク装置や半導体記憶装置等の記憶装置である。記憶部15は、顔向き測定部12における測定結果、視線方向測定部13における測定結果及び表情推定部14における推定結果を時系列情報と紐付けて記憶する。変化量算出部16は、記憶部15に記憶された顔向き測定結果に基づいて、時系列の顔向き変化量を算出する。さらに、変化量算出部16は、記憶部15に記憶された視線方向の測定結果に基づいて、時系列の視線変化量を算出する。記憶部15は、変化量算出部16における算出結果の情報を時系列情報と紐付けて記憶する。   The storage unit 15 is a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 15 stores the measurement result in the face direction measurement unit 12, the measurement result in the gaze direction measurement unit 13, and the estimation result in the facial expression estimation unit 14 in association with time series information. The change amount calculation unit 16 calculates time-series face direction change amounts based on the face direction measurement results stored in the storage unit 15. Further, the change amount calculation unit 16 calculates a time-series gaze change amount based on the measurement result of the gaze direction stored in the storage unit 15. The storage unit 15 stores the information of the calculation result in the change amount calculation unit 16 in association with the time series information.

入力部17は、ユーザの操作を受ける。入力部17は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。入力部17は、ユーザの指示を診断支援情報提供装置1に入力する際にユーザによって操作される。入力部17は、入力装置を診断支援情報提供装置1に接続するためのインタフェースであってもよい。この場合、入力部17は、入力装置においてユーザの入力に応じ生成された入力信号を診断支援情報提供装置1に入力する。入力部17は、ユーザが解析対象期間を指定する場合に、解析対象期間を示す情報の入力を受ける。解析対象期間は、例えば、解析対象期間の最初の時系列情報及び最後の時系列情報により特定してもよい。また、解析対象期間を、時系列の画像データを得たファイル又は映像データの名称により特定してもよい。解析対象期間として、複数の期間を入力してもよい。   The input unit 17 receives a user operation. The input unit 17 is configured using an existing input device such as a keyboard, a pointing device (such as a mouse or a tablet), a button, or a touch panel. The input unit 17 is operated by the user when inputting a user instruction to the diagnosis support information providing apparatus 1. The input unit 17 may be an interface for connecting the input device to the diagnosis support information providing device 1. In this case, the input unit 17 inputs an input signal generated in response to a user input in the input device to the diagnosis support information providing device 1. The input unit 17 receives input of information indicating the analysis target period when the user specifies the analysis target period. The analysis target period may be specified by, for example, the first time series information and the last time series information of the analysis target period. Further, the analysis target period may be specified by the name of the file or video data obtained from the time-series image data. A plurality of periods may be input as the analysis target period.

診断支援情報生成部18は、変化量算出部16が算出した時系列の顔向き変化量及び視線変化量の情報を記憶部15から読み出し、解析対象期間において顔向き及び視線のそれぞれが変化しなかった割合を算出する。ここで、顔向きや視線が「変化しない」とは、変化が乏しい場合を含んでもよい。さらに、診断支援情報生成部18は、記憶部15に記憶された表情の推定結果に基づいて、解析対象期間における表情に関する統計情報を算出する。診断支援情報生成部18は、解析対象期間において顔向きが変化しなかった割合及び視線が変化しなかった割合と、解析対象期間における各表情に関する統計情報とを診断支援情報として生成する。   The diagnosis support information generation unit 18 reads information on the time-series face direction change amount and the line-of-sight change amount calculated by the change amount calculation unit 16 from the storage unit 15, and each of the face direction and the line of sight does not change during the analysis target period. Calculate the percentage. Here, “the face direction or line of sight does not change” may include a case where the change is scarce. Further, the diagnosis support information generation unit 18 calculates statistical information related to the facial expression in the analysis target period based on the facial expression estimation result stored in the storage unit 15. The diagnosis support information generation unit 18 generates, as diagnosis support information, the ratio that the face orientation did not change and the ratio that the line of sight did not change in the analysis target period, and statistical information about each facial expression in the analysis target period.

出力部19は、診断支援情報生成部18が生成した診断支援情報等のデータを出力する。出力とは、例えば、ディスプレイへの表示、記録媒体への書込み、ネットワークにより接続される他のコンピュータ装置への送信である。出力部19は、診断支援情報提供装置1に接続された不図示の出力装置を介し、診断支援情報提供装置1のユーザに対してデータの出力を行う。出力装置は、例えば画像や文字を画面に出力する装置を用いて構成されてもよい。例えば、出力装置は、CRT(Cathode Ray Tube)や液晶ディスプレイや有機EL(Electro-Luminescent)ディスプレイ等を用いて構成できる。また、出力装置は、画像や文字をシートに印刷(印字)する装置を用いて構成されてもよい。例えば、出力装置は、インクジェットプリンタやレーザープリンタ等を用いて構成できる。また、出力装置は、記録媒体にデータを書き込む装置であってもよい。出力部19は、診断支援情報提供装置1に設けられた通信装置を介して他のコンピュータ装置に対しデータを送信してもよい。   The output unit 19 outputs data such as diagnosis support information generated by the diagnosis support information generation unit 18. The output is, for example, display on a display, writing to a recording medium, or transmission to another computer device connected via a network. The output unit 19 outputs data to the user of the diagnosis support information providing apparatus 1 via an output device (not shown) connected to the diagnosis support information providing apparatus 1. The output device may be configured using, for example, a device that outputs images and characters on a screen. For example, the output device can be configured using a CRT (Cathode Ray Tube), a liquid crystal display, an organic EL (Electro-Luminescent) display, or the like. Further, the output device may be configured using a device that prints (prints) images and characters on a sheet. For example, the output device can be configured using an ink jet printer, a laser printer, or the like. The output device may be a device that writes data to a recording medium. The output unit 19 may transmit data to another computer device via a communication device provided in the diagnosis support information providing device 1.

図2は、記憶部15に記憶される顔向き測定情報、視線方向測定情報及び表情推定情報の例を示す図である。顔向き測定情報は、顔向き測定部12により測定された顔向きの測定結果を示す。視線方向測定情報は、視線方向測定部13により測定された視線方向の測定結果を示す。表情推定情報は、表情推定部14により推定された表情の推定結果を示す。同図では、同じ時系列情報の顔向き測定情報、視線方向測定情報及び表情推定情報を同じ行に示しており、下の行ほど後の順序であることを示す。つまり、同図では、顔向き測定情報、視線方向測定情報及び表情推定情報とも、並び順が時系列情報として用いられている。   FIG. 2 is a diagram illustrating examples of face orientation measurement information, gaze direction measurement information, and facial expression estimation information stored in the storage unit 15. The face orientation measurement information indicates a measurement result of the face orientation measured by the face orientation measuring unit 12. The gaze direction measurement information indicates a measurement result of the gaze direction measured by the gaze direction measurement unit 13. The expression estimation information indicates the estimation result of the expression estimated by the expression estimation unit 14. In the same figure, face direction measurement information, gaze direction measurement information, and facial expression estimation information of the same time-series information are shown in the same row, and the lower row indicates a later order. That is, in the same figure, the arrangement order is used as time series information for the face orientation measurement information, the gaze direction measurement information, and the facial expression estimation information.

同図に示す顔向き測定情報及び視線方向測定情報は、上下方向と左右方向のそれぞれの角度で向きを示している。例えば、左右方向については、正面を向いた時の角度を0とし、被検者2の右方向の角度を負の数、左方向の角度を正の数で表すことで、左と右のいずれの方向を向いているかと向きの大きさを容易に把握できる。また、上下方向については、正面を向いた時の角度を0とし、上方向の角度を負の数、下方向の角度を正の数で表すことができる。   The face orientation measurement information and the line-of-sight measurement information shown in the figure indicate the directions at respective angles in the vertical direction and the horizontal direction. For example, in the left-right direction, the angle when facing the front is set to 0, the right angle of the subject 2 is expressed as a negative number, and the left direction angle is expressed as a positive number. You can easily grasp the direction of the direction and the size of the direction. In addition, regarding the vertical direction, the angle when facing the front is 0, the upward angle can be expressed as a negative number, and the downward angle as a positive number.

表情推定結果は、例えば、「喜び」、「驚き」、「怒り」、「悲しみ」、「真顔」などのうちいずれの表情であるかでもよく、表情が強く表れている度合やその表情と推定される尤度を数値化したスコアでもよい。また、各表情のスコアが得られる場合、最もスコアが高い表情を表情推定結果としてもよい。同図に示す表情推定情報には、各表情のスコアが設定されている。   The facial expression estimation result may be any facial expression such as “joy”, “surprise”, “anger”, “sadness”, “true face”, etc. A score obtained by quantifying the likelihood of being performed may be used. When the score of each facial expression is obtained, the facial expression with the highest score may be used as the facial expression estimation result. In the facial expression estimation information shown in the figure, a score for each facial expression is set.

図3は、診断支援情報の出力結果の例を示している。同図に示す診断支援情報は、解析対象期間における上下方向及び左右方向それぞれの顔向き変化なしの割合、上下方向及び左右方向それぞれの視線変化なしの割合、及び、各表情の出現割合を含む。なお、入力部17により、複数の解析対象期間とそれら対象期間が属するグループとが入力された場合、診断支援情報生成部18は、各解析対象期間について診断支援情報を生成し、グループ間で診断支援情報のT検定を行った結果をさらに出力するようにしてもよい。   FIG. 3 shows an example of the output result of diagnosis support information. The diagnosis support information shown in the figure includes the ratio of no change in face direction in the vertical direction and the horizontal direction in the analysis target period, the ratio of no change in line of sight in the vertical direction and the horizontal direction, and the appearance ratio of each facial expression. When a plurality of analysis target periods and groups to which these target periods belong are input by the input unit 17, the diagnosis support information generation unit 18 generates diagnosis support information for each analysis target period and performs diagnosis between groups. The result of performing the T test of the support information may be further output.

図4は、診断支援情報提供装置1が実行する解析処理のフロー図である。まず、画像取得部11は、撮像装置3から受信した映像データに基づいて、時系列の画像データを取得する(ステップS110)。顔向き測定部12は、ステップS110において画像取得部11が取得した各画像データを解析し、被検者2の顔向きを測定する(ステップS120)。本実施形態では、顔向き測定部12は、顔が向いている左右方向の角度及び上下方向の角度を顔向き測定結果として算出する。これは、顔は上下又は左右に動かされる頻度が高く、斜め方向に動かす頻度は低いと想定されるためである。顔向き測定部12は、時系列情報と、その時系列情報で特定される画像データを用いた顔向き測定結果とを設定した顔向き測定情報を記憶部15に書き込む。   FIG. 4 is a flowchart of analysis processing executed by the diagnosis support information providing apparatus 1. First, the image acquisition unit 11 acquires time-series image data based on the video data received from the imaging device 3 (step S110). The face orientation measurement unit 12 analyzes each image data acquired by the image acquisition unit 11 in step S110 and measures the face orientation of the subject 2 (step S120). In the present embodiment, the face orientation measurement unit 12 calculates the left-right angle and the vertical angle at which the face is facing as the face orientation measurement result. This is because it is assumed that the frequency of moving the face up and down or left and right is high and the frequency of moving the face in the oblique direction is low. The face orientation measurement unit 12 writes the face orientation measurement information in which the time series information and the face orientation measurement result using the image data specified by the time series information are set in the storage unit 15.

視線方向測定部13は、ステップS110において画像取得部11が取得した各画像データを解析し、被検者2の視線方向を測定する(ステップS130)。本実施形態では、視線方向測定部13は、視線の左右方向の角度及び上下方向の角度を視線方向測定結果として算出する。視線方向測定部13は、時系列情報と、その時系列情報で特定される画像データを用いた視線方向測定結果とを設定した視線方向測定情報を記憶部15に書き込む。   The line-of-sight direction measurement unit 13 analyzes each image data acquired by the image acquisition unit 11 in step S110 and measures the line-of-sight direction of the subject 2 (step S130). In the present embodiment, the line-of-sight direction measurement unit 13 calculates the left-right angle and the vertical angle of the line-of-sight as the line-of-sight measurement result. The gaze direction measurement unit 13 writes the gaze direction measurement information in which the time series information and the gaze direction measurement result using the image data specified by the time series information are set in the storage unit 15.

表情推定部14は、ステップS110において画像取得部11が取得した各画像データを解析し、被検者2の表情を推定する(ステップS140)。表情推定部14は、時系列情報と、その時系列情報で特定される画像データを用いた表情推定結果とを設定した表情推定情報を記憶部15に書き込む。   The facial expression estimation unit 14 analyzes each image data acquired by the image acquisition unit 11 in step S110, and estimates the facial expression of the subject 2 (step S140). The facial expression estimation unit 14 writes the facial expression estimation information in which the time series information and the facial expression estimation result using the image data specified by the time series information are set in the storage unit 15.

変化量算出部16は、各顔向き測定結果について、時系列で並べたときの直前の顔向き測定結果との変化量を算出する(ステップS150)。例えば、記憶部15が、N個の顔向き測定情報を記憶しているとする。変化量算出部16は、時系列情報がn番目(nは2以上N以下の整数)を示す顔向き測定情報に設定されている顔向き測定結果と、時系列情報が(n−1)番目を示す顔向き測定情報に設定されている顔向き測定結果との差分を算出する。変化量算出部16は、算出した差分を、時系列情報がn番目の顔向き変化量とする。なお、顔向き変化量は、上下方向と左右方向のそれぞれについて算出される。変化量算出部16は、時系列情報と顔向き変化量とを設定した顔向き変化量情報を記憶部15に書き込む。   The change amount calculation unit 16 calculates the change amount of each face orientation measurement result from the immediately previous face orientation measurement result when arranged in time series (step S150). For example, it is assumed that the storage unit 15 stores N face orientation measurement information. The change amount calculation unit 16 sets the face orientation measurement result set in the face orientation measurement information indicating that the time series information is nth (n is an integer not less than 2 and not more than N), and the time series information is (n−1) th. And the difference from the face orientation measurement result set in the face orientation measurement information indicating. The change amount calculation unit 16 sets the calculated difference as the n-th face direction change amount in time series information. The face direction change amount is calculated for each of the vertical direction and the horizontal direction. The change amount calculation unit 16 writes the face direction change amount information in which the time series information and the face direction change amount are set in the storage unit 15.

変化量算出部16は、各視線方向測定結果について、時系列で並べたときの直前の視線方向測定結果との変化量を算出する(ステップS160)。例えば、記憶部15が、N個の視線方向測定情報を記憶しているとする。変化量算出部16は、時系列情報がn番目(nは2以上N以下の整数)を示す視線方向測定情報に設定されている視線方向測定結果と、時系列情報が(n−1)番目を示す視線方向測定情報に設定されている視線方向測定結果との差分を算出する。変化量算出部16は、算出した差分を、時系列情報がn番目の視線変化量とする。なお、視線変化量は、上下方向と左右方向のそれぞれについて算出される。変化量算出部16は、時系列情報と視線変化量とを設定した視線変化量情報を記憶部15に書き込む。   The change amount calculation unit 16 calculates a change amount of each gaze direction measurement result from the gaze direction measurement result immediately before being arranged in time series (step S160). For example, it is assumed that the storage unit 15 stores N line-of-sight direction measurement information. The change amount calculation unit 16 includes the gaze direction measurement result set in the gaze direction measurement information indicating that the time series information is nth (n is an integer of 2 or more and N or less), and the time series information is (n−1) th. The difference from the gaze direction measurement result set in the gaze direction measurement information indicating is calculated. The change amount calculation unit 16 sets the calculated difference as the gaze change amount for the nth time-series information. The line-of-sight change amount is calculated for each of the vertical direction and the horizontal direction. The change amount calculation unit 16 writes the line-of-sight change amount information in which the time series information and the line-of-sight change amount are set in the storage unit 15.

入力部17は、ユーザから解析対象期間を示す情報の入力を受ける(ステップS170)。診断支援情報生成部18は、解析対象期間内の時系列情報が設定された顔向き変化量情報、視線変化量情報及び表情推定情報に基づいて、診断支援情報を生成する(ステップS180)。具体的には、以下の処理を行う。   The input unit 17 receives input of information indicating the analysis target period from the user (step S170). The diagnosis support information generation unit 18 generates diagnosis support information based on the face direction change amount information, the line-of-sight change amount information, and the facial expression estimation information in which time-series information within the analysis target period is set (step S180). Specifically, the following processing is performed.

診断支援情報生成部18は、解析対象期間に含まれる時系列情報が設定された顔向き変化量情報を記憶部15から読み出す。診断支援情報生成部18は、読み出した顔向き変化量情報のうち、上下方向の顔向き変化量が所定の閾値以下である顔向き変化量情報、及び、左右方向の顔向き変化量が所定の閾値以下である顔向き変化量情報を特定する。診断支援情報生成部18は、上下方向の顔向き変化量が閾値以下である顔向き変化量情報の数を、記憶部15から読み出した顔向き変化量情報の数により除算し、その算出結果を解析対象期間における上下方向の顔向き変化なしの割合とする。また、診断支援情報生成部18は、左右方向の顔向き変化量が閾値以下である顔向き変化量情報の数を、記憶部15から読み出した顔向き変化量情報の数により除算し、その算出結果を解析対象期間における左右方向の顔向き変化なしの割合とする。なお、閾値は例えば「0」であるが、閾値は任意に設定可能であり、上下方向と左右方向で閾値が異なっていてもよい。   The diagnosis support information generation unit 18 reads face direction change amount information in which time series information included in the analysis target period is set from the storage unit 15. The diagnosis support information generation unit 18 includes, in the read face direction change amount information, the face direction change amount information whose vertical direction face direction change amount is equal to or less than a predetermined threshold, and the left and right direction face direction change amount is predetermined. The face direction change amount information that is equal to or smaller than the threshold is specified. The diagnosis support information generation unit 18 divides the number of face direction change amount information whose face direction change amount in the vertical direction is equal to or less than the threshold by the number of face direction change amount information read from the storage unit 15, and calculates the calculation result. The ratio is the ratio of no change in face direction in the vertical direction in the analysis target period. Further, the diagnosis support information generation unit 18 divides the number of face direction change amount information whose face direction change amount in the left-right direction is equal to or less than the threshold by the number of face direction change amount information read from the storage unit 15, and calculates the same. The result is defined as the ratio of the face direction change in the left-right direction in the analysis target period. The threshold value is “0”, for example, but the threshold value can be arbitrarily set, and the threshold value may be different between the vertical direction and the horizontal direction.

続いて、診断支援情報生成部18は、解析対象期間に含まれる時系列情報が設定された視線変化量情報を記憶部15から読み出す。診断支援情報生成部18は、読み出した視線変化量情報のうち、上下方向の視線変化量が所定の閾値以下である視線変化量情報、及び、左右方向の視線変化量が所定の閾値以下である視線変化量情報を特定する。診断支援情報生成部18は、上下方向の視線変化量が所定の閾値以下である視線変化量情報の数を、記憶部15から読み出した視線変化量情報の数により除算し、その算出結果を解析対象期間における上下方向の視線変化なしの割合とする。また、診断支援情報生成部18は、左右方向の視線変化量が所定の閾値以下である視線変化量情報の数を、記憶部15から読み出した視線変化量情報の数により除算し、その算出結果を解析対象期間における左右方向の視線変化なしの割合とする。なお、閾値は例えば「0」であるが、閾値は任意に設定可能であり、上下方向と左右方向で閾値が異なっていてもよい。   Subsequently, the diagnosis support information generation unit 18 reads the line-of-sight change amount information in which the time series information included in the analysis target period is set from the storage unit 15. The diagnosis support information generation unit 18 includes the gaze change amount information in which the gaze change amount in the vertical direction is equal to or less than a predetermined threshold, and the gaze change amount in the left-right direction is equal to or less than the predetermined threshold among the read gaze change amount information. Identify gaze change information. The diagnosis support information generation unit 18 divides the number of line-of-sight change information whose vertical line-of-sight change is equal to or less than a predetermined threshold by the number of line-of-sight change information read from the storage unit 15 and analyzes the calculation result It is the ratio of no change in the line of sight in the vertical direction during the target period. Further, the diagnosis support information generation unit 18 divides the number of line-of-sight change amount information in which the line-of-sight change amount in the left-right direction is equal to or less than a predetermined threshold by the number of line-of-sight change amount information read out from the storage unit 15. Is the rate of no change in the line of sight in the horizontal direction in the analysis target period. The threshold value is “0”, for example, but the threshold value can be arbitrarily set, and the threshold value may be different between the vertical direction and the horizontal direction.

さらに、診断支援情報生成部18は、解析対象期間に含まれる時系列情報が設定された表情推定情報を記憶部15から読み出す。診断支援情報生成部18は、読み出した表情推定情報に基づいて、表情に関する統計情報を算出する。例えば、読み出した表情推定情報に占める、各表情が現われている表情推定情報の割合を算出する。各表情の推定結果がスコアで表される場合、所定の閾値よりも高いスコアである場合に、その表情が現われているとみなしてもよい。また、統計情報は、表情別のスコアの合計値などでもよい。   Further, the diagnosis support information generation unit 18 reads the facial expression estimation information in which the time series information included in the analysis target period is set from the storage unit 15. The diagnosis support information generation unit 18 calculates statistical information related to the facial expression based on the read facial expression estimation information. For example, the ratio of facial expression estimation information in which each facial expression appears in the read facial expression estimation information is calculated. When the estimation result of each facial expression is represented by a score, the facial expression may be regarded as appearing when the score is higher than a predetermined threshold. The statistical information may be a total score value for each facial expression.

診断支援情報生成部18は、解析対象期間における上下方向の顔向き変化なしの割合、左右方向の顔向き変化なしの割合、上下方向の視線変化なしの割合、左右方向の視線変化なしの割合、各表情の出現割合を設定した診断支援情報を生成する。出力部19は、診断支援情報生成部18が生成した診断支援情報を出力する(ステップS190)。   The diagnosis support information generation unit 18 includes a ratio of no change in face orientation in the vertical direction, a ratio of no change in face orientation in the horizontal direction, a ratio of no change in gaze direction in the vertical direction, a ratio of no change in gaze direction in the horizontal direction, Diagnosis support information in which the appearance ratio of each facial expression is set is generated. The output unit 19 outputs the diagnosis support information generated by the diagnosis support information generation unit 18 (step S190).

なお、顔向き測定(ステップS120)の後に顔向き変化量算出(ステップS150)が行われ、かつ、視線方向測定(ステップS130)の後に視線変化量算出(ステップS160)が行われれば、診断支援情報提供装置1は、上記実施形態におけるステップS120〜ステップS160の処理の順序を入れ替えてもよく、一部の処理を並行して行ってもよい。   If face direction change calculation (step S150) is performed after face orientation measurement (step S120) and gaze change calculation (step S160) is performed after gaze direction measurement (step S130), diagnosis support is performed. The information providing apparatus 1 may change the order of the processes in steps S120 to S160 in the above embodiment, or may perform some processes in parallel.

また、上記では、診断支援情報提供装置1は、画像取得部11が取得した時系列の画像データ全てについて顔向き変化量情報、視線変化量情報及び表情推定情報を生成している。そして、診断支援情報生成部18は、入力部17により入力された解析対象期間の顔向き変化量情報、視線変化量情報及び表情推定情報を用いて診断支援情報を生成する。これにより、例えば、診断支援情報提供装置1に数日分の映像データを入力し、1日毎、時間帯毎などユーザが任意に指定した期間についての診断支援情報を迅速に提供することができる。なお、解析対象期間を入力するステップS170の処理を、ステップS120の前に行ってもよい。この場合、診断支援情報提供装置1は、画像取得部11が取得した時系列の画像データのうち、解析対象期間に含まれる時系列の画像データを用いて、ステップS120〜ステップS160及びステップS180〜ステップS190の処理を行う。また、ステップS110が取得した時系列の画像データを1つの解析対象期間とする場合、ステップS170の処理は省略してもよい。   In the above description, the diagnosis support information providing apparatus 1 generates face direction change amount information, line-of-sight change amount information, and facial expression estimation information for all time-series image data acquired by the image acquisition unit 11. Then, the diagnosis support information generation unit 18 generates diagnosis support information using the face direction change amount information, the line-of-sight change amount information, and the facial expression estimation information of the analysis target period input by the input unit 17. Thereby, for example, video data for several days can be input to the diagnosis support information providing apparatus 1 and diagnosis support information for a period arbitrarily designated by the user such as every day or every time zone can be quickly provided. In addition, you may perform the process of step S170 which inputs an analysis object period before step S120. In this case, the diagnosis support information providing apparatus 1 uses the time-series image data included in the analysis target period among the time-series image data acquired by the image acquisition unit 11 to perform steps S120 to S160 and steps S180 to S180. The process of step S190 is performed. Further, when the time-series image data acquired in step S110 is set as one analysis target period, the process in step S170 may be omitted.

続いて、本実施形態の診断支援情報提供装置1を用いた試験結果を説明する。
ここでは、認知症の被験者3名についての試験結果を示す。この3名の被験者は、70代の女性の被験者A、90代の女性の被験者B、及び、80代の女性の被験者Cである。被験者Aは、認知症の診断後2年、介護度4である。被験者Bは、認知症の診断後6年、介護度3である。被験者Cは、アルツハイマー型認知症の診断後6年、介護度2である。各被験者は、認知症への効果が研究されている中鎖脂肪酸油6グラム含有食品メモリオン(日清オイリオグループ株式会社製)を1日3回、2ヶ月間摂取した。以下では、このメモリオンの摂取開始前の1ヶ月間を「摂取前」、メモリオンの摂取終了後の1ヶ月間を「摂取後」と記載する。各被験者について、摂取前、摂取開始1ヶ月後、摂取開始2ヶ月後、摂取後に、認知症に特有な周辺症状(以下、BPSD)及び表情に関して、日常的な介護者による評価を実施した。
Subsequently, a test result using the diagnosis support information providing apparatus 1 of the present embodiment will be described.
Here, the test results for three subjects with dementia are shown. The three subjects are a female subject A in her 70s, a female subject B in her 90s, and a female subject C in her 80s. Subject A has a degree of care of 4 years after diagnosis of dementia. Subject B has a degree of care of 3 years after diagnosis of dementia. Subject C has a care level of 6 years after diagnosis of Alzheimer-type dementia. Each subject ingested a food memion containing 6 grams of medium chain fatty acid oil (Nisshin Oilio Group Co., Ltd.), which has been studied for its effects on dementia, three times a day for two months. Hereinafter, the one month before the start of the intake of the memory-on is referred to as “before intake”, and the one month after the end of the intake of the memory-on is referred to as “after the intake”. For each subject, daily caregivers were evaluated for peripheral symptoms peculiar to dementia (hereinafter referred to as BPSD) and facial expressions before ingestion, 1 month after ingestion, 2 months after ingestion, and after ingestion.

なお、中鎖脂肪酸が与えるアルツハイマー型認知症への効果については、例えば、以下の文献「Samuel T Henderson, Janet L Vogel, Linda J Barr, Fiona Garvin, Julie J Jones, and Lauren C Costantini, "Study of the ketogenic agent AC-1202 in mild to moderate Alzheimer's disease: a randomized, double-blind, placebo-controlled, multicenter trial," Nutrition & Metabolism 2009, 6: 31」がある。   The effects of medium-chain fatty acids on Alzheimer's dementia are described in, for example, the following literature: “Samuel T Henderson, Janet L Vogel, Linda J Barr, Fiona Garvin, Julie J Jones, and Lauren C Costantini,“ Study of The ketogenic agent AC-1202 in mild to moderate Alzheimer's disease: a randomized, double-blind, placebo-controlled, multicenter trial, "Nutrition & Metabolism 2009, 6: 31".

図5は、各被験者の各期間におけるBPSDと表情に関する日常的な介護者による評価結果を示す図である。図5(a)は被験者Aの評価結果、図5(b)は被験者Bの評価結果、図5(c)は被験者Cの評価結果を示す。BPSDの評価には阿部式BPSDスコアを用いた。阿部式BPSDスコアは44点満点で点数が高いほど「BPSD悪化」と評価される。表情については、摂取前の「笑顔の時間」、「表情の豊かさ」、「無表情の時間」を基準にして、各項目の増減を5段階で評価した。   FIG. 5 is a diagram showing evaluation results by daily caregivers regarding BPSD and facial expressions in each period of each subject. 5A shows the evaluation result of the subject A, FIG. 5B shows the evaluation result of the subject B, and FIG. 5C shows the evaluation result of the subject C. The Abe BPSD score was used for the evaluation of BPSD. The Abe BPSD score is a maximum of 44 points, and the higher the score, the more “BPSD worse”. Regarding facial expressions, the increase or decrease of each item was evaluated in five stages based on “smiling time”, “richness of facial expression”, and “no expression time” before ingestion.

被験者Aは、ある時点から継続した期間において、BPSDが改善して表情の変化も見られ、且つ、その変化が継続したことが確認された。その変化の発生時点より前の期間を期間1、後の期間を期間2とする。期間1は、摂取前から、メモリオンの摂取開始後1ヶ月までの期間であり、期間2は、メモリオンの摂取開始後2ヶ月から摂取後までの期間である。一方、被験者B及び被験者Cについては、期間1から期間2まで阿部式BPSDスコアの改善はみられず、表情の変化もほぼなかった。   It was confirmed that the subject A showed improvement in BPSD and a change in facial expression in a period continued from a certain point in time, and the change continued. A period before the time when the change occurs is referred to as period 1, and a period after the period is referred to as period 2. Period 1 is a period from before ingestion to 1 month after the start of ingestion of memory-on, and period 2 is a period from 2 months after ingestion of memory-on to after ingestion. On the other hand, for subject B and subject C, the Abe BPSD score was not improved from period 1 to period 2, and there was almost no change in facial expression.

図6は、診断支援情報提供装置1を用いた試験結果を示す図である。同図は、各被験者A〜Cの期間1における5日分(Day1〜5)の映像データ、期間2における5日分(Day1〜5)の映像データを用いて解析を行った結果を示している。映像データは、毎週火曜日及び木曜日の14〜16時に行われる30分間のリクリエーションと90分間のおやつ及び談話時間とが含まれる時間帯のうち、約30分間のおやつ及び談話時間の動画である。映像データには、家庭用ビデオカメラで被験者を撮影した映像を用い、診断支援情報提供装置1は、映像データから0.05秒間隔の時系列の画像データを取得して解析を行った。図6(a)は被験者Aの解析結果、図6(b)は被験者Bの解析結果、図6(c)は被験者Cの解析結果である。同図では、T検定の結果も同時に示している。   FIG. 6 is a diagram illustrating a test result using the diagnosis support information providing apparatus 1. The figure shows the results of analysis using video data for 5 days (Day 1 to 5) in period 1 and video data for 5 days (Day 1 to 5) in period 2 for each subject A to C. Yes. The video data is a video of about 30 minutes of snacks and talk time in a time zone that includes 30 minutes of recreation, 90 minutes of snacks and talk time performed every Tuesday and Thursday from 16:00 to 16:00. As the video data, a video obtained by photographing the subject with a home video camera was used, and the diagnosis support information providing apparatus 1 obtained time series image data at intervals of 0.05 seconds from the video data and analyzed. 6A shows the analysis result of the subject A, FIG. 6B shows the analysis result of the subject B, and FIG. 6C shows the analysis result of the subject C. In the figure, the result of the T test is also shown.

図6(a)に示すように、表情の改善が見られた被験者Aについては、期間2における上下方向及び左右方向それぞれの顔向き変化なしの割合、上下方向及び左右方向それぞれの視線変化なしの割合が有意に減少しており、顔向き・視線とも動きが増加している。一方、図6(b)、(c)に示すように、表情の改善が見られなかった被験者B、被験者Cについては、期間1と期間2とで、上下方向及び左右方向それぞれの顔向き変化なしの割合、上下方向及び左右方向それぞれの視線変化なしの割合に、有意差は見られなかった。   As shown in FIG. 6 (a), with respect to the subject A who improved the facial expression, the ratio of the face direction change in the up and down direction and the left and right direction in the period 2 and the line of sight change in the up and down direction and the left and right direction were not changed. The rate has decreased significantly, and movements in both face direction and line of sight have increased. On the other hand, as shown in FIGS. 6B and 6C, for subjects B and C who did not improve their facial expressions, the face orientation changes in the vertical and horizontal directions in periods 1 and 2 respectively. There was no significant difference in the ratio of none and the ratio of no change in the line of sight in the vertical and horizontal directions.

図5から、BPSDの評価結果と、無表情の評価結果とに相関がみられる。また、図5及び図6から、無表情の評価結果と、顔向きの変化の少なさ及び視線の変化の少なさには相関があることが分かる。これらは、診断支援情報提供装置1が出力する顔向きの変化の少なさ及び視線の変化の少なさの情報が、認知症に関する診断に有用な情報として活用可能なこと示している。   From FIG. 5, there is a correlation between the BPSD evaluation result and the expressionless evaluation result. 5 and 6, it can be seen that there is a correlation between the evaluation result of the expressionlessness, the small change in the face direction, and the small change in the line of sight. These indicate that the information indicating the small change in face orientation and the small change in line of sight output from the diagnosis support information providing apparatus 1 can be used as information useful for diagnosis related to dementia.

なお、診断支援情報提供装置1が使用する各閾値はユーザが任意に設定可能であるが、各閾値を学習により決定してもよい。例えば、診断支援情報提供装置1は、複数の被検者それぞれの時系列の画像データを学習データに用いて、各閾値の値を所定幅で変化させながら上述の解析処理を行う。各被検者のBPSD及び表情の評価結果とよくマッチした診断支援情報が得られたときの閾値の値を、診断支援情報提供装置1に設定する。   Each threshold value used by the diagnosis support information providing apparatus 1 can be arbitrarily set by the user, but each threshold value may be determined by learning. For example, the diagnosis support information providing apparatus 1 uses the time-series image data of each of a plurality of subjects as learning data, and performs the above-described analysis processing while changing each threshold value within a predetermined range. The diagnosis support information providing apparatus 1 is set with a threshold value when diagnosis support information that matches well with the BPSD and facial expression evaluation results of each subject is obtained.

以下に、診断支援情報提供装置1の変形例を示す。
変化量算出部16は、所定数毎に顔向き測定結果、及び、視線測定結果それぞれを平均した値を、顔向き変化量、及び、視線変化量の算出に用いてもよい。例えば、0.05秒間隔の時系列の画像データを用いた場合、0.05秒ごとの顔向き測定結果及び視線測定結果が得られる。顔向き測定部12及び視線方向測定部13は、例えば、連続した125個を1区間とし、各区間に時系列情報を付与する。顔向き測定部12は、時系列情報と、その時系列情報が付与された区間における顔向き測定結果の平均値とを設定した顔向き測定情報を記憶部15に書き込む。同様に、視線方向測定部13は、時系列情報と、その時系列情報が付与された区間における視線測定結果の平均値とを設定した視線方向測定情報を記憶部15に書き込む。これにより、変化量算出部16は、6.25秒間隔の時系列の顔向き測定結果情報及び視線方向測定情報を用いて、上記処理と同様に顔向き変化量と視線変化量を算出する。認知症患者には、震えの症状はあまり見られないため、区間を適切に決めることで、情報の精度を維持したまま、診断支援情報提供装置1の処理負荷を軽減することができる。
Below, the modification of the diagnostic assistance information provision apparatus 1 is shown.
The change amount calculation unit 16 may use a value obtained by averaging the face direction measurement result and the line-of-sight measurement result for each predetermined number for calculation of the face direction change amount and the line-of-sight change amount. For example, when time-series image data at intervals of 0.05 seconds is used, a face orientation measurement result and a line-of-sight measurement result every 0.05 seconds are obtained. For example, the face direction measuring unit 12 and the line-of-sight direction measuring unit 13 set 125 consecutive units as one section, and give time series information to each section. The face orientation measurement unit 12 writes the face orientation measurement information in which the time series information and the average value of the face orientation measurement results in the section to which the time series information is assigned are set in the storage unit 15. Similarly, the gaze direction measurement unit 13 writes the gaze direction measurement information in which the time series information and the average value of the gaze measurement results in the section to which the time series information is set are set in the storage unit 15. Thereby, the change amount calculation unit 16 calculates the face direction change amount and the line-of-sight change amount using the time-series face direction measurement result information and the line-of-sight direction measurement information at intervals of 6.25 seconds as in the above-described process. Since patients with dementia do not often see tremors, the processing load of the diagnostic support information providing apparatus 1 can be reduced while appropriately maintaining the information accuracy by appropriately determining the interval.

また、診断支援情報提供装置1は、以下のように、認知症の可能性を判定した結果をさらに、診断支援情報として出力してもよい。まず、学習段階として、診断支援情報提供装置1は、認知症ではない被検者及び認知症の被検者それぞれの時系列の画像データを学習データに用いて、上述の解析処理を行い、各被検者の上下方向及び左右方向の顔向き変化なしの割合、上下方向及び左右方向の視線変化なしの割合、各表情の割合を算出する。診断支援情報提供装置1は、各被検者についての算出結果と認知症の有無とに基づいて、上下方向及び左右方向の顔向き変化なしの割合、上下方向及び左右方向の視線変化なしの割合、ならびに、各表情の割合と、認知症の有無との相関を学習する。この学習により、例えば、認知症の可能性の有無を判定するための上下方向及び左右方向の顔向き変化なしの割合、上下方向及び左右方向の視線変化なしの割合、各表情の割合それぞれの閾値を得る。被検者について解析処理を行う場合、診断支援情報生成部18は、学習段階で得られた各閾値と、解析対象の被検者について得られた上下方向及び左右方向の顔向き変化なしの割合、上下方向及び左右方向の視線変化なしの割合、各表情の割合それぞれとを比較した結果に基づいて、認知症の可能性の有無を判定する。診断支援情報生成部18は、閾値との乖離の大きさによって認知症の可能性の程度を判断してもよい。なお、認知症の有無との相関がないと判断された表情については、認知症の疑いの有無の判定には使用しない。   In addition, the diagnosis support information providing apparatus 1 may further output the result of determining the possibility of dementia as diagnosis support information as follows. First, as a learning stage, the diagnosis support information providing apparatus 1 uses the time-series image data of each subject who is not dementia and each subject with dementia as learning data, and performs the above-described analysis processing. The ratio of the face direction change in the up-down direction and the left-right direction of the subject, the ratio of the gaze change in the up-down direction and the left-right direction, and the ratio of each expression are calculated. The diagnosis support information providing apparatus 1 determines the ratio of the face direction change in the up and down direction and the left and right direction, the ratio of no change in the line of sight in the up and down direction and the left and right direction based on the calculation result for each subject and the presence or absence of dementia. And, the correlation between the ratio of each facial expression and the presence or absence of dementia is learned. By this learning, for example, the ratio of vertical and horizontal face direction changes for determining the possibility of dementia, the vertical and horizontal line-of-sight ratios, the ratio of each facial expression threshold Get. When the analysis process is performed on the subject, the diagnosis support information generation unit 18 uses the threshold values obtained in the learning stage and the ratio of the face direction change in the vertical and horizontal directions obtained for the subject to be analyzed. The presence / absence of dementia is determined based on the results of comparing the ratios of the vertical and horizontal directions without any change in the line of sight and the ratios of the facial expressions. The diagnosis support information generation unit 18 may determine the degree of possibility of dementia based on the magnitude of deviation from the threshold. It should be noted that facial expressions determined to have no correlation with the presence or absence of dementia are not used to determine the presence or absence of suspected dementia.

また、相関は、例えば、上下方向及び左右方向それぞれの顔向き変化なしの割合、上下方向及び左右方向それぞれの視線変化なしの割合、及び、各表情の割合をパラメータに用いて、認知症の疑いの程度を算出する関数(以下、「判別式」と記載)であってもよい。この場合、学習段階において、診断支援情報提供装置1は、各被検者の学習データを用いて上記の解析処理を行って得られた結果と、被検者の認知症の有無とに基づいて、判別式に用いられる各係数の値を決定する。被検者について解析処理を行う場合、診断支援情報生成部18は、解析対象の被検者について得られた上下方向及び左右方向の顔向き変化なしの割合、上下方向及び左右方向の視線変化なしの割合、各表情の割合それぞれを、学習した判別式に代入して得られた値を用いて、認知症の可能性の有無又は程度を判定する。   In addition, the correlation may be, for example, a dementia suspicion using, as parameters, the ratio of no change in face orientation in the vertical direction and the horizontal direction, the ratio of no change in gaze direction in the vertical direction and the horizontal direction, and the ratio of each facial expression. May be a function (hereinafter referred to as “discriminant expression”) for calculating the degree of. In this case, in the learning stage, the diagnosis support information providing apparatus 1 is based on the result obtained by performing the above analysis process using the learning data of each subject and the presence or absence of the subject's dementia. The value of each coefficient used in the discriminant is determined. When the analysis process is performed on the subject, the diagnosis support information generation unit 18 determines the ratio of the face direction change in the vertical direction and the horizontal direction obtained for the subject to be analyzed, and the change in the line of sight in the vertical direction and the horizontal direction. Using the value obtained by substituting the ratio of each expression and the ratio of each facial expression into the learned discriminant, the presence / absence or degree of dementia is determined.

本実施形態によれば、被検者の日常を撮影した画像等を利用した容易な測定により、認知症などの脳機能疾患の診断に有用な情報を提供することが可能となる。被検者は、測定のための器具等を装着する必要がなく、また、測定のため指示に従って何らかの動作を行う必要もないために、被検者の負担を抑えることができる。これは、測定者にとっても、測定のための器具等を被検者に装着させる必要がなく、測定のための動作を行うよう被検者に指示する必要もないということであり、測定者の負担を軽減することもできる。   According to the present embodiment, it is possible to provide information useful for diagnosis of a brain function disease such as dementia by easy measurement using an image or the like taken of a subject's daily life. The subject does not need to wear an instrument for measurement or the like, and does not need to perform any operation according to the instruction for measurement, so the burden on the subject can be suppressed. This means that it is not necessary for the measurer to attach a measurement instrument or the like to the subject, and it is not necessary to instruct the subject to perform the measurement operation. The burden can be reduced.

[第2の実施形態]
図7は、本実施形態の診断支援情報提供システム4の構成図である。同図に示す診断支援情報提供システム4は、ネットワーク5を介して、第1の実施形態の診断支援情報提供装置1と、1台以上の端末装置6とを接続した構成である。ネットワーク5は、例えば、インターネット網などの公衆網であるが、私設網又は仮想私設網であってもよく、それらの組合せであってもよい。端末装置6は、コンピュータ端末であり、映像データを診断支援情報提供装置1に送信する。診断支援情報提供装置1は、端末装置6から映像データを受信して、第1の実施形態と同様の処理を行う。なお、解析対象期間を指定する場合、診断支援情報提供装置1は、入力部17による入力に代えて、端末装置6から解析対象期間の情報を受信する。診断支援情報提供装置1の出力部19は、診断支援情報を映像データの送信元の端末装置6に返送する。
[Second Embodiment]
FIG. 7 is a configuration diagram of the diagnosis support information providing system 4 of the present embodiment. The diagnosis support information providing system 4 shown in the figure has a configuration in which the diagnosis support information providing apparatus 1 according to the first embodiment and one or more terminal devices 6 are connected via a network 5. The network 5 is a public network such as the Internet network, for example, but may be a private network, a virtual private network, or a combination thereof. The terminal device 6 is a computer terminal and transmits video data to the diagnosis support information providing device 1. The diagnosis support information providing device 1 receives video data from the terminal device 6 and performs the same processing as in the first embodiment. When the analysis target period is designated, the diagnosis support information providing apparatus 1 receives the analysis target period information from the terminal device 6 instead of the input by the input unit 17. The output unit 19 of the diagnosis support information providing device 1 returns the diagnosis support information to the terminal device 6 that is the transmission source of the video data.

なお、端末装置6が、診断支援情報提供装置1の一部の機能部を有してもよい。診断支援情報提供装置1のいずれの機能部を端末装置6に備えるかは任意とすることができる。例えば、端末装置6が画像取得部11、顔向き測定部12、視線方向測定部13及び表情推定部14を備え、顔向き測定部12、視線方向測定部13及び表情推定部14の処理結果を診断支援情報提供装置1に送信してもよい。   Note that the terminal device 6 may have a part of the functional units of the diagnosis support information providing device 1. Which functional unit of the diagnosis support information providing device 1 is provided in the terminal device 6 can be arbitrarily determined. For example, the terminal device 6 includes an image acquisition unit 11, a face orientation measurement unit 12, a gaze direction measurement unit 13, and a facial expression estimation unit 14, and processing results of the face orientation measurement unit 12, the gaze direction measurement unit 13, and the facial expression estimation unit 14 are obtained. You may transmit to the diagnostic assistance information provision apparatus 1. FIG.

また、端末装置6は、映像データをデータベースサーバに登録し、診断支援情報提供装置1に映像データを登録したデータベースサーバのアドレス及び映像データ名を通知してもよい。診断支援情報提供装置1の画像取得部11は、端末装置6から受信したアドレス及び映像データ名を用いてデータベースサーバにアクセスし、映像データを読み出す。   The terminal device 6 may register the video data in the database server and notify the diagnosis support information providing device 1 of the address and video data name of the database server that registered the video data. The image acquisition unit 11 of the diagnosis support information providing apparatus 1 accesses the database server using the address and the video data name received from the terminal device 6 and reads the video data.

本実施形態によれば、1台の診断支援情報提供装置1によって、複数ユーザに診断支援情報を提供することが可能となる。   According to the present embodiment, it is possible to provide diagnosis support information to a plurality of users by using one diagnosis support information providing apparatus 1.

[第3の実施形態]
本実施形態では、診断支援情報提供装置1が出力した診断支援情報と、他の情報とを利用して、総合的な診断支援情報を提供する。
図8は、本実施形態の診断支援システム7の機能ブロック図である。診断支援システム7は、第1の実施形態の診断支援情報提供装置1と、解析部71とを備える。診断支援システム7は、1台のコンピュータ装置により実現してもよく、ネットワークで接続された複数台のコンピュータ装置により実現してもよい。複数台のコンピュータ装置により実現する場合、いずれのコンピュータ装置がいずれの機能部を実現するかは任意とすることができ、1つの機能部を複数台のコンピュータ装置で実現してもよい。
[Third Embodiment]
In the present embodiment, comprehensive diagnosis support information is provided using the diagnosis support information output from the diagnosis support information providing apparatus 1 and other information.
FIG. 8 is a functional block diagram of the diagnosis support system 7 of the present embodiment. The diagnosis support system 7 includes the diagnosis support information providing apparatus 1 according to the first embodiment and an analysis unit 71. The diagnosis support system 7 may be realized by a single computer device or may be realized by a plurality of computer devices connected via a network. When realized by a plurality of computer devices, which computer device realizes which functional unit is arbitrary, and one functional unit may be realized by a plurality of computer devices.

解析部71は、診断支援情報提供装置1が出力した診断支援情報と、他の情報とに基づいて診断支援情報提供装置1とは異なる診断支援情報を生成し、出力する。解析部71は、診断支援情報提供装置1が解析処理に使用した画像データから得られた任意の特徴点を、診断支援情報の生成に用いることもできる。なお、第2の実施形態の診断支援情報提供システム4は、診断支援情報提供装置1に代えて、本実施形態の診断支援システム7を備えてもよい。この場合、診断支援システム7は、診断支援情報提供装置1が出力した診断支援情報以外に、解析部71における処理に必要な情報を、端末装置6から受信する。   The analysis unit 71 generates and outputs diagnosis support information different from the diagnosis support information providing apparatus 1 based on the diagnosis support information output by the diagnosis support information providing apparatus 1 and other information. The analysis unit 71 can also use arbitrary feature points obtained from the image data used for the analysis processing by the diagnosis support information providing apparatus 1 for generating diagnosis support information. Note that the diagnosis support information providing system 4 of the second embodiment may include the diagnosis support system 7 of the present embodiment instead of the diagnosis support information providing apparatus 1. In this case, the diagnosis support system 7 receives information necessary for processing in the analysis unit 71 from the terminal device 6 in addition to the diagnosis support information output from the diagnosis support information providing apparatus 1.

本実施形態によれば、診断支援情報提供装置1の解析結果を利用して、診断に有用な情報をさらに提供することが可能となる。   According to the present embodiment, it is possible to further provide information useful for diagnosis using the analysis result of the diagnosis support information providing apparatus 1.

以上説明した実施形態では、脳機能疾患として認知症を例に説明したが、診断支援情報提供装置1は、他の脳機能疾患の罹患者が対象である場合にも、上記と同様の処理により、診断に有用な情報を提供することができる。   In the embodiment described above, dementia has been described as an example of a brain function disease. However, the diagnosis support information providing apparatus 1 performs the same process as described above even when a person suffering from another brain function disease is a target. Can provide information useful for diagnosis.

なお、上述の診断支援情報提供装置1及び診断支援システム7は、内部にコンピュータシステムを有している。そして、診断支援情報提供装置1及び診断支援システム7の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。   The diagnosis support information providing apparatus 1 and the diagnosis support system 7 described above have a computer system therein. The operation process of the diagnosis support information providing apparatus 1 and the diagnosis support system 7 is stored in a computer-readable recording medium in the form of a program, and the computer system reads and executes this program, whereby the above processing is performed. Is done. The computer system here includes a CPU, various memories, an OS, and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…診断支援情報提供装置
2…被検者
3…撮像装置
4…診断支援情報提供システム
5…ネットワーク
6…端末装置
7…診断支援システム
11…画像取得部
12…顔向き測定部
13…視線方向測定部
14…表情推定部
15…記憶部
16…変化量算出部
17…入力部
18…診断支援情報生成部
19…出力部
71…解析部
DESCRIPTION OF SYMBOLS 1 ... Diagnosis support information provision apparatus 2 ... Subject 3 ... Imaging device 4 ... Diagnosis support information provision system 5 ... Network 6 ... Terminal apparatus 7 ... Diagnosis support system 11 ... Image acquisition part 12 ... Face direction measurement part 13 ... Gaze direction Measurement unit 14 ... facial expression estimation unit 15 ... storage unit 16 ... change amount calculation unit 17 ... input unit 18 ... diagnosis support information generation unit 19 ... output unit 71 ... analysis unit

Claims (5)

時系列の画像データそれぞれにおける被検者の顔向きを測定する顔向き測定部と、
前記顔向き測定部が測定した前記顔向きに基づいて、時系列の顔向き変化量を算出する変化量算出部と、
所定期間において顔向き変化量が所定値以下であった割合を前記変化量算出部が算出した前記顔向き変化量に基づいて算出し、算出結果を示す診断支援情報を生成する診断支援情報生成部と、
前記診断支援情報生成部が算出した前記診断支援情報を出力する出力部と、
を備える診断支援情報提供装置。
A face orientation measurement unit for measuring the face orientation of the subject in each of the time-series image data;
Based on the face orientation measured by the face orientation measurement unit, a change amount calculation unit that calculates a time-series face direction change amount;
A diagnosis support information generating unit that calculates a ratio that the face direction change amount is equal to or less than a predetermined value in a predetermined period based on the face direction change amount calculated by the change amount calculation unit, and generates diagnosis support information indicating a calculation result When,
An output unit that outputs the diagnosis support information calculated by the diagnosis support information generation unit;
A diagnostic support information providing apparatus comprising:
時系列の前記画像データそれぞれにおける前記被検者の視線方向を測定する視線方向測定部をさらに備え、
前記変化量算出部は、前記視線方向測定部が測定した前記視線方向に基づいて、時系列の視線変化量を算出し、
前記診断支援情報生成部は、前記所定期間において視線変化量が所定値以下であった割合を前記変化量算出部が算出した時系列の前記視線変化量に基づいて算出し、算出結果をさらに前記診断支援情報に設定する、
請求項1に記載の診断支援情報提供装置。
Further comprising a gaze direction measuring unit that measures the gaze direction of the subject in each of the time-series image data,
The change amount calculation unit calculates a time-series gaze change amount based on the gaze direction measured by the gaze direction measurement unit,
The diagnosis support information generation unit calculates a rate at which the line-of-sight change amount is equal to or less than a predetermined value in the predetermined period based on the time-series line-of-sight change amount calculated by the change amount calculation unit, and further calculates a calculation result Set in diagnosis support information,
The diagnosis support information providing apparatus according to claim 1.
前記診断支援情報生成部は、顔向き変化量が所定値以下であった前記割合に基づいて、又は、顔向き変化量が所定値以下であった前記割合及び視線変化量が所定値以下であった前記割合に基づいて、脳機能疾患の可能性又は程度を判定し、
前記出力部は、前記診断支援情報生成部による判定結果を出力する、
請求項2に記載の診断支援情報提供装置。
The diagnosis support information generation unit may be configured based on the ratio at which the face direction change amount is equal to or less than a predetermined value, or the ratio and the line-of-sight change amount at which the face direction change amount is equal to or less than a predetermined value. Based on the ratio, determine the possibility or degree of brain function disease,
The output unit outputs a determination result by the diagnosis support information generation unit.
The diagnosis support information providing apparatus according to claim 2.
時系列の前記画像データそれぞれにおける前記被検者の表情を推定する表情推定部をさらに備え、
前記診断支援情報生成部は、前記所定期間について前記表情推定部が推定した前記表情をさらに用いて脳機能疾患の可能性又は程度を判定する、
請求項1から請求項3のいずれか一項に記載の診断支援情報提供装置。
Further comprising a facial expression estimation unit that estimates the facial expression of the subject in each of the time-series image data,
The diagnosis support information generation unit further determines the possibility or degree of a brain function disease using the facial expression estimated by the facial expression estimation unit for the predetermined period.
The diagnosis support information provision apparatus according to any one of claims 1 to 3.
時系列の画像データそれぞれにおける被検者の顔向きを測定する顔向き測定ステップと、
前記顔向き測定ステップにおいて測定された前記顔向きに基づいて、時系列の顔向き変化量を算出する変化量算出ステップと、
所定期間において顔向き変化量が所定値以下であった割合を前記変化量算出ステップにおいて算出された前記顔向き変化量に基づいて算出し、算出結果を示す診断支援情報を生成する診断支援情報生成ステップと、
前記診断支援情報生成ステップにおいて算出された前記診断支援情報を出力する出力ステップと、
を有する診断支援情報提供方法。
A face orientation measuring step for measuring the face orientation of the subject in each of the time-series image data;
Based on the face orientation measured in the face orientation measuring step, a change amount calculating step for calculating a time-series face orientation change amount;
Diagnostic support information generation for calculating a ratio that the face direction change amount is a predetermined value or less in a predetermined period based on the face direction change amount calculated in the change amount calculating step, and generating diagnosis support information indicating the calculation result Steps,
An output step for outputting the diagnosis support information calculated in the diagnosis support information generation step;
A method for providing diagnosis support information.
JP2017181766A 2017-09-21 2017-09-21 Diagnosis support information provision device Active JP7123539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017181766A JP7123539B2 (en) 2017-09-21 2017-09-21 Diagnosis support information provision device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017181766A JP7123539B2 (en) 2017-09-21 2017-09-21 Diagnosis support information provision device

Publications (2)

Publication Number Publication Date
JP2019055064A true JP2019055064A (en) 2019-04-11
JP7123539B2 JP7123539B2 (en) 2022-08-23

Family

ID=66106676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017181766A Active JP7123539B2 (en) 2017-09-21 2017-09-21 Diagnosis support information provision device

Country Status (1)

Country Link
JP (1) JP7123539B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058231A (en) * 2019-10-02 2021-04-15 株式会社エクサウィザーズ Cognitive function estimation method, computer program, and cognitive function estimation device
WO2022059249A1 (en) * 2020-09-16 2022-03-24 コニカミノルタ株式会社 Information processing device, information processing system, information output method, and information output program
WO2022091642A1 (en) * 2020-10-29 2022-05-05 グローリー株式会社 Cognitive function evaluation device, cognitive function evaluation system, learning model generation device, cognitive function evaluation method, learning model production method, trained model, and program
KR20220072560A (en) * 2020-11-25 2022-06-02 상명대학교산학협력단 Device and method of screening dementia through analysis between face direction and gaze
WO2022201275A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis programme
WO2023053784A1 (en) * 2021-10-01 2023-04-06 パナソニックIpマネジメント株式会社 Facial type diagnostic device, facial type diagnostic method, and program
WO2023224333A1 (en) * 2022-05-18 2023-11-23 의료법인 명지의료재단 Dementia diagnosis system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670885A (en) * 1992-07-09 1994-03-15 A T R Shichokaku Kiko Kenkyusho:Kk Medical diagnostic device using sight line detection
JP2007148922A (en) * 2005-11-29 2007-06-14 Advanced Telecommunication Research Institute International Facial kinesitherapy support apparatus
JP2012034839A (en) * 2010-08-06 2012-02-23 Tokyo Univ Of Agriculture & Technology Mental disease determination device, method, and program
JP2014068941A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Diagnosis support apparatus and diagnosis support method
US20140315168A1 (en) * 2013-02-12 2014-10-23 Emotient Facial expression measurement for assessment, monitoring, and treatment evaluation of affective and neurological disorders
JP2015518402A (en) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ Attention measurement method
JP2016147006A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Health management assist device and health management assist method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670885A (en) * 1992-07-09 1994-03-15 A T R Shichokaku Kiko Kenkyusho:Kk Medical diagnostic device using sight line detection
JP2007148922A (en) * 2005-11-29 2007-06-14 Advanced Telecommunication Research Institute International Facial kinesitherapy support apparatus
JP2012034839A (en) * 2010-08-06 2012-02-23 Tokyo Univ Of Agriculture & Technology Mental disease determination device, method, and program
JP2015518402A (en) * 2012-04-24 2015-07-02 ウニベルシタ デ バルセローナ Attention measurement method
JP2014068941A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Diagnosis support apparatus and diagnosis support method
US20140315168A1 (en) * 2013-02-12 2014-10-23 Emotient Facial expression measurement for assessment, monitoring, and treatment evaluation of affective and neurological disorders
JP2016147006A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Health management assist device and health management assist method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021058231A (en) * 2019-10-02 2021-04-15 株式会社エクサウィザーズ Cognitive function estimation method, computer program, and cognitive function estimation device
JP7014761B2 (en) 2019-10-02 2022-02-01 株式会社エクサウィザーズ Cognitive function estimation method, computer program and cognitive function estimation device
WO2022059249A1 (en) * 2020-09-16 2022-03-24 コニカミノルタ株式会社 Information processing device, information processing system, information output method, and information output program
WO2022091642A1 (en) * 2020-10-29 2022-05-05 グローリー株式会社 Cognitive function evaluation device, cognitive function evaluation system, learning model generation device, cognitive function evaluation method, learning model production method, trained model, and program
KR20220072560A (en) * 2020-11-25 2022-06-02 상명대학교산학협력단 Device and method of screening dementia through analysis between face direction and gaze
KR102446848B1 (en) * 2020-11-25 2022-09-27 상명대학교산학협력단 Device and method of screening dementia through analysis between face direction and gaze
WO2022201275A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis programme
WO2023053784A1 (en) * 2021-10-01 2023-04-06 パナソニックIpマネジメント株式会社 Facial type diagnostic device, facial type diagnostic method, and program
WO2023224333A1 (en) * 2022-05-18 2023-11-23 의료법인 명지의료재단 Dementia diagnosis system

Also Published As

Publication number Publication date
JP7123539B2 (en) 2022-08-23

Similar Documents

Publication Publication Date Title
JP7123539B2 (en) Diagnosis support information provision device
Aigrain et al. Multimodal stress detection from multiple assessments
Vargas-Cuentas et al. Developing an eye-tracking algorithm as a potential tool for early diagnosis of autism spectrum disorder in children
Sato et al. Enhanced experience of emotional arousal in response to dynamic facial expressions
Engbert et al. Microsaccades keep the eyes' balance during fixation
US9532711B2 (en) Affective bandwidth measurement and affective disorder determination
WO2018168095A1 (en) Person trend recording device, person trend recording method, and program
KR101722708B1 (en) Method and System for social relationship based on HRC by Micro movement of body
JP6863563B2 (en) Stress evaluation system
Lott et al. Face recognition in the elderly
Kuwahara et al. Eye fatigue estimation using blink detection based on Eye Aspect Ratio Mapping (EARM)
JPWO2007135796A1 (en) Control device for evaluating user response to content
KR20190041081A (en) Evaluation system of cognitive ability based on virtual reality for diagnosis of cognitive impairment
Fini et al. Sharing space: the presence of other bodies extends the space judged as near
Boswell et al. Smartphone videos of the sit-to-stand test predict osteoarthritis and health outcomes in a nationwide study
Sheth et al. Detecting social and non-social changes in natural scenes: Performance of children with and without autism spectrum disorders and typical adults
Affuso et al. A method for measuring human body composition using digital images
Rostovtseva et al. Sexual dimorphism in facial shape of modern Buryats of Southern Siberia
Capriola-Hall et al. Group differences in facial emotion expression in autism: Evidence for the utility of machine classification
Al-Jallad et al. Artificial intelligence-powered smartphone application, AICaries, improves at-home dental caries screening in children: Moderated and unmoderated usability test
Muender et al. Extracting heart rate from videos of online participants
Mackenzie et al. Morphological and morphometric changes in the faces of female-to-male (FtM) transsexual people
Ramon Differential processing of vertical interfeature relations due to real-life experience with personally familiar faces
Pollak et al. Comparing self-reported emotions and facial expressions of joy in heterosexual romantic couples
Lebert et al. Keeping distance or getting closer: How others’ emotions shape approach-avoidance postural behaviors and preferred interpersonal distance

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7123539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150