JPWO2016143759A1 - Emotion estimation device and emotion estimation method - Google Patents

Emotion estimation device and emotion estimation method Download PDF

Info

Publication number
JPWO2016143759A1
JPWO2016143759A1 JP2017505336A JP2017505336A JPWO2016143759A1 JP WO2016143759 A1 JPWO2016143759 A1 JP WO2016143759A1 JP 2017505336 A JP2017505336 A JP 2017505336A JP 2017505336 A JP2017505336 A JP 2017505336A JP WO2016143759 A1 JPWO2016143759 A1 JP WO2016143759A1
Authority
JP
Japan
Prior art keywords
subject
calculated
pupil diameter
brain
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017505336A
Other languages
Japanese (ja)
Other versions
JP6899989B2 (en
Inventor
小林 洋平
洋平 小林
ゆり 渡邉
ゆり 渡邉
美枝子 田中
美枝子 田中
幸夫 小杉
幸夫 小杉
康昌 寺町
康昌 寺町
利光 武者
利光 武者
渡 倉島
渡 倉島
光一 菊池
光一 菊池
啓一 塚田
啓一 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BRAIN FUNCTIONS LABORATORY, INC.
NATSUME RESEARCH INSTITUTE, CO.,LTD.
Original Assignee
BRAIN FUNCTIONS LABORATORY, INC.
NATSUME RESEARCH INSTITUTE, CO.,LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BRAIN FUNCTIONS LABORATORY, INC., NATSUME RESEARCH INSTITUTE, CO.,LTD. filed Critical BRAIN FUNCTIONS LABORATORY, INC.
Publication of JPWO2016143759A1 publication Critical patent/JPWO2016143759A1/en
Application granted granted Critical
Publication of JP6899989B2 publication Critical patent/JP6899989B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

より信頼性のある感情推定、かつより安定的な感情推定が可能な感情推定装置を提供する。本発明は、被験者の脳電位信号を取得し、被験者の顔映像を取得し、被験者の瞳孔径を取得し、被験者の視認対象の明るさ情報を取得し、取得された瞳孔径、取得された明るさ情報、及び予め取得された明るさ情報と被験者の瞳孔径との対応関係に基づいて、視認対象の明るさの影響を消去した瞳孔径を表す注目度を算出し、取得された顔映像の所定部位のそれぞれの位置の、予め設定された平常時における所定部位のそれぞれの位置からの変位量に基づいて、表情変化の度合いを表す顔画像特徴量を算出し、取得された脳電位信号から抽出された脳活動に起因する特定の周波数帯の信号に基づいて脳電位データを算出し、並びに、算出された注目度、顔画像特徴量、及び脳電位データに基づいて被験者の感情を推定する感情推定装置である。An emotion estimation device capable of more reliable emotion estimation and more stable emotion estimation is provided. The present invention acquires a brain potential signal of a subject, acquires a face image of the subject, acquires a pupil diameter of the subject, acquires brightness information of a subject to be visually recognized, and acquires an acquired pupil diameter. Based on the brightness information and the correspondence between the brightness information acquired in advance and the pupil diameter of the subject, the degree of attention representing the pupil diameter from which the influence of the brightness of the visual target is eliminated is calculated, and the acquired facial image Based on the amount of displacement of each position of the predetermined part from the position of the predetermined part in a preset normal time, a facial image feature amount representing the degree of expression change is calculated, and the acquired brain potential signal The brain potential data is calculated based on a signal in a specific frequency band resulting from the brain activity extracted from the subject, and the subject's emotion is estimated based on the calculated attention level, facial image feature amount, and brain potential data. Emotion estimation device

Description

本発明は、脳活動測定、瞳孔径計測、及び顔表情計測を併用した感情推定装置及び感情推定方法に関する。   The present invention relates to an emotion estimation apparatus and an emotion estimation method that combine brain activity measurement, pupil diameter measurement, and facial expression measurement.

コマーシャル用ビデオコンテンツの評価や、ヒトの使い心地の優劣評価が必要なコンシューマ商品開発の現場などでは、時々刻々と変化するヒトの感情をより客観的かつ定量的に評価するシステムの開発が望まれている。   In consumer product development sites that require evaluation of commercial video content and evaluation of human comfort, it is desirable to develop a system that can evaluate human emotions that change from moment to moment more objectively and quantitatively. ing.

従来、商品評価などの分野では、被験者がどのように感じたかを、アンケートによって調査する方法が一般的であるが、意図的に感情を偽って報告する場合もあり、客観性に欠けるのみならず、継時的なモニタリングが困難であった。これを解決する一つの方法としては、感情との関連が強い瞳孔径による感情の強さを評価する装置が提案されている(特許文献1)。しかし瞳孔計測のみの方法では、感情の強度は測定できても、悲しみで感情が高ぶっているのか、喜びで感情が高まっているのかの区別は困難であった。これに、併せて、顔の所定部位の変化を測定することで、感情を推定する装置も開発されている(特許文献2)。   Conventionally, in fields such as product evaluation, it is common to investigate how a subject feels by questionnaire, but there are cases where emotions are intentionally reported falsely, not only lacking objectivity. It was difficult to monitor over time. As one method for solving this, an apparatus for evaluating the strength of emotion based on the pupil diameter, which is strongly related to emotion, has been proposed (Patent Document 1). However, in the method using only pupil measurement, it was difficult to distinguish whether emotions were high due to sadness or emotions were increased due to joy, even though the intensity of emotion could be measured. In addition, an apparatus for estimating emotions by measuring a change in a predetermined part of the face has been developed (Patent Document 2).

特開2011−239891号JP 2011-239891 A 特許第5445981号Japanese Patent No. 5445981

しかしながら、瞳孔計測や、顔画像の計測に基づいた感情推定方法では、計測の特性上、眼を閉じた状態での感情の状態推定は、事実上困難であった。本発明では、感情に伴って変化する生理学的な変量の中から、眼を閉じた場合でも感情の推定が可能な指標を抽出し、より信頼性のある感情推定、かつより安定的な感情推定が可能な感情推定装置を提供することを目的とする。   However, in the emotion estimation method based on pupil measurement or face image measurement, it is practically difficult to estimate the emotional state with the eyes closed due to the measurement characteristics. In the present invention, an index capable of estimating an emotion even when the eyes are closed is extracted from physiological variables that change with the emotion, and a more reliable emotion estimation and a more stable emotion estimation are performed. An object of the present invention is to provide an emotion estimation device capable of

上記の課題は以下の特徴を有する本発明によって解決される。すなわち本発明の一態様としての感情推定装置は、被験者の感情を推定する感情推定装置であって、上記被験者の脳電位信号を取得する脳電位信号取得手段と、上記被験者の顔映像を取得する顔映像取得手段と、上記被験者の瞳孔径を取得する瞳孔径取得手段と、上記被験者の視認対象の明るさ情報を取得する明るさ情報取得手段と、上記取得された瞳孔径、上記取得された明るさ情報、及び予め取得された明るさ情報と上記被験者の瞳孔径との対応関係に基づいて、上記視認対象の明るさの影響を消去した瞳孔径を表す注目度を算出し、上記取得された顔映像の所定部位のそれぞれの位置の、予め設定された平常時における上記所定部位のそれぞれの位置からの変位量に基づいて、表情変化の度合いを表す顔画像特徴量を算出し、取得された脳電位信号から抽出された脳活動に起因する特定の周波数帯の信号に基づいて脳電位データを算出し、並びに、上記算出された注目度、顔画像特徴量、及び脳電位データに基づいて上記被験者の感情を推定する感情推定手段と、を備える感情推定装置である。   The above problem is solved by the present invention having the following features. That is, an emotion estimation apparatus according to an aspect of the present invention is an emotion estimation apparatus that estimates a subject's emotion, and acquires a brain potential signal acquisition unit that acquires the brain potential signal of the subject and a face image of the subject. Facial image acquisition means, pupil diameter acquisition means for acquiring the pupil diameter of the subject, brightness information acquisition means for acquiring brightness information of the visual recognition target of the subject, the acquired pupil diameter, the acquired Based on the correspondence between the brightness information and the brightness information acquired in advance and the pupil diameter of the subject, the degree of attention representing the pupil diameter from which the influence of the brightness of the visual target is eliminated is calculated and the acquired A facial image feature amount representing the degree of facial expression change is obtained based on the amount of displacement of each position of the predetermined portion of the face image from the position of the predetermined portion at a preset normal time. Calculate brain potential data based on a signal of a specific frequency band resulting from brain activity extracted from the brain potential signal, and based on the calculated attention degree, face image feature amount, and brain potential data An emotion estimation device comprising: an emotion estimation means for estimating an emotion of a subject.

本発明の一態様として、上記感情推定手段は、上記算出された顔画像特徴量及び脳電位データ、並びに所定時間前の上記算出された注目度に基づいて上記被験者の感情を推定する。   As one aspect of the present invention, the emotion estimation means estimates the emotion of the subject based on the calculated face image feature value and brain potential data and the calculated attention level a predetermined time ago.

本発明の一態様として、上記感情推定手段は、上記算出された注目度と上記被験者の安静開眼時の注目度の平均値との差を当該安静開眼時の注目度の標準偏差で除した値である瞳孔径スコア、上記算出された顔画像特徴量と上記被験者の安静開眼時の顔画像特徴量の平均値との差を当該安静開眼時の顔画像特徴量の標準偏差で除した値である表情スコア、及び上記算出された脳電位データと上記被験者の安静開眼時の脳電位データの平均値との差を当該安静開眼時の脳電位データの標準偏差で除した値である脳波スコア、に基づいて上記被験者の感情を推定する。   As one aspect of the present invention, the emotion estimation means is a value obtained by dividing the difference between the calculated degree of attention and the average value of the degree of attention when the subject's eyes are open with the standard deviation of the degree of attention when the eyes are open The pupil diameter score, the difference between the calculated face image feature amount and the average value of the face image feature amount when the subject's eyes are open, divided by the standard deviation of the face image feature amount when the eyes are open A certain facial expression score, and an electroencephalogram score that is a value obtained by dividing the difference between the calculated brain potential data and the average value of the brain potential data of the subject at the time of resting eyes by the standard deviation of the brain potential data at the time of resting eyes, Based on the above, the subject's emotion is estimated.

本発明の一態様として、上記感情推定手段は、上記瞳孔径スコア、上記表情スコア、及び上記脳波スコアそれぞれにおける所定の閾値以上又は以下のデータのみを線形結合して生成された数値を用いて上記被験者の感情を推定する。   As one aspect of the present invention, the emotion estimation means uses the numerical value generated by linearly combining only the data above or below a predetermined threshold in each of the pupil diameter score, the facial expression score, and the electroencephalogram score. Estimate the subject's emotions.

本発明の一態様として、上記感情推定手段は、上記瞳孔径スコア、上記表情スコア、及び上記脳波スコアをそれぞれの所定の閾値を用いて二値化し、二値化されたそれぞれのデータの論理積を用いて上記被験者の感情を推定する。   As one aspect of the present invention, the emotion estimation means binarizes the pupil diameter score, the facial expression score, and the electroencephalogram score using respective predetermined threshold values, and the logical product of the respective binarized data Is used to estimate the subject's emotion.

本発明の一態様として、上記脳電位信号取得手段は、上記被験者の頭部表面の3つの異なる場所に取り付けられるセンサを用いて脳からの信号を取得するものであり、上記感情推定手段は、それぞれのセンサにおいて取得された脳電位信号から脳深部の活動に起因する特定の周波数帯の信号を抽出し、抽出された信号からサンプリング周期でデータを抽出し、それぞれのセンサごとに抽出された3つの時系列データの位相関係に基づいて、それぞれのセンサにおいて取得された信号の相関関係を示す相関値を算出し、及び算出された相関値に基づいて脳深部からの信号を解析して脳機能を判断するための指標値を算出し、当該指標値を脳電位データとして算出する。   As one aspect of the present invention, the brain potential signal acquisition means acquires signals from the brain using sensors attached to three different locations on the subject's head surface. A signal in a specific frequency band resulting from the activity in the deep brain is extracted from the brain potential signal acquired by each sensor, and data is extracted from the extracted signal at a sampling period, and 3 extracted for each sensor. Based on the phase relationship of two time-series data, calculate the correlation value indicating the correlation of the signals acquired in each sensor, and analyze the signal from the deep brain based on the calculated correlation value An index value for determining is calculated, and the index value is calculated as brain potential data.

本発明の一態様としての感情推定方法は、被験者の感情を推定する方法であって、上記被験者の脳電位信号を取得するステップと、上記被験者の顔映像を取得するステップと、上記被験者の瞳孔径を取得するステップと、上記被験者の視認対象の明るさ情報を取得するステップと、上記取得された瞳孔径、上記取得された明るさ情報、及び予め取得された明るさ情報と上記被験者の瞳孔径との対応関係に基づいて、上記視認対象の明るさの影響を消去した瞳孔径を表す注目度を算出するステップと、上記取得された顔映像の所定部位のそれぞれの位置の、予め設定された平常時における上記所定部位のそれぞれの位置からの変位量に基づいて、表情変化の度合いを表す顔画像特徴量を算出ステップと、取得された脳電位信号から抽出された脳活動に起因する特定の周波数帯の信号に基づいて脳電位データを算出するステップと、上記算出された注目度、顔画像特徴量、及び脳電位データに基づいて上記被験者の感情を推定するステップと、を有する感情推定方法である。   An emotion estimation method as one aspect of the present invention is a method for estimating a subject's emotion, the step of acquiring a brain potential signal of the subject, the step of acquiring a face image of the subject, and the pupil of the subject A step of acquiring a diameter; a step of acquiring brightness information of the subject to be visually recognized; the acquired pupil diameter; the acquired brightness information; and the previously acquired brightness information and the pupil of the subject. Based on the correspondence relationship with the diameter, a step of calculating the degree of attention representing the pupil diameter from which the influence of the brightness of the visual target is eliminated, and the respective positions of the predetermined portions of the acquired face image are set in advance. A step of calculating a facial image feature amount representing the degree of facial expression change based on the amount of displacement from the respective positions of the predetermined part in normal times, and a brain extracted from the acquired brain potential signal Calculating brain potential data based on a signal in a specific frequency band caused by movement, estimating the subject's emotion based on the calculated attention level, facial image feature amount, and brain potential data; This is an emotion estimation method.

本発明によれば、取得された瞳孔径、顔表情、及び脳電位信号のデータを解析することで、眼を閉じた場合を含む様々な状況において、ヒトの感情をより高い精度で推定することができる。   According to the present invention, by analyzing the acquired pupil diameter, facial expression, and brain potential signal data, human emotions can be estimated with higher accuracy in various situations including when the eyes are closed. Can do.

本発明の1つの実施形態に係る感情推定装置の概要図である。1 is a schematic diagram of an emotion estimation apparatus according to an embodiment of the present invention. 本発明の1つの実施形態に係る感情推定装置において使用される脳活動測定装置Aの概要図である。It is a schematic diagram of the brain activity measuring device A used in the emotion estimation device according to one embodiment of the present invention. 本発明の1つの実施形態に係る感情推定装置において使用される脳活動測定装置Bの概要図である。It is a schematic diagram of the brain activity measuring device B used in the emotion estimation device according to one embodiment of the present invention. 本発明の1つの実施形態に係る脳活動測定装置Bの帽子装着型電極の外観概要図を示す図である。It is a figure which shows the external appearance schematic diagram of the hat mounting | wearing type electrode of the brain activity measuring apparatus B which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置Bの基準電位測定用の導電性ゴム電極概要図を示す図である。It is a figure which shows the conductive rubber electrode schematic diagram for the reference electric potential measurement of the brain activity measuring apparatus B which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置の電極配置である。It is electrode arrangement | positioning of the brain activity measuring apparatus which concerns on one Embodiment of this invention. 中心部にダイポール電流源を持つ均一球モデル表面の電位を示す図である。It is a figure which shows the electric potential of the uniform sphere model surface which has a dipole current source in center part. 中心部にダイポール電流源を持つ均一球モデル表面の電位を示す図である。It is a figure which shows the electric potential of the uniform sphere model surface which has a dipole current source in center part. 中心部にダイポール電流源を持つ均一球モデル表面の電位を示す図である。It is a figure which shows the electric potential of the uniform sphere model surface which has a dipole current source in center part. 中心部にダイポール電流源を持つ均一球モデル表面の電位を示す図である。It is a figure which shows the electric potential of the uniform sphere model surface which has a dipole current source in center part. 中心部にダイポール電流源を持つ均一球モデル表面における各電極A、B、Cの電位の時間発展を示す図である。It is a figure which shows the time evolution of the electric potential of each electrode A, B, C in the surface of a uniform sphere model which has a dipole current source in the center. 遅延パラメータ空間上のプロットを示す図である。It is a figure which shows the plot on delay parameter space. 本発明の1つの実施形態に係る脳活動測定装置Bの測定用電極の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of the electrode for a measurement of the brain activity measuring apparatus B which concerns on one embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置Bの脳電位の3重相関評価装置の処理ブロックを示す図である。It is a figure which shows the processing block of the triple correlation evaluation apparatus of the brain potential of the brain activity measuring apparatus B which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置Bの3重相関値算出部の3重相関値Siを算出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which calculates the triple correlation value Si of the triple correlation value calculation part of the brain activity measuring apparatus B which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置Bの3重相関表示部を示す図である。It is a figure which shows the triple correlation display part of the brain activity measuring apparatus B which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る脳活動測定装置Bの2つの遅延パラメータ(τ1、τ2)が形成する特徴空間上にプロットされた、健常者脳電位波形の3重相関値分布例の疑似3次元表示を示す図である。Pseudo-3 example of triple correlation value distribution example of brain potential waveform of healthy subject plotted on feature space formed by two delay parameters (τ1, τ2) of brain activity measuring apparatus B according to one embodiment of the present invention It is a figure which shows a dimension display. 本発明の1つの実施形態に係る脳活動測定装置Bの2つの遅延パラメータ(τ1、τ2)が形成する特徴空間上にプロットされた、アルツハイマー病患者脳電位波形の3重相関値分布例の疑似3次元表示を示す図である。A pseudo correlation example of a triple correlation value distribution of a brain potential waveform of an Alzheimer's disease patient plotted on a feature space formed by two delay parameters (τ1, τ2) of the brain activity measuring apparatus B according to one embodiment of the present invention. It is a figure which shows a three-dimensional display. 図10の健常者の3次元表示の図を上から見た図であって、3つの信号が同符号をとる領域を白で表し、3つの信号のいずれか1つの符号が異なる領域を黒で表した図である。FIG. 11 is a diagram of the healthy person in FIG. 10 viewed from above, in which the area where the three signals have the same sign is shown in white, and the area where any one of the three signals is different in black FIG. 図11のアルツハイマー病患者の3次元表示の図を上から見た図であって、3つの信号が同符号をとる領域を白で表し、3つの信号のいずれか1つの符号が異なる領域を黒で表した図である。FIG. 12 is a top view of the three-dimensional display of the Alzheimer's disease patient in FIG. 11, where the areas where the three signals have the same sign are shown in white, and the areas where any one of the three signals is different are black FIG. 図12a、図12bより指標SDを算出するときの白の四角形の領域間の縦横方向の各距離dxi(i=1、2、…、m)、dyj(j=1、2、…、n)を説明する図である。Each distance dxi (i = 1, 2,..., M), dyj (j = 1, 2,..., N) between white square regions when calculating the index SD from FIGS. FIG. 本発明の1つの実施形態に係る感情推定装置において使用される瞳孔径測定器(EMR−AT VOXER)による計測状況を示す図である。It is a figure which shows the measurement condition by the pupil diameter measuring device (EMR-AT VOXER) used in the emotion estimation apparatus which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る感情推定装置において使用される瞳孔径測定器(EMR−9)による計測状況を示す図である。It is a figure which shows the measurement condition by the pupil diameter measuring device (EMR-9) used in the emotion estimation apparatus which concerns on one Embodiment of this invention. 本発明の1つの実施形態に係る感情推定装置において使用される表情測定器が利用する顔面表情線画モデルと特徴量を示す図である。It is a figure which shows the facial expression line drawing model and feature-value which the facial expression measuring device used in the emotion estimation apparatus which concerns on one Embodiment of this invention uses. 本発明の1つの実施形態に係る感情推定装置において使用される表情測定器が利用する顔表情計測点を示す図である。It is a figure which shows the facial expression measurement point which the facial expression measuring device used in the emotion estimation apparatus which concerns on one Embodiment of this invention utilizes. 本発明の1つの実施形態に係る感情推定装置において使用される表情測定器が利用する感情的意味評価を行うための3次元空間を示す図である。It is a figure which shows the three-dimensional space for performing the emotional meaning evaluation which the facial expression measuring device used in the emotion estimation apparatus which concerns on one Embodiment of this invention utilizes. 本発明の1つの実施形態に係る感情推定装置を用いて行う実験プロトコルの詳細を示す図である。It is a figure which shows the detail of the experiment protocol performed using the emotion estimation apparatus which concerns on one embodiment of this invention. 図17に示す実験におけるリラックス画像視聴時と喜び動画視聴時の注目度の平均を示す図である。It is a figure which shows the average of the attention degree at the time of viewing a relaxed image and viewing a joy animation in the experiment shown in FIG. 図17に示す実験におけるリラックス画像視聴時のβ波帯域のNAT状態のZスコアマップを示す図である。It is a figure which shows the Z score map of the NAT state of the beta wave band at the time of relaxation image viewing in the experiment shown in FIG. 図17に示す実験における喜び動画視聴時のβ波帯域のNAT状態のZスコアマップを示す図である。It is a figure which shows the Z score map of the NAT state of the (beta) wave band at the time of joy animation viewing in the experiment shown in FIG. 図17に示す実験におけるリラックス画像視聴時と喜び動画視聴時の電極ごとのβ波帯域のNAT状態のZスコア(10人平均)比較を示す図である。It is a figure which shows the Z score (10 person average) comparison of the NAT state of the beta wave zone | band for every electrode at the time of relaxing image viewing and joy animation viewing in the experiment shown in FIG. 図17に示す実験における喜び動画視聴時のT3、T4、F7のZスコア平均値の時間発展を示す図である。It is a figure which shows the time development of the Z score average value of T3, T4, F7 at the time of joy animation viewing in the experiment shown in FIG. 図17に示す実験における喜び動画視聴時の表情レベルの平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of the expression level at the time of joy animation viewing in the experiment shown in FIG. 図17に示す実験における喜び動画視聴時の注目度の平均値の時間発展を示す図である。It is a figure which shows the time evolution of the average value of the attention degree at the time of joy animation viewing in the experiment shown in FIG. 図22aに示すZスコア平均値に対する図22b、図22cにそれぞれ示す表情レベル、注目度の相互相関関数を示す図である。It is a figure which shows the cross correlation function of the expression level shown in FIG. 22b and FIG. 22c with respect to the Z score average value shown in FIG. 図17に示す実験における恐怖動画(2つ目の恐怖コンテンツ)視聴時の2つのdNAT値(前頭部、後頭部)のZスコア及びこれらの差分の時間発展を示す図である。It is a figure which shows the time evolution of Z score of two dNAT values (frontal head, back of head) at the time of viewing a fear moving image (2nd fear content) in the experiment shown in FIG. 17, and these differences. 図17に示す実験における恐怖動画(2つ目の恐怖コンテンツ)視聴時の注目度の平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of the attention degree at the time of viewing a fear moving image (2nd fear content) in the experiment shown in FIG. 図17に示す実験における悲しみ動画視聴時の2つのdNAT値(前頭部、後頭部)のZスコア及びこれらの差分の時間発展を示す図である。It is a figure which shows the time development of Z score of two dNAT values (frontal head, back of head) at the time of watching a sadness moving image in the experiment shown in FIG. 17, and these differences. 図17に示す実験における悲しみ動画視聴時の注目度の平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of the attention degree at the time of watching the sadness moving image in the experiment shown in FIG. 図17に示す実験における悲しみ動画視聴時の表情レベルの平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of the expression level at the time of watching a sadness moving image in the experiment shown in FIG. 本発明の実施形態1に係る感情推定装置のデータ処理ブロック図である。It is a data processing block diagram of the emotion estimation apparatus which concerns on Embodiment 1 of this invention. 実施形態1に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時と悲しみ動画視聴時それぞれのT3、T4、F7のZスコア平均値の時間発展を示す図である。It is a figure which shows the time development of the Z score average value of T3, T4, and F7 each at the time of joy animation viewing and sadness animation viewing in the experiment shown in FIG. 17 performed using the emotion estimation apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時と悲しみ動画視聴時それぞれの表情スコアの平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of each facial expression score at the time of joy moving image viewing and sadness moving image viewing in the experiment shown in FIG. 17 performed using the emotion estimation apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時と悲しみ動画視聴時それぞれの瞳孔径スコアの平均値の時間発展を示す図である。It is a figure which shows the time development of the average value of each pupil diameter score at the time of joy moving image viewing and sadness moving image viewing in the experiment shown in FIG. 17 performed using the emotion estimation apparatus which concerns on Embodiment 1. FIG. 実施形態1に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時のデータ処理結果(閾値をθe=0.5、θf=0、θp=0.6、加重設定をWf=0.3、We=1、Wp=1として加重和を計算)を示す図である。FIG. 17 shows a data processing result when viewing a pleasure video in the experiment shown in FIG. 17 performed using the emotion estimation apparatus according to the first embodiment (thresholds are θe = 0.5, θf = 0, θp = 0.6, weighting settings are Wf = 0.3, We = 1 and Wp = 1). 実施形態1に係る感情推定装置を用いて行った図17に示す実験において悲しみ動画視聴時のデータ処理結果(閾値をθe=0.5、θf=0、θp=0.6、加重設定をWf=0.3、We=1、Wp=1として加重和を計算)を示す図である。In the experiment shown in FIG. 17 performed using the emotion estimation apparatus according to the first embodiment, the data processing results when watching a sadness movie (thresholds are θe = 0.5, θf = 0, θp = 0.6, the weight setting is Wf = 0.3, We = 1 and Wp = 1). 実施形態1に係る感情推定装置を用いて行った図17に示す実験における恐怖動画(2つ目の恐怖コンテンツ)視聴時の2つのdNAT値(前頭部、後頭部)のZスコアの時間発展を示す図である。The time evolution of the Z score of two dNAT values (frontal and occipital) at the time of viewing the horror video (second horror content) in the experiment shown in FIG. 17 performed using the emotion estimation apparatus according to the first embodiment. FIG. 実施形態1に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時と悲しみ動画視聴時それぞれにおける2つのdNAT値(前頭部、後頭部)のZスコアの差分を示す図である。FIG. 18 is a diagram illustrating a difference between Z scores of two dNAT values (frontal and occipital) when viewing a pleasure video and watching a sadness video in the experiment illustrated in FIG. 17 performed using the emotion estimation apparatus according to the first embodiment. is there. 本発明の実施形態2に係る感情推定装置のデータ処理ブロック図である。It is a data processing block diagram of the emotion estimation apparatus which concerns on Embodiment 2 of this invention. 実施形態2に係る感情推定装置を用いて行った図17に示す実験における喜び動画視聴時のデータ処理結果(閾値θe=0.5、θf=0、θp=0.6)を示す図である。It is a figure which shows the data processing result (threshold (theta) e = 0.5, (theta) f = 0, (theta) p = 0.6) at the time of joy animation viewing in the experiment shown in FIG. 17 performed using the emotion estimation apparatus which concerns on Embodiment 2. FIG. 実施形態2に係る感情推定装置を用いて行った図17に示す実験における悲しみ動画視聴時のデータ処理結果(閾値θe=0.5、θf=0、θp=0.6)を示す図である。It is a figure which shows the data processing result (threshold value θe = 0.5, θf = 0, θp = 0.6) at the time of watching the sadness movie in the experiment shown in FIG. 17 performed using the emotion estimation apparatus according to the second embodiment. 本発明の実施形態3に係る感情推定装置のデータ処理ブロック図である。It is a data processing block diagram of the emotion estimation apparatus which concerns on Embodiment 3 of this invention. 実施形態3に係る感情推定装置を用いて行った喜び動画視聴時の2次元指標値表示を示す図である。It is a figure which shows the two-dimensional parameter | index value display at the time of the pleasure animation viewing performed using the emotion estimation apparatus which concerns on Embodiment 3. FIG. 実施形態3に係る感情推定装置を用いて行った悲しみ動画視聴時の2次元指標値表示を示す図である。It is a figure which shows the two-dimensional index value display at the time of the sadness moving image viewing performed using the emotion estimation apparatus which concerns on Embodiment 3. FIG.

これより図面を参照して、感情推定装置について説明する。装置構成及び原理について説明した後、各実施形態の説明を行う。   The emotion estimation apparatus will now be described with reference to the drawings. After describing the apparatus configuration and principle, each embodiment will be described.

[装置概要]
感情推定装置100は、図1に示すように、脳活動測定装置140と、眼球撮影装置(瞳孔径測定器)150と、表情測定用カメラ160と、これらと通信可能に接続されるコンピュータ110と、コンピュータ110に接続される入力装置(例えばマウス、キーボード)120及び出力装置(例えばディスプレイ)130とを含む。コンピュータ110は、処理部111、記憶部112、通信部113を備え、これらの各構成部はバス114によって接続され、またバス114を通して入力装置120及び出力装置130に接続される。脳活動測定装置140、眼球撮影装置150及び表情測定用カメラ160から得られる信号又はデータは、例えばI/Oポートを介してバス114に接続されたコンピュータ110の感情推定手段(脳電位情報処理手段、瞳孔径情報処理手段、及び顔画像情報処理手段)によって処理される。処理されたデータは、出力装置130に出力することができる。処理部111は、各部を制御するプロセッサを備えており、記憶部112をワーク領域として各種処理を行う。上記処理手段、演算等は記憶部112内に格納されたプログラムによって実行することができる。なお、瞳孔径測定器は眼球撮影装置150及び瞳孔径情報処理手段により実現され、表情測定器は表情測定用カメラ160及び顔画像情報処理手段により実現される。入力装置120によりユーザは設定値等を変更することができる。
[Device Overview]
As shown in FIG. 1, the emotion estimation device 100 includes a brain activity measurement device 140, an eyeball photographing device (pupil diameter measurement device) 150, a facial expression measurement camera 160, and a computer 110 that is communicably connected thereto. And an input device (for example, a mouse and a keyboard) 120 and an output device (for example, a display) 130 connected to the computer 110. The computer 110 includes a processing unit 111, a storage unit 112, and a communication unit 113, and these components are connected by a bus 114 and are connected to the input device 120 and the output device 130 through the bus 114. Signals or data obtained from the brain activity measuring device 140, the eyeball photographing device 150, and the facial expression measuring camera 160 are, for example, emotion estimation means (brain potential information processing means) of the computer 110 connected to the bus 114 via an I / O port. , Pupil diameter information processing means, and face image information processing means). The processed data can be output to the output device 130. The processing unit 111 includes a processor that controls each unit, and performs various processes using the storage unit 112 as a work area. The processing means, calculations, etc. can be executed by a program stored in the storage unit 112. The pupil diameter measuring device is realized by the eye photographing device 150 and the pupil diameter information processing means, and the facial expression measuring device is realized by the facial expression measuring camera 160 and the face image information processing means. The input device 120 allows the user to change setting values and the like.

[脳活動測定装置]
脳活動測定装置としては、特許4145344号や特許5118230号に記載の装置や学会誌(渡邉ゆり、小林洋平、武者利光、小杉幸夫、朝田隆、「脳波の時空間ゆらぎによる脳機能評価の一試み」第6回臨床脳電位研究会、2014)に記載の装置(例えば脳機能研究所製デジタル脳波計ESAM648)を使用することができる。使用する脳活動測定装置の例示をその原理とともに以下に説明する。
[Brain activity measuring device]
As a brain activity measuring device, the device described in Japanese Patent Nos. 4145344 and 5118230 and academic journals (Yuri Watanabe, Yohei Kobayashi, Toshimitsu Takeshi, Yukio Kosugi, Takashi Asada, “A trial of brain function evaluation based on temporal and spatial fluctuations of brain waves” The apparatus described in the 6th Clinical Brain Potential Study Group, 2014) (for example, a digital electroencephalograph ESAM648 manufactured by the Brain Function Laboratory) can be used. An example of a brain activity measuring device to be used will be described below together with its principle.

[脳活動測定装置A]
1つの例示としての脳活動測定装置200Aは、図2aに示すように、複数の電極(例えば21個前後の電極)201a〜201nと、電極201で測定された脳電位を増幅する増幅器202と、マルチプレクサ203と、アナログ/デジタル変換器(A/D変換器)204と、入力(出力)インタフェースを含むコンピュータ110と、を有する。
[Brain activity measuring device A]
As shown in FIG. 2a, an exemplary brain activity measuring apparatus 200A includes a plurality of electrodes (for example, around 21 electrodes) 201a to 201n, an amplifier 202 that amplifies the brain potential measured by the electrodes 201, It has a multiplexer 203, an analog / digital converter (A / D converter) 204, and a computer 110 including an input (output) interface.

複数の電極は、例えば21個前後の電極からなり、頭部に装着されて脳機能活動に基づく脳電位を測定するが、予めこれらの21個前後の電極を配置したキャップ又はヘルメットを頭部に装着して脳電位を測定するよう構成しても良い。勿論、キャップ又はヘルメット以外の手法であっても、脳機能活動に基づく脳電位を測定できるものであれば良い。なおこの場合の電極は、国際10−20法(International 10-20 standard)又はこれに準じて決められた位置に配置するとともに、基準電位として、例えば右耳朶にも電極を装着する(図示せず)。電極201で測定された脳電位は増幅器202及びマルチプレクサ203を介してアナログ/デジタル変換器(A/D変換器)204に供給され、デジタル化された測定脳電位データは入力インタフェースを介してコンピュータ110に供給されるが、入力インタフェースでは測定脳電位データをそのまま通過させてもよいし、或いは予め指定した脳活動に起因する特定の周波数帯域(例えばアルファ波の周波数より広い所定の周波数帯域)を持つ成分のみをデジタル・フィルタリング処理を行ってから出力しても良い。   The plurality of electrodes are composed of, for example, about 21 electrodes, and are mounted on the head to measure brain potential based on brain functional activity. A cap or a helmet in which these about 21 electrodes are arranged in advance on the head. It may be configured to be worn and to measure brain potential. Of course, any method other than the cap or the helmet may be used as long as it can measure the brain potential based on the brain function activity. The electrode in this case is arranged at a position determined according to the International 10-20 standard (International 10-20 standard) or the same, and the electrode is also attached to the right earlobe as a reference potential (not shown). ). The brain potential measured by the electrode 201 is supplied to an analog / digital converter (A / D converter) 204 via an amplifier 202 and a multiplexer 203, and the digitized measured brain potential data is sent to a computer 110 via an input interface. However, at the input interface, the measured brain potential data may be passed as it is, or it has a specific frequency band (for example, a predetermined frequency band wider than the frequency of the alpha wave) due to the brain activity specified in advance. Only the components may be output after digital filtering.

本装置を用いた脳波計測及び処理方法が前述した特許公報に掲載されているが、本発明の1つの実施形態においては、β波帯域を測定する際に用いる。   An electroencephalogram measurement and processing method using this apparatus is described in the above-mentioned patent publication, but in one embodiment of the present invention, it is used when measuring a β-wave band.

β波帯域の測定をする際は前述した脳活動測定装置200Aを用いるが、これは主に喜びに伴う脳電位特徴量の抽出に用いる。本発明の1つの実施形態においては、任意の電極(本発明において好ましくはT3、T4、F7の3つの電極)より取得した脳電位データを所定の周波数で規格化し(例えば規格化する窓幅を4.7Hz〜18.7Hzとし、そのパワーを基準として17.2Hz〜31.3Hzの帯域のパワーを規格化)、規格化された脳電位データを用いて、Zスコアを算出する。好ましくは、T3、T4、F7のZスコア平均を脳波スコアとして算出する。ここで算出されたデータを用いて、後述するデータ処理を実施する。   When the β wave band is measured, the above-described brain activity measuring apparatus 200A is used, which is mainly used for extraction of brain potential feature amounts associated with pleasure. In one embodiment of the present invention, brain potential data acquired from any electrode (preferably three electrodes T3, T4, and F7 in the present invention) is normalized at a predetermined frequency (for example, the window width to be normalized is set). Z power is 4.7 Hz to 18.7 Hz, and the power in the band of 17.2 Hz to 31.3 Hz is normalized based on the power), and the Z score is calculated using the normalized brain potential data. Preferably, an average Z score of T3, T4, and F7 is calculated as an electroencephalogram score. Data processing described later is performed using the data calculated here.

ここでT3(他の電極についても同様)のZスコアの算出方法について記載する。まずT3を測定する前に被験者の安静開眼時のT3の規格化された脳電位データを(好ましくは10個以上)取得し、取得したデータから平均値(Xave)や標準偏差(Xsd)を算出する。この平均値や標準偏差を用いて、測定対象のT3の規格化された脳電位データ(X(t))のZスコアを算出する(Z(t)=(X(t)−Xave)/Xsd)。ここで算出したZスコアを脳波スコアとする。なおZスコア算出に必要な平均値等を算出するのに必要なデータの個数は、安静開眼時に取得できるデータ数によって変わることがあることを理解されたい。   Here, a method for calculating the Z score of T3 (same for other electrodes) will be described. First, before T3 is measured, T3 normalized brain potential data (preferably 10 or more) when the subject's eyes are at rest is acquired, and an average value (Xave) or standard deviation (Xsd) is calculated from the acquired data. To do. Using this average value and standard deviation, the Z score of the normalized brain potential data (X (t)) of T3 to be measured is calculated (Z (t) = (X (t) −Xave) / Xsd ). The Z score calculated here is used as an electroencephalogram score. It should be understood that the number of data necessary for calculating the average value and the like necessary for calculating the Z score may vary depending on the number of data that can be acquired when the eyes are at rest.

Zスコア算出方法
Zスコア算出の1つの例示を以下に記載する。具体的にはチャンネルごとに帯域内の総パワーをTi (iはチャンネル番号)とすると、
(式1)
として計算され(kとlはパワースペクトルの周波数binでk<lとする任意の値)、この総パワーによるパワーレシオ
(式2)
がまず計算される。次に各周波数binごとに以下のようにチャンネル間の平均を引き、以下のSi,jをNAT状態量として定義した。
(式3)
qi∈0,1は該当するチャンネルを使用する場合は1に使用しない場合は0となり、通常の21ch計測ではすべて1となっている。Si,jは本装置ではリアルタイムに計測されるため、時間をtとするとSi,j (t)表現され、安静時における時間平均と標準偏差を
(式4)
(式5)
として計算しコントロールとする。特定タスク内でのSi,j (t)をZスコアとして統計的に表現する。
(式6)
Z score calculation method One example of Z score calculation is described below. Specifically, if the total power in the band for each channel is T i (i is the channel number),
(Formula 1)
(K and l are power bins of the power spectrum, any value with k <l), and the power ratio by this total power
(Formula 2)
Is first calculated. Next, the average between channels was subtracted for each frequency bin as follows, and the following S i, j was defined as a NAT state quantity.
(Formula 3)
q i ∈ 0,1 is 1 when the corresponding channel is used and 0 when it is not used, and is 1 in normal 21ch measurement. Since S i, j is measured in real time with this device, if time is t, then S i, j (t) is expressed, and the time average and standard deviation at rest are expressed.
(Formula 4)
(Formula 5)
Calculate as the control. S i, j (t) in a specific task is statistically expressed as a Z score.
(Formula 6)

[脳活動測定装置B]
他の例示としての脳活動測定装置200Bは、図2bに示すように、3つの電極211を有する頭部装着部210と、当該3つの電極211と信号ケーブルで接続された3ch増幅器・帯域フィルタ220と、当該3ch増幅器・帯域フィルタ220と信号ケーブルで接続されたコンピュータ110と、を有する。さらに脳活動測定装置200Bは、基準電位測定用の基準電極212をさらに有する。基準電極212は不感電極として使用され、好ましくは耳朶接続用クリップ電極である。基準電極212は、3ch増幅器・帯域フィルタ220に接続される。頭部装着部210は、固定具213によって3つの電極211が固定される。固定具213は、例えばヘルメットから切り出したブーメラン状プラスティック製の固定具である。また頭部装着部210は、図3に示すような国際10−20法の電極配置にFpz(Fp1、Fp2の中間点として定義)、Oz(O1、O2の中間点として定義)の2電極を追加した電極のうちの3つの電極位置に各電極が配置されるように、被験者へ装着する。例えば図3に示すように、後頭部のP3、P4、Ozの位置に3つの電極が配置されるように被験者へ装着することができる。あるいは頭部装着部210は、国際10-20法に基づくヘルメット型電極を用いて、選択的に3つの電極を使用することもできる。電極211は、好ましくは生理食塩水を含んだ多孔質ファイバー電極であり、電極上部は導線接続用金属円筒で構成される。
[Brain activity measuring device B]
As shown in FIG. 2b, another exemplary brain activity measuring apparatus 200B includes a head-mounted unit 210 having three electrodes 211, and a 3ch amplifier / band filter 220 connected to the three electrodes 211 via a signal cable. And the computer 110 connected to the 3ch amplifier / band filter 220 and a signal cable. Furthermore, the brain activity measuring apparatus 200B further includes a reference electrode 212 for measuring a reference potential. The reference electrode 212 is used as a dead electrode, and is preferably a clip electrode for connecting the earlobe. The reference electrode 212 is connected to the 3ch amplifier / band filter 220. In the head mounting part 210, the three electrodes 211 are fixed by a fixing tool 213. The fixture 213 is, for example, a boomerang-shaped plastic fixture cut out from a helmet. Further, the head mounting part 210 has two electrodes of Fpz (defined as an intermediate point between Fp1 and Fp2) and Oz (defined as an intermediate point between O1 and O2) in the electrode arrangement of the international 10-20 method as shown in FIG. A test subject is mounted | worn with so that each electrode may be arrange | positioned at three electrode positions of the added electrode. For example, as shown in FIG. 3, the subject can be worn so that three electrodes are arranged at positions P3, P4, and Oz on the back of the head. Alternatively, the head mounting part 210 can selectively use three electrodes using a helmet-type electrode based on the International 10-20 method. The electrode 211 is preferably a porous fiber electrode containing physiological saline, and the upper part of the electrode is composed of a conductive wire connecting metal cylinder.

他の例示として、頭部装着部は帽子装着型であってもよい。図2cにその帽子装着型電極の外観概要図を、図2dに基準電極としての導電性ゴム電極の概要図を示す。頭部装着部210は、メッシュ状帽子に測定用の電極211が3つ取り付けられたものである。電極211はプリアンプ214と接続されたシールドケーブル215と接続され、好ましくは食塩水を含んだ多孔質導電性ゴムが使用される。なおプリアンプ214は、3ch増幅器・帯域フィルタ220の増幅器の機能を有するものであり、帯域フィルタを経由してコンピュータに接続される。基準電極212は、プリアンプと電気的に接続された導電性ゴム電極216であり、これによって耳朶接続用クリップ電極は不要となる。ここで、導電性ゴム状の電位均一化と、プリアンプ214からのケーブル接続の際の接触抵抗の低減を図るため、円周状の導電性ゴム電極と帽子の間には金属フィルム217が設置される。   As another example, the head mounting part may be a hat mounting type. FIG. 2c shows a schematic diagram of the outer appearance of the cap-mounted electrode, and FIG. 2d shows a schematic diagram of a conductive rubber electrode as a reference electrode. The head mounting portion 210 is obtained by attaching three measurement electrodes 211 to a mesh hat. The electrode 211 is connected to a shielded cable 215 connected to the preamplifier 214, and a porous conductive rubber containing saline is preferably used. The preamplifier 214 has a function of an amplifier of the 3ch amplifier / band filter 220 and is connected to the computer via the band filter. The reference electrode 212 is a conductive rubber electrode 216 that is electrically connected to the preamplifier, thereby eliminating the need for an earlobe connection clip electrode. Here, a metal film 217 is installed between the circumferential conductive rubber electrode and the cap in order to equalize the potential of the conductive rubber and reduce the contact resistance when the cable from the preamplifier 214 is connected. The

他の例示として、測定用の3つの電極及び基準電極は無線通信機能を有し、同様に無線通信機能を有するコンピュータ110へ、測定用の電極211(3つ)と基準電極212から得られる脳電位信号の差分を3つの脳電位信号として、無線で送信するように構成することもできる。基準電極212は、測定用の3つの電極211の中央に配置されるのが好適である。また、測定用の3つの電極211及び基準電極212の電位信号の合計4つをコンピュータへ送信し、コンピュータにおいて測定用の電極211と基準電極212の差分を計算し、3つの脳電位信号の入力としてもよい。   As another example, the three electrodes for measurement and the reference electrode have a wireless communication function, and similarly, the brain obtained from the measurement electrodes 211 (three) and the reference electrode 212 to the computer 110 having the wireless communication function. A difference between the potential signals can be transmitted wirelessly as three brain potential signals. The reference electrode 212 is preferably disposed at the center of the three electrodes 211 for measurement. Also, a total of four potential signals of the three electrodes 211 for measurement and the reference electrode 212 are transmitted to the computer, the difference between the measurement electrode 211 and the reference electrode 212 is calculated in the computer, and three brain potential signals are input. It is good.

上記の例示は3つの電極1セット使用する構成であるが、本発明の1つの実施形態においてはδ波帯域を測定するのに当該3つの電極を2セット(前頭部、後頭部)用いる。   In the above example, one set of three electrodes is used. In one embodiment of the present invention, two sets of the three electrodes (frontal and occipital) are used to measure the δ wave band.

δ波帯域の測定をする際は前述した脳活動測定装置Bを用いるが、これは主に恐怖、悲しみに伴う脳電位特徴量の抽出に用いる。本発明の1つの実施形態においては、前頭部(F3、F4、Cz)、後頭部(P3、P4、Oz)から、δ波帯域(2〜4Hz)を抽出した脳電位信号を取得して算出したdNAT値を用いてdNAT値のZスコアを算出する。この算出されたZスコアを脳波スコアとして算出する。ここで算出されたデータを用いて、後述するデータ処理を実施する。ここで測定対象のdNAT値のZスコアの算出方法について記載する。まず測定対象のdNAT値を測定する前に被験者の安静開眼時のdNAT値を(好ましくは10個以上)取得し、取得したデータから平均値や標準偏差を算出する。この平均値や標準偏差を用いて、測定対象のdNAT値のZスコアを算出する。なおdNAT値は10秒ごとに1個算出される値である。続いて脳活動測定装置Bの測定原理、dNAT値算出方法について説明する。   When measuring the δ wave band, the above-described brain activity measuring device B is used, which is mainly used for extraction of brain potential features associated with fear and sadness. In one embodiment of the present invention, a brain potential signal obtained by extracting a δ wave band (2 to 4 Hz) from the frontal region (F3, F4, Cz) and the occipital region (P3, P4, Oz) is obtained and calculated. The Z score of the dNAT value is calculated using the obtained dNAT value. The calculated Z score is calculated as an electroencephalogram score. Data processing described later is performed using the data calculated here. Here, a method for calculating the Z score of the dNAT value to be measured will be described. First, before measuring the dNAT value to be measured, dNAT values (preferably 10 or more) when the subject's eyes are at rest are acquired, and an average value and standard deviation are calculated from the acquired data. Using this average value and standard deviation, the Z score of the dNAT value to be measured is calculated. Note that one dNAT value is calculated every 10 seconds. Next, the measurement principle of the brain activity measurement apparatus B and the dNAT value calculation method will be described.

測定原理
脳活動測定装置200Bは、3つの電極を用いた脳活動測定によって、アルツハイマー型認知症を高い確率で識別することができる(実際にNL(健常者)とAD(アルツハイマー患者)において実験を行い、高い確率での識別を実現している)。この原理は次の通りである。
Measurement Principle The brain activity measuring apparatus 200B can identify Alzheimer type dementia with high probability by measuring brain activity using three electrodes (actually in NL (healthy person) and AD (Alzheimer patient) experiments). And achieves high probability of identification). The principle is as follows.

本測定装置においては、脳深部に等価ダイポール電源を仮定している。ここで、このダイポール電位活動を解析するための電位分布測定を、頭皮上に配置した3つの異なる場所に配置された電極に限定して行う場合を考える。脳深部に電源がある場合には、これら3つの電極で観測される電位波形には、強い位相関係が存在するという事実に基づいて、この位相関係を評価する。このようにして、脳深部に仮定した等価ダイポール電源の時間的な挙動を近似的に推定する。これは、地震波に例えれば、表層に震源を持つ地震波が観測地点ごとに大きく異なるのに比し、深部に震源を持つ地震波では、近い距離をおいて配置された地震計ではほぼ同じ振幅・位相のP波が観測されることと同等な現象である。   In this measuring apparatus, an equivalent dipole power source is assumed in the deep brain. Here, a case is considered where the potential distribution measurement for analyzing the dipole potential activity is limited to electrodes arranged at three different locations on the scalp. When there is a power supply in the deep brain, this phase relationship is evaluated based on the fact that there is a strong phase relationship among the potential waveforms observed at these three electrodes. In this way, the temporal behavior of the equivalent dipole power source assumed in the deep brain is approximately estimated. Compared to seismic waves, the seismic waves with epicenters on the surface layer vary greatly from observation point to observation point. For seismic waves with deep epicenters, seismometers placed at close distances have almost the same amplitude and phase. This phenomenon is equivalent to the observation of the P wave.

脳活動測定装置Bでは、脳深部の活動に基づいて表面に現れる電位波形は近い距離離れた表面においてはほぼ同位相であることから、3つの電位の符号が同一であるデータのみを加算する方式を定義する。すなわち同一符号のデータのみを演算の対象とすることで、相関を有するデータを抽出することができる。ただし、すべてのデータを演算の対象とすることもできる。   In the brain activity measuring apparatus B, the potential waveform appearing on the surface based on the activity in the deep brain is almost in phase on the surface at a short distance, so only the data with the same sign of the three potentials is added. Define In other words, correlation data can be extracted by using only data with the same code as a calculation target. However, all data can also be the target of calculation.

具体的な情報処理としては、まず3つの電位信号が入力されると、3つの電位が同符号の信号を選択する。電位の符号を判定する際の基準電位は、例えば皮質活動を直接反映しない耳朶が用いられうるが、増幅器の帯域フィルタで直流分は遮断されるので、実質的には、各々の電極ごとの時間平均から見た正負の符号を判定することになる。なお基準電位の取り方はこれらに限定されず、導電性ゴム電極も使用することができる。さらには、無線通信機能を有する測定用の3つの電極から得られる脳電位信号と、当該3つの電極の中央に配置される基準電極から得られる脳電位信号の差分を、3つの脳電位信号として無線で送信する構成とすることもできる。この場合は、コンピュータが帯域フィルタの機能を有する。   As specific information processing, first, when three potential signals are inputted, signals having the same sign as the three potentials are selected. For example, an earlobe that does not directly reflect cortical activity can be used as the reference potential for determining the sign of the potential. However, since the direct current component is blocked by the bandpass filter of the amplifier, the time for each electrode is substantially reduced. The sign from the average is determined. In addition, how to take a reference potential is not limited to these, A conductive rubber electrode can also be used. Furthermore, a difference between a brain potential signal obtained from three electrodes for measurement having a wireless communication function and a brain potential signal obtained from a reference electrode arranged at the center of the three electrodes is used as three brain potential signals. It can also be set as the structure transmitted by radio | wireless. In this case, the computer has a band filter function.

続いて3重相関値を算出する。3重相関値は、3つの電極からの低周波帯域の電位信号をそれぞれEVA(t)、EVB(t)、EVC(t)としたとき、1つの電極の電位信号に対し、τ1、τ2の時間ずれのある信号との積を使用する。以下に示す式7は3重相関値Stの1つの例示である。Tは3重相関値の演算対象時間であり、Δtは各電位信号のデータサンプリング周期であり、Nは規格化するための定数であって、例えば3つの信号の積の計算回数である。

(式7)
算出された3重相関値を用いて所定の演算を行うことにより指標を算出し、当該指標により、認知症患者などの識別判定を行うことができる。
Subsequently, a triple correlation value is calculated. The triple correlation value is expressed as τ1 and τ2 with respect to the potential signal of one electrode when the low frequency band potential signals from the three electrodes are respectively EVA (t), EVB (t), and EVC (t). Use product with time-shifted signal. Equation 7 shown below is an example of the triple correlation value St. T is a calculation target time of the triple correlation value, Δt is a data sampling period of each potential signal, N is a constant for normalization, and is, for example, the number of calculations of a product of three signals.

(Formula 7)
An index is calculated by performing a predetermined calculation using the calculated triple correlation value, and identification determination of a dementia patient or the like can be performed using the index.

上述の演算で得られる遅延パラメータ空間上の3重相関プロットが、脳深部の等価ダイポール電源の挙動とどのような関係にあるかを、均一媒質からなる球状モデルを用いて説明する。以下では、説明の都合上、球モデル各部の呼称を地球になぞらえ、北極(NP)南極(SP)、赤道等と記載する。   The relationship between the triple correlation plot in the delay parameter space obtained by the above calculation and the behavior of the equivalent dipole power supply in the deep brain will be described using a spherical model made of a uniform medium. In the following, for convenience of explanation, the names of each part of the sphere model are compared to the earth and described as the North Pole (NP), the South Pole (SP), the equator, and the like.

脳深部の活動は、等価的に、深部に微小電流源があるように、脳の表面上で観測されることから、球の中心部に、南極から北極に向かう方向に微小電流源を仮定する。この電流源が球表面上につくる電位分布は、図4aに示すように、北半球では+、南半球では−、赤道上ではゼロ電位となる。また、この電流源は、赤道上180度経度の異なる点P1、P2と、NP、SPを含む面内で、周期T秒で時計方向に回転する。回転角度90度ごとに各時点での球表面電位分布は、図4b、図4c、図4dのように逐次変化する。この電位変化を球の表面上に、面P1、NP、P2、SPに平行な三角形の頂点に、3つの電極A、B、Cを配置する。各電極から測定された電位波形は、式7により相関値が計算され、計算結果が図5の遅延パラメータ空間上にプロットされる。   Since the activity of the deep brain is equivalently observed on the surface of the brain so that there is a minute current source in the deep part, the minute current source is assumed in the direction from the south pole to the north pole in the center of the sphere. . The potential distribution produced by the current source on the sphere surface is + in the northern hemisphere,-in the southern hemisphere, and zero on the equator, as shown in FIG. 4a. In addition, this current source rotates clockwise in a period T seconds within a plane including points P1 and P2 having different longitudes of 180 degrees on the equator and NP and SP. The spherical surface potential distribution at each time point changes every 90 degrees of rotation angle as shown in FIGS. 4b, 4c, and 4d. Three electrodes A, B, and C are arranged on the vertices of triangles parallel to the planes P1, NP, P2, and SP on the surface of the sphere. For the potential waveform measured from each electrode, the correlation value is calculated by Equation 7, and the calculation result is plotted on the delay parameter space of FIG.

A、B、Cの各電極の電位の時間発展は図4eのグラフのようになり、各電極は位相差1/3Tの関係で周期Tの正弦波で変化をする。電極Aを基準にみるとこれらの電極の符号が最も一致するτ1、τ2の値はそれぞれ1/3+kと2/3+k(kは整数)であり、結果として図5における縦横方向に黒丸のプロットで示されるような、周期Tでピークを持つ特性が得られる。またこれらのピークからいずれかの電極が半周期ずれるような位置は、1つの電極が必ず他の2つの電極と逆位相になるため電極の符号が一致することはない。そのため白丸のプロットで示されるような位置は値がプロットされない。The time evolution of the potentials of the electrodes A, B, and C is as shown in the graph of FIG. 4e, and each electrode changes with a sine wave having a period T in a relationship of a phase difference 1 / 3T. When the electrode A is taken as a reference, the values of τ 1 and τ 2 with which the signs of these electrodes are the same are 1/3 + k and 2/3 + k (k is an integer), respectively. A characteristic having a peak at the period T as shown in the plot is obtained. In addition, the position where one of the electrodes deviates from the peak by a half cycle does not match the sign of the electrode because one electrode always has the opposite phase to the other two electrodes. For this reason, values are not plotted at positions indicated by white circles.

上述のように、脳深部の等価ダイポール電源の回転を2次元の遅延パラメータ空間上のプロットとして観測することができる。   As described above, the rotation of the equivalent dipole power supply in the deep brain can be observed as a plot on the two-dimensional delay parameter space.

以上では、単一の等価ダイポール電源が球状の脳深部で滑らかに回転した場合について記載しているが、ダイポールが複数ある場合や、回転が滑らかでない場合には、図5上のプロットは、同符号条件を満たす個々のケースが複雑に分布し、遅延パラメータ空間上に細かい凹凸となって現れる。   The above describes the case where a single equivalent dipole power supply rotates smoothly in the spherical deep brain, but when there are multiple dipoles or when the rotation is not smooth, the plot in FIG. Individual cases satisfying the code condition are distributed in a complicated manner and appear as fine irregularities on the delay parameter space.

dNAT値算出方法
以下に認知症による脳機能の低下についての定量的な評価をするための3重相関値の算出方法について説明するとともに、dNAT値算出方法について説明する。
dNAT Value Calculation Method A triple correlation value calculation method for quantitatively evaluating a decrease in brain function due to dementia will be described below, and a dNAT value calculation method will be described.

ここではまず認知症による脳機能の低下を定量的な評価を目的とし、特に3電極から得られる脳電位の空間的ゆらぎを評価する。図6に示すように、3つの電極EA601、EB602、EC603が三角形の各頂点部分に配置され、別途設置される基準電極と、各電極との差として、電位信号VA(t)、VB(t)、VC(t)が計測される。各電位信号は、脳電位信号の3重相関評価装置によって処理される。図7は3重相関評価装置700の処理ブロックを示す図であり、3ch増幅器・帯域フィルタとコンピュータによって実現される。図7に示すように、脳電位増幅器701によって増幅された信号はBPF702によって、特定の周波数帯の脳電位波形が抽出される。   Here, for the purpose of quantitative evaluation of a decrease in brain function due to dementia, the spatial fluctuation of brain potential obtained from three electrodes is evaluated. As shown in FIG. 6, three electrodes EA601, EB602, and EC603 are arranged at the apexes of the triangle, and potential signals VA (t), VB (t ), VC (t) is measured. Each potential signal is processed by a triple correlation evaluation apparatus for brain potential signals. FIG. 7 is a diagram showing processing blocks of the triple correlation evaluation apparatus 700, which is realized by a 3ch amplifier / bandpass filter and a computer. As shown in FIG. 7, a brain potential waveform in a specific frequency band is extracted from the signal amplified by the brain potential amplifier 701 by the BPF 702.

次に、これら3つの信号による3重相関値Sの算出方法について示す。抽出された信号は3重相関値算出部によって、図8のフローチャートに示すように処理される。図8は、i秒からi+1秒における3重相関値Si(i=1、2、…、T)を算出する処理のフローチャートを示す。なお、ここで実施される処理は、趣旨を逸脱しない範囲において変更することができる。   Next, a method for calculating the triple correlation value S using these three signals will be described. The extracted signal is processed by the triple correlation value calculator as shown in the flowchart of FIG. FIG. 8 shows a flowchart of processing for calculating the triple correlation value Si (i = 1, 2,..., T) from i seconds to i + 1 seconds. In addition, the process implemented here can be changed in the range which does not deviate from the meaning.

前述の通り3つの信号が入力されるとサンプリング周期でデータが抽出され(S801)、それぞれの電極の電位ごとに標準偏差(σA、σB、σC)で割って規格化(EVA(t) =VA(t)/σA、EVB(t) =VB(t)/σB、EVC(t) =VC(t)/σC)される(S702)。この規格化処理は1秒ごとに行うのが好ましいが、これに限定されない。As described above, when three signals are input, data is extracted at the sampling period (S801), and is normalized by dividing by the standard deviation (σ A, σ B, σ C ) for each electrode potential (EVA (t ) = VA (t) / σ A , EVB (t) = VB (t) / σ B , EVC (t) = VC (t) / σ C ) (S702). This normalization process is preferably performed every second, but is not limited thereto.

なおバンドパスフィルタによる周波数抽出処理は、規格化処理の前後いずれかに行われる。また規格化処理の前には、ノイズ処理を行うのが好ましい。ノイズ処理は、例えば、1)±100μV以上のセグメントを除く、2)フラットな電位(25msec以上一定の電位だった場合)を除く、3)±1μV以内の電位が1秒以上続く場合は除く、という処理から構成される。   The frequency extraction process by the band pass filter is performed either before or after the normalization process. Moreover, it is preferable to perform noise processing before the normalization processing. Noise processing, for example, 1) Excluding segments of ± 100 μV or more 2) Excluding flat potentials (when the potential is constant for 25 msec or more) 3) Excluding cases where a potential within ± 1 μV continues for 1 second or more, It consists of the process.

ここで、上記3つの信号は、電極EAに対し、電極EBはτ1、電極ECはτ2の時間のずれがあるものとする。続いて、3つの信号の符号がすべて正(EVA(t)>0、EVB(t-τ1)>0、EVC(t-τ2)>0)、又はすべて負(EVA(t)<0、EVB(t-τ1)<0、EVC(t-τ2)<0)の信号のみを計算対象とする処理をする(S803)。以下の式8に示すように、3重相関値は時間ずれのある、3つの電位信号の積を加算することで求められる(S804)。この処理は、tがt=i+1秒となるまでΔt秒ずつずらして行われる(S806,S807)。なお図8ではt=i秒からi+1秒における3重相関値Siを算出していることからも分かる通り、全データ(T秒)について一度に計算するのではなく、所定時間ごとに、例えば1秒ごとに、3重相関値Siを求めT個の3重相関値の平均値を最終的には3重相関値とし、時間ずれτ1、τ2も1秒の中でΔt秒ずつずらして3重相関値を算出する。例えば、電位データサンプリング周波数をfs(Hz)とすると、fs=200Hzの場合はΔt=1/fs=0.005秒ずつずらして、3つの電位信号の積を算出する。また、1秒ごとに3つの信号が正または負になった時の回数Nを求め(S805)、最後に割る(S808)。式8に1秒ごとの、3重相関値Siの計算式を示す。

(式8)
(i=1、2、…、T、τ1=Δt、2Δt、…、1(秒)、τ2=Δt、2Δt、…、1(秒))
Here, the three signals, to electrode E A, electrode E B is .tau.1, electrode E C is assumed to be the time shift of .tau.2. Subsequently, the signs of the three signals are all positive (EVA (t)> 0, EVB (t-τ1)> 0, EVC (t-τ2)> 0), or all negative (EVA (t) <0, EVB Only the signal of (t−τ1) <0 and EVC (t−τ2) <0) is processed (S803). As shown in Equation 8 below, the triple correlation value is obtained by adding the products of three potential signals having a time lag (S804). This process is performed by shifting by Δt seconds until t becomes t = i + 1 seconds (S806, S807). In FIG. 8, as can be seen from the fact that the triple correlation value Si from t = i seconds to i + 1 seconds is calculated, it is not calculated for all data (T seconds) at once, but at a predetermined time, for example, 1 The triple correlation value Si is obtained every second, and the average value of the T triple correlation values is finally set as the triple correlation value, and the time shifts τ1 and τ2 are also shifted by Δt seconds within one second and tripled. A correlation value is calculated. For example, assuming that the potential data sampling frequency is fs (Hz), when fs = 200 Hz, Δt = 1 / fs = 0.005 seconds and the product of three potential signals is calculated. Further, the number N of times when three signals become positive or negative every second is obtained (S805), and finally divided (S808). Formula 8 shows a formula for calculating the triple correlation value Si every second.

(Formula 8)
(I = 1, 2,..., T, τ1 = Δt, 2Δt,..., 1 (second), τ2 = Δt, 2Δt,..., 1 (second))

このようにして、1秒ごとにSiを全データT秒まで計算する(S1、S2、・・・、ST)。T(秒)は好ましくは10(秒)である。ただしSiは1秒ごとに算出されることに限定されない。τ1及びτ2の取りうる値はサンプリング周期の整数倍に等しい1秒以下の時間であるが、これらの値の大きさの最大値は1秒に限定されない。またサンプリング周期は0.005秒に限定されない。なお3重相関値は、3つの信号の符号判定を行わずに、式8によって算出することもできる。In this way, Si is calculated every second up to the total data T seconds (S 1 , S 2 ,..., S T ). T (seconds) is preferably 10 (seconds). However, Si is not limited to being calculated every second. The possible values of τ1 and τ2 are times equal to or less than 1 second equal to an integral multiple of the sampling period, but the maximum value of these values is not limited to 1 second. The sampling period is not limited to 0.005 seconds. The triple correlation value can also be calculated by Equation 8 without performing the code determination of the three signals.

この結果は、図9に示すように3重相関表示部によって2つの遅延パラメータ(τ1、τ2)が形成する特徴空間上にプロットすることで、2つの遅延パラメータ(τ1、τ2)が形成する特徴空間上にプロットされた3重相関値分布の疑似3次元表示をすることができる。図10は、健常者脳電位波形の3重相関値分布の疑似3次元表示を示すものであるが、相関を有しないデータの影響を排除するため、予め定められたtの値、例えばt=i+1、においてEVA(t)、EVB(t−τ1)及びEVC(t−τ2)のすべてが同符号であったSi(τ1,τ2)のみをプロットしたものである。プロットするSiをこのように限定することにより、ノイズを除去し、より良い精度で3重相関値分布の疑似3次元表示を示すことができる。   The results are plotted on the feature space formed by the two delay parameters (τ1, τ2) by the triple correlation display unit as shown in FIG. 9, and thereby the characteristics formed by the two delay parameters (τ1, τ2). A pseudo three-dimensional display of the triple correlation value distribution plotted on the space can be performed. FIG. 10 shows a pseudo three-dimensional display of a triple correlation value distribution of a brain potential waveform of a healthy person. In order to eliminate the influence of data having no correlation, a predetermined value of t, for example, t = In i + 1, only Si (τ1, τ2) in which EVA (t), EVB (t-τ1), and EVC (t-τ2) have the same sign is plotted. By limiting the Si to be plotted in this way, noise can be removed and a pseudo three-dimensional display of the triple correlation value distribution can be shown with better accuracy.

図10に示すように、健常者後頭部から観測される脳電位波形については、特徴空間内の3重相関分布は滑らかで、この分布は観測時刻の推移とともに移動する。これに対して、アルツハイマー病患者から観測される脳電位波形を図11に示す。3重相関値の分布は、細かいピークが複雑に分布する場合が多いが、この場合も観測時刻の推移とともに分布自体が移動する。両図を比較して、健常者とアルツハイマー病患者の3重相関値分布の大きな違いは、分布の滑らかさにあることがわかる。   As shown in FIG. 10, for the brain potential waveform observed from the back of the healthy subject, the triple correlation distribution in the feature space is smooth, and this distribution moves with the transition of the observation time. On the other hand, the brain potential waveform observed from an Alzheimer's disease patient is shown in FIG. In the triple correlation value distribution, fine peaks are often distributed in a complex manner, but in this case as well, the distribution itself moves as the observation time changes. Comparing the two figures, it can be seen that the large difference in the triple correlation value distribution between the healthy subject and the Alzheimer's disease patient is the smoothness of the distribution.

上記のように算出された3重相関値を用いて、認知症による脳機能の低下について定量的な評価をするための指標を算出する。図10及び図11で示したように、2つの遅延時間パラメータ空間内で、健常者のデータでは、樹木状の分布が規則的に並ぶのに対し、アルツハイマー病患者のデータでは、樹木状の分布の不規則性が大である。この差を定量的に表現するために、図12aに示すように、樹木の列がτ1、τ2軸に平行となるように、座標軸を回転する。図12aは健常者の例であるが、図10に示すような3次元表示の図を上から見た図で、3つの波形が同符号をとる領域を白で表示し、3信号のどれか1つ符号が異なる領域を黒で表す。このような表示をすると、健常者の場合には規則的な格子縞となるのに対して、アルツハイマー病患者のデータでは、図12bに示すように、格子縞が乱れることが分かった。そこで、この乱れを定量化するために、以下の指標を定義する。   Using the triple correlation value calculated as described above, an index for quantitatively evaluating a decrease in brain function due to dementia is calculated. As shown in FIG. 10 and FIG. 11, the tree-like distribution is regularly arranged in the data of the healthy subject within the two delay time parameter spaces, whereas the tree-like distribution is arranged in the data of the Alzheimer's disease patient. The irregularity of is large. In order to express this difference quantitatively, as shown in FIG. 12a, the coordinate axes are rotated so that the tree rows are parallel to the τ1 and τ2 axes. FIG. 12a is an example of a healthy person, and a three-dimensional display diagram as shown in FIG. 10 is viewed from above. A region where three waveforms have the same sign is displayed in white, and one of the three signals is displayed. One area with a different code is represented in black. When such a display is made, it becomes clear that the checkered pattern is disordered in the data of the Alzheimer's disease patient as shown in FIG. Therefore, in order to quantify this disturbance, the following index is defined.

図12a、図12bに示すように白い四角形の領域は、隣接する白い四角形の領域と、縦横方向にそれぞれ間隔を有する。その間隔を図12cに示すように、dxi(i=1,2、…、m)、dyj(j=1,2、…、n)とする。このdxiとdyjがτ1方向とτ2方向において、それぞれ白い四角形の縦横が均等に並んでいるか、あるいは白い四角形が乱れて並んでいるかを判断することで健常者(NL)とアルツハイマー病患者(AD)を分離することができる。ADにおいては、τ1、τ2のどちらかのばらつきが偏って大きい傾向がある。なお、NLであってもADであっても、縦横の四角形は規則的に並んでいる為、τ1、τ2ともに任意の時間における、隣接する白い四角形間の距離で評価を行うことができる。具体的には式9、式10に示すように、m個のdxiの標準偏差Std_dxとn個のdyjの標準偏差Std_dyを算出し、2つの標準偏差の平均値を指標値SDとする。
(式9)
(式10)
(式11)
As shown in FIGS. 12a and 12b, the white rectangular areas are spaced apart from the adjacent white rectangular areas in the vertical and horizontal directions. The intervals are dxi (i = 1, 2,..., M) and dyj (j = 1, 2,..., N) as shown in FIG. By determining whether the dxi and dyj are in the τ1 direction and the τ2 direction, the vertical and horizontal directions of the white squares are evenly arranged, or the white squares are disturbed, the normal person (NL) and the Alzheimer's disease patient (AD) Can be separated. In AD, the variation of either τ1 or τ2 tends to be biased and large. It should be noted that, regardless of whether it is NL or AD, the vertical and horizontal squares are regularly arranged, so that both τ1 and τ2 can be evaluated by the distance between adjacent white squares at an arbitrary time. Specifically, as shown in Expression 9 and Expression 10, m dxi standard deviations Std_dx and n dyj standard deviations Std_dy are calculated, and an average value of the two standard deviations is set as an index value SD.
(Formula 9)
(Formula 10)
(Formula 11)

上記の指標SDは、dNAT値の1つの例示である。なお指標SDを用いて、健常者(NL)52例とアルツハイマー病患者(AD)20例を分離した場合の判別結果から得られた感度特異度曲線によれば、本指標は、NLとADの交点において、68%の識別率を示すことが判明している。   The index SD is an example of a dNAT value. In addition, according to the sensitivity specificity curve obtained from the discrimination result when 52 healthy subjects (NL) and 20 Alzheimer's disease patients (AD) were separated using the index SD, this index is calculated based on the NL and AD. It has been found that at the intersection, it shows a recognition rate of 68%.

また3重相関値の値は、アルツハイマー患者は健常者に比べ、τ1、τ2に対し、変動が激しい。また、式8で算出された1秒ごとの3重相関値の変動も、アルツハイマー病患者の方が健常者よりも変動が激しい。そこで、式8の標準偏差をstd_Siとし、i=1、2、…、10までの10個の標準偏差を算出した。さらに、この10個の標準偏差の標準偏差std_Sと10個の標準偏差の平均値ave_Sを算出し、標準偏差と平均値の比を指標Ssとした。
(式12)
(式13)
(式14)
(式15)
In addition, the triple correlation value of the Alzheimer patient is more fluctuating with respect to τ1 and τ2 than the healthy subject. In addition, the fluctuation of the triple correlation value calculated by Equation 8 per second is more severe in the Alzheimer's disease patient than in the healthy person. Therefore, the standard deviation of Equation 8 is set to std_Si, and 10 standard deviations up to i = 1, 2,. Further, the standard deviation std_S of the ten standard deviations and the average value ave_S of the ten standard deviations were calculated, and the ratio between the standard deviation and the average value was used as the index Ss.
(Formula 12)
(Formula 13)
(Formula 14)
(Formula 15)

上記の指標SDとSsを用いて、算出された指標d(d=0.375×Ss+SD1)は、dNAT値の1つの例示である。本指標をもとに、判別を行った際の感度特異度曲線は、高い確率の識別を示す。なお指標dを用いて、NL52例とAD20例を分離した場合の判別結果から得られた感度特異度曲線によれば、本指標は、NLとADの交点において65%の識別率を示すことが判明している。   The index d (d = 0.375 × Ss + SD1) calculated using the above-described indices SD and Ss is an example of the dNAT value. The sensitivity specificity curve when discrimination is performed based on this index shows high probability discrimination. In addition, according to the sensitivity specificity curve obtained from the discrimination result when 52 cases of NL and 20 cases of AD are separated using the index d, this index shows a discrimination rate of 65% at the intersection of NL and AD. It turns out.

[瞳孔径測定器]
瞳孔径測定器としては、特開2011−239891号や特許5445981号に記載の装置や学会誌(倉島渡、菊池光一、植田和利「瞳孔径反応と顔表情反応の融合による情感評価の新しい方法」、影像情報、Industrial、第43巻、第6号(通巻807号)2011年6月号)に記載の装置を使用することができる。使用する瞳孔径測定器の例示を、その原理とともに以下に説明する。
[Pupil diameter measuring instrument]
As a pupil diameter measuring device, a device or an academic journal described in Japanese Patent Application Laid-Open No. 2011-239891 and Japanese Patent No. 5445981, Watanabe Kurashima, Koichi Kikuchi, Kazutoshi Ueda ”, Image Information, Industrial, Vol. 43, No. 6 (Vol. 807, June 2011) can be used. An example of a pupil diameter measuring device to be used will be described below together with its principle.

デスクトップ型(ディスプレイ映像視認時の反応)
映像表示ディスプレイに映る影像を見て被験者の反応を計測する装置で、映像ディスプレイ装置の上に顔を撮影する表情測定用カメラ160を設置して被験者の顔を撮影する。同時にディスプレイの下にある目の位置を追尾する2つのカメラにより、三角測量の原理で目の位置を測定し、その結果により、赤外線照射により赤外線望遠レンズで被験者の目の視線方向と瞳孔径を計測する。
Desktop type (Reaction when viewing the display image)
An apparatus for measuring a subject's reaction by observing a shadow image displayed on a video display. A facial expression measuring camera 160 for photographing a face is installed on the video display apparatus to photograph the subject's face. At the same time, the position of the eye is measured by the principle of triangulation by two cameras that track the position of the eye under the display. As a result, the eye gaze direction and the pupil diameter of the subject are measured with an infrared telephoto lens by infrared irradiation. measure.

このタイプの装置としては、例えばナックイメージテクノロジー社製の「EMR−AT VOXER」を利用することができ、これは図13aのように、ディスプレイ画面を見て被験者の目の反応を計測する装置である。被験者に装置を装着することなく視線と瞳孔径を計測できるシステムで、左右のカメラ150aで顔の目を追尾して、被験者の目のありかを三角測量の原理で方向と距離を測っている。その方向と距離に従って、中央にあるカメラの望遠レンズ150bが瞳孔を正確に捉えてその直径を計測する。このとき、目が暗いと正確に計れないので、中央のカメラ150cの下から目に感じない赤外線を発射している。したがって、中央のカメラ150cは赤外線カメラである。瞳孔径測定器は、コンピュータ110及び表情測定用カメラ160と接続され、取得されたデータはコンピュータ110に格納することができる。   As this type of device, for example, “EMR-AT VOXER” manufactured by NAC Image Technology Co., Ltd. can be used. This is a device that measures the eye reaction of the subject by looking at the display screen as shown in FIG. is there. A system that can measure the line of sight and pupil diameter without wearing a device on the subject, and tracks the eyes of the face with the left and right cameras 150a to measure the direction and distance of the subject's eyes based on the principle of triangulation. . According to the direction and distance, the telephoto lens 150b of the camera in the center accurately captures the pupil and measures its diameter. At this time, since it cannot be accurately measured if the eyes are dark, infrared rays that are not felt by the eyes are emitted from under the central camera 150c. Therefore, the central camera 150c is an infrared camera. The pupil diameter measuring device is connected to the computer 110 and the facial expression measuring camera 160, and the acquired data can be stored in the computer 110.

ポータブル型(空間視認情景の反応)
このタイプの装置としては、例えばナックイメージテクノロジー社製の「EMR−9」を利用することができ、これは図13bのようにヘッドマウント式で、頭に装着したまま動きまわって、外の景色、室内の機器の配置などを見て、どこを注目して見ているかを計測する装置である。被験者の頭に装着する帽子タイプのヘッドマウント装置に、視認映像撮影カメラ(マイク付)150d、視線方向と瞳孔径を撮影するカメラ150eを装備し、視認映像、視線方向と瞳孔径を計測する。あわせて帽子のひさしの先端から顔を撮影する表情測定用カメラ160(図示せず)により顔を撮影する。常に頭に装着固定されているので、カメラと目の関係も固定されており、目の位置を測定・追尾する必要がない点だけが「EMR−AT VOXER」と異なる。なお取得されたデータは、無線通信を介してコンピュータ110に格納することができる。
Portable type (reaction of space-viewing scene)
As this type of device, for example, “EMR-9” manufactured by NAC Image Technology Co., Ltd. can be used. This is a head mounted type as shown in FIG. It is a device that measures where you are looking at by looking at the arrangement of equipment in the room. A hat-type head mount device to be worn on the subject's head is equipped with a visual image capturing camera (with a microphone) 150d and a camera 150e for capturing a visual line direction and a pupil diameter, and the visual image, the visual line direction, and the pupil diameter are measured. In addition, the face is photographed by a facial expression measuring camera 160 (not shown) that photographs the face from the tip of the eaves of the hat. Since it is always fixed on the head, the relationship between the camera and the eyes is also fixed, and only the point that there is no need to measure and track the position of the eyes is different from “EMR-AT VOXER”. The acquired data can be stored in the computer 110 via wireless communication.

瞳孔は、明るいものを見ると瞳孔径が小さくなり、暗いものを見ると瞳孔径が大きくなる。計測装置で計測した瞳孔径は、注目度とこの明暗反応とが混在している。そのため、明暗反応に相当する瞳孔径を削除する必要がある。また、瞳孔径とその拡大、縮小の大きさは個人により大きく異なる。   The pupil diameter decreases when a bright object is viewed, and the pupil diameter increases when a dark object is viewed. The pupil diameter measured by the measuring device is a mixture of attention and this light / dark reaction. Therefore, it is necessary to delete the pupil diameter corresponding to the light-dark reaction. Moreover, the pupil diameter and the size of the enlargement / reduction thereof vary greatly depending on the individual.

注目度算出方法
注目度算出の1つの例示を以下に記載する。屋内におけるディスプレイ影像視認時の注目度計測(「EMR−AT VOXER」)は、ディスプレイに段階的に変化する基本輝度画面を表示して、被験者の基本輝度における瞳孔径への影響を計測することで行う。
Attention level calculation method One example of attention level calculation is described below. Attention level measurement ("EMR-AT VOXER") when viewing a display image indoors displays a basic luminance screen that changes in steps on the display, and measures the influence of the basic luminance of the subject on the pupil diameter. Do.

ディスプレイに段階的に変化する基本輝度画面を表示して、被験者の基本輝度における瞳孔径を計測して事前登録しておく。被験者が視認対象を見ているときの、視認対象の輝度と瞳孔径(U)を計測し、登録済みの同じ輝度での基本輝度画面での瞳孔径(R)との差(U−R)を「注目度に相当する瞳孔径(P=U−R)」として計算している。さらに、個人差をなくして、同じ尺度で注目度を表示するため、注目度に相当する瞳孔径と、基本輝度画面での被験者の瞳孔径の最大変化値(Q=最暗時の瞳孔径(M)−最明時の瞳孔径(s))との比を、被験者の視認対象への注目度(Y)(瞳孔径変化、瞳孔径スコア)としている。すなわち、以下の式16で表すことができる。
(式16)
A basic luminance screen that changes stepwise is displayed on the display, and the pupil diameter at the basic luminance of the subject is measured and registered in advance. When the subject is looking at the visual target, the luminance of the visual target and the pupil diameter (U) are measured, and the difference (UR) from the pupil diameter (R) on the basic luminance screen with the same registered luminance Is calculated as “pupil diameter corresponding to the degree of attention (P = UR)”. Furthermore, in order to eliminate the individual difference and display the attention level on the same scale, the pupil diameter corresponding to the attention level and the maximum change value of the pupil diameter of the subject on the basic luminance screen (Q = pupil diameter at the darkest time ( M) —the ratio of the pupil diameter (s) at the time of the brightest is the degree of attention (Y) (pupil diameter change, pupil diameter score) of the subject to the visual recognition target. That is, it can be expressed by the following formula 16.
(Formula 16)

被験者が視認対象を見ているときの、視認対象の輝度の瞳孔径と登録済みの同じ輝度での基本輝度画面での瞳孔径との差が“0”の場合、注目度はないことになる。また、視認対象が基本輝度画面の輝度と同じ輝度画面でありながら、視認対象視認時の瞳孔径が登録済みの基本輝度画面視認時の瞳孔径より小さくなることもある。この場合は基本輝度画面を見ているときよりも退屈して視認対象を見ていることになり、注目度(Y)はマイナスになる。この注目度を用いて算出されたZスコアを瞳孔径スコアとして算出する。ここで算出されたデータを用いて、後述するデータ処理を実施する。   When the subject is looking at the visual target, if the difference between the pupil diameter of the visual target and the pupil diameter on the basic luminance screen with the same registered luminance is “0”, there is no attention. . In addition, while the viewing target is the same brightness screen as the brightness of the basic brightness screen, the pupil diameter when viewing the viewing target may be smaller than the pupil diameter when viewing the registered basic brightness screen. In this case, the visual target is viewed more bored than when the basic luminance screen is viewed, and the degree of attention (Y) is negative. The Z score calculated using this attention level is calculated as the pupil diameter score. Data processing described later is performed using the data calculated here.

ちなみに今までの計測経験から、注目度Yにより、0.5>Y≧0であるときは「普通」、1>Y≧0.5であるときは「やや注目」、Y≧1であるときは「かなり注目」、Y<0であるときは「退屈」と判定している。また上記のとおり、注目度算出にあたっては視認対象の明るさ(例えば輝度)を計測する必要があるため、瞳孔径測定器は視認対象の輝度を計測する明るさ(輝度)計測装置(図示せず)を備えるか、又は感情測定装置の他の部分に明るさ(輝度)計測装置(図示せず)を備え、瞳孔径測定器は取得された輝度データを使用することができる。   By the way, according to the measurement experience so far, the degree of attention Y indicates “normal” when 0.5> Y ≧ 0, “slight attention” when 1> Y ≧ 0.5, and Y ≧ 1. Is determined to be “pretty attention”, and “Y bored” when Y <0. In addition, as described above, since it is necessary to measure the brightness (for example, luminance) of the visual recognition target when calculating the attention level, the pupil diameter measuring device is a brightness (luminance) measuring device (not shown) that measures the luminance of the visual recognition target. ) Or a brightness (luminance) measuring device (not shown) in another part of the emotion measuring device, and the pupil diameter measuring device can use the acquired luminance data.

なおオープン空間での視認対象への注目度計測(「EMR−9」)についても、ディスプレイ影像視認時の注目度計測と同じように、ある部屋での壁のスクリーンに黒から白に変化させて、被験者の「基本輝度―瞳孔径」データを計測しておき、上記と同様の処理を行うことで注目度(瞳孔径スコア)を算出する。   As for the attention level measurement ("EMR-9") for the visual recognition target in the open space, the wall screen in a room is changed from black to white in the same way as the attention level measurement at the time of visual recognition of the display image. The “basic luminance—pupil diameter” data of the subject is measured, and the attention level (pupil diameter score) is calculated by performing the same processing as described above.

[表情測定器]
表情測定器としては、特開2011−239891号や特許5445981号に記載の装置や学会誌(倉島渡、菊池光一「瞳孔径反応と顔表情反応の融合による情感評価の新しい提案」第14回日本顔学会大会、O2-02、2009)に記載の装置を使用することができる。表情測定器は、表情測定用カメラ160と記憶部等に格納されるプログラムにより実現される。なお表情測定用カメラ160は、図13に示すように設置することができる。またプログラムとしては、例えば夏目綜合研究所製の「Face Analysis Software FO版」を利用することができる。使用する表情測定器の例示を、その原理とともに以下に説明する。
[Facial expression measuring instrument]
As a facial expression measuring instrument, the devices described in Japanese Patent Application Laid-Open No. 2011-239891 and Japanese Patent No. 5455981, Watanabe Kurashima, Koichi Kikuchi “New proposal of emotion evaluation by fusion of pupil diameter reaction and facial expression reaction” 14th Japan The device described in the Facial Society Conference, O2-02, 2009) can be used. The facial expression measuring device is realized by a facial expression measuring camera 160 and a program stored in a storage unit or the like. The facial expression measuring camera 160 can be installed as shown in FIG. As the program, for example, “Face Analysis Software FO version” manufactured by Natsume Sogo Research Institute can be used. An example of the facial expression measuring device to be used will be described below together with its principle.

顔画像特徴量算出方法
顔画像特徴量(表情レベル)の1つの例示を以下に記載する。人間の感情を捉える技術は、すでにスマイルシャッターなどと呼ばれる笑顔を測る技術でおなじみである。ここでは、顔表情解析の基本6感情(「幸福(喜び)度」=(面白度(笑い)を含む)、「悲しみ度」、「怒り度」、「恐怖度」、「嫌悪度」、「驚き度」)を判定する。
Face image feature amount calculation method One example of the face image feature amount (expression level) is described below. The technology that captures human emotions is already familiar with the smile measurement technology called smile shutter. Here, the six basic emotions of facial expression analysis ("happiness (joy)" = (including fun (laugh)), "sadness", "anger", "fear", "disgust", " Judgment of “surprise”

まずここで、表情測定方法を以下に説明する。第1ステップとして、表情に関係する視覚的情報(表情情報)抽出を行う。この抽出段階では、顔の中の様々に変化する眉毛、目、口などの「傾斜性」、「湾曲性・開示性」と言う構造の変化を観察している。図14に、顔面表情線画モデルと特徴量を示す。顔の表情を把握する場合、顔の中で変化可能な眉毛、目、口等の変化(形と量)を抽出することにある。その第1因子は図2の眉、上まぶた、上下唇の中点(P2、P4、P6)を中軸とする相関的な変移構造を示すもので、いわば各部の形状全体の湾曲性ないしは開閉に深く関与するものである。第2の因子は眉や目の傾き具合(傾斜性)に深く関わるような特徴点(P1、P3、P5)を中軸とする相関的変位構造を示すものである。第3の因子は口のへの字型あるいは逆への字型になる口の傾斜性に関与するもの(P7、P8、P9)である。目の開閉を確実に計測するため、目の下中心と、それらの各特徴点の変位量の基点として、どのような表情に置いても変化の僅少な両目元の内側の2ポイントを加え、合計12ポイントを特徴点として計測することで十分であるが、実際には図15のように顔の表情の変化をとらえる各部にマークとなるシールを貼って、カメラで撮影して計測する。なお、このように顔にマークとなるシールを貼ることは、被験者にとっては違和感があるが、時間が経つと慣れるため、その違和感はなくなる。また、現在はシールを貼らずに顔表情の変化を計測する技術がある。   First, the facial expression measuring method will be described below. As a first step, visual information (facial information) related to facial expressions is extracted. In this extraction stage, changes in the structures such as “gradient” and “curvature / disclosure” of the eyebrows, eyes, mouth, and the like that change in the face are observed. FIG. 14 shows a facial expression line drawing model and feature amounts. When grasping a facial expression, it is to extract changes (shape and amount) of eyebrows, eyes, mouth, etc. that can be changed in the face. The first factor is a correlative transition structure with the central points (P2, P4, P6) of the eyebrows, upper eyelids, and upper and lower lips in FIG. 2 as the central axis. It is deeply involved. The second factor indicates a correlated displacement structure having feature points (P1, P3, P5) that are deeply related to eyebrow and eye tilt (gradient) as a central axis. The third factor is related to the inclination of the mouth that becomes the shape of the mouth or the shape of the mouth (P7, P8, P9). In order to reliably measure the opening and closing of the eyes, 2 points inside the eyes that are slightly changed in any expression are added as the base point of the lower center of the eyes and the amount of displacement of each feature point. Although it is sufficient to measure points as feature points, in practice, as shown in FIG. 15, stickers that serve as marks are attached to each part that captures changes in facial expressions, and measurements are taken with a camera. It should be noted that sticking a sticker that becomes a mark on the face in this way is uncomfortable for the subject, but since the user gets used to it over time, the uncomfortable feeling disappears. Currently, there is a technique for measuring changes in facial expression without sticking a sticker.

第2ステップとして、表情情報の感情的意味評価を行う。図16は、3つの構造変数、すなわち、第1正準変数(湾曲性、開示性)、第2正準変数(口の傾斜性)、第3正準変数(眉と目の傾斜性)を軸とする3次元空間を作り、平常時の顔での全特徴点の位置を原点(0,0,0)にした座標である。ここで、図16に示した6感情ポイントの座標の位置は、6感情の「典型的表情」の座標の位置をプロットした例である。座標のマイナス(−)領域は、湾曲性、開示性、傾斜性の動きが平常状態から逆になった場合のエリアである。被験者の被験時の知覚された顔の構造変数が、感情的意味空間のこの座標の位置に特定されると、それにより特定の感情カテゴリーに分類されることになる。   As a second step, emotional semantic evaluation of facial expression information is performed. FIG. 16 shows three structural variables, namely, a first canonical variable (curvature, disclosure), a second canonical variable (mouth inclination), and a third canonical variable (eyebrows and eye inclination). The coordinates are obtained by creating a three-dimensional space as an axis and setting the positions of all feature points on the normal face as the origin (0, 0, 0). Here, the position of the coordinates of the six emotion points shown in FIG. 16 is an example in which the positions of the coordinates of the “typical facial expression” of the six emotions are plotted. The minus (−) area of the coordinate is an area when the movement of curvature, disclosure, and inclination is reversed from the normal state. When the perceived facial structure variable at the time of the subject's test is specified at this coordinate position in the emotional semantic space, it is classified into a specific emotion category.

第3ステップとして、感情的意味評価に基づく感情カテゴリー判定を行う。知覚された顔が感情的意味空間の1点に表象されると、それにより特定の感情カテゴリーに分類される。すなわち、感情的意味空間の原点(0,0,0)から、被験者の演技した時の6感情の典型的表情の座標位置への線上またはその近くに、被験時の顔の構造変移点があるものと考えられる。したがって、被験者の被験時の顔の構造変移点が、どの感情の線上または線の近くにあるかにより感情を判定し、原点から典型的表情の座標位置までの距離と比較してどの程度の感情レベルかを判定することができる。第1正準変数(湾曲性、開示性)については、驚きや恐れを他のカテゴリーから類別する視覚的次元になっている。つまり、目や口が丸く大きく開かれ、眉も大きく弓なりに湾曲したような顔の形状は「驚き」の顔。その過程が弱くなると「恐れ」の顔と判断される。逆に目や口が閉じられ、眉を含めたそれらの形状が直線的になるような形状の顔は、驚きや恐れとは異なるカテゴリーの顔と判断される。第2正準変数(口部の傾斜性)については、第1正準変数では明確な類別が可能ではなかったカテゴリー群である「喜び」「悲しみ」「嫌悪」「怒り」の中から喜びを類別する視覚的次元になっている。湾曲性・開示性の程度が低い形状を持つ顔の中でも、口の形状がV字型になればなるほど、そのような形状の顔を喜びと判断し、一方、逆V字型になればなるほど怒り、嫌悪、悲しみの顔と判断する傾向がある。第3正準変数(眉と口の傾斜性)については、第1正準変数、第2正準変数上では類似していた怒り、嫌悪、悲しみを類別する次元である。つまり、湾曲性・開示性の程度が低く、口の傾斜性においても逆V字形になるような形状の顔でも、眉や目が垂れ下がるような形状を持つ顔を悲しみと判断し、逆にそれらが釣り上がっているような形状の顔を怒りの顔、また中程度のものは嫌悪の顔と判断する傾向がある。   As a third step, emotion category determination based on emotional semantic evaluation is performed. When a perceived face is represented by a point in the emotional semantic space, it is classified into a specific emotion category. That is, there is a structural transition point of the face at the time of test on or near the line from the origin (0,0,0) of the emotional meaning space to the coordinate position of the typical expression of the six emotions when the subject acts. It is considered a thing. Therefore, the emotion is judged by whether or not the facial structural transition point at the time of the subject's test is on or near the emotion line, and how much emotion is compared with the distance from the origin to the coordinate position of the typical facial expression. It can be determined whether it is a level. The first canonical variable (curvature, disclosure) is a visual dimension that classifies surprises and fears from other categories. In other words, a face that looks like a “surprise” face, with its eyes and mouth open wide and round, and the eyebrows curved large like a bow. When the process becomes weak, it is judged as a face of “fear”. Conversely, a face having a shape in which the eyes and mouth are closed and the shape including those of the eyebrows is linear is determined to be a face of a category different from surprise or fear. As for the second canonical variable (inclination of the mouth), the first canonical variable cannot be categorized clearly, and it is a joy among “joy”, “sadness”, “disgust”, and “anger”. The visual dimension is categorized. Among faces with low curvature and disclosure, the more the mouth shape becomes V-shaped, the more the face is judged to be joyful, while the more the face becomes inverted V-shaped. There is a tendency to judge it as a face of anger, disgust, and sadness. The third canonical variable (inclination of eyebrows and mouth) is a dimension for classifying anger, disgust, and sadness that are similar on the first canonical variable and the second canonical variable. In other words, even a face with a low degree of curvature / disclosure and an inverted V-shaped shape in terms of the inclination of the mouth, a face with a shape that causes the eyebrows and eyes to hang down is judged as sadness, and conversely There is a tendency that a face with a shape that looks like an angry face is an angry face, and an intermediate face is a disgusting face.

上記を踏まえ、例えば表情スコアは、図15の各特徴点の平常時の位置からの変位量に基づいた顔画像特徴量ΣAiiにより算出することができる。ここでiは、各特徴点の表情パーツのインデックス、Pは各特徴点の基点からの変位量、Aは重み付け係数を表すものである。ここで、重み付け係数Aは、上記の感情的意味空間や各特徴点の平常時の位置からの最大変位量を考慮して設定される。Based on the above, for example, expression score can be calculated by the face image feature amounts .SIGMA.A i P i based on the amount of displacement from the position of the normal state of each feature point in FIG. 15. Here, i is the index of the expression part of each feature point, P is the amount of displacement from the base point of each feature point, and A is the weighting coefficient. Here, the weighting coefficient A is set in consideration of the above-mentioned emotional meaning space and the maximum displacement amount from the normal position of each feature point.

なお解析アルゴリズムは日本大学の山田教授の方法(山田寛「顔面表情の知覚的判断過程に関する説明モデル」Japanese Psychological Review、Vol.43、No.2、2000)を採用し、本アルゴリズムを用いて得られる基本6感情のデータ(表情(感情)レベル、顔画像特徴量)を用いて算出されたZスコアを表情スコアとして算出する。ここで後述するデータ処理を実施する。   The analysis algorithm is based on the method of Professor Yamada of Nihon University (Yamada Hiroshi “Explanatory Model for Perceptual Judgment Process of Facial Expression” Japanese Psychological Review, Vol.43, No.2, 2000). The Z score calculated using the basic six emotion data (facial expression (emotional) level, facial image feature amount) is calculated as the facial expression score. Here, data processing described later is performed.

[実験概要]
本発明は前述した装置を用いて実現されるが、個別の実施形態の理解を容易にするために、実施した実験について説明する。
[Experiment Overview]
Although the present invention is realized using the above-described apparatus, experiments conducted will be described in order to facilitate understanding of individual embodiments.

実験は前述した装置を用いて、被験者は座位正面、間隔約70cmで設置されている20インチ液晶画面上に提示されるビデオコンテンツを正視するとともに、画面脇に設置されたスピーカより音声を聴取する構成で測定を行った。   In the experiment, using the above-mentioned apparatus, the subject looks at the video content presented on the 20-inch liquid crystal screen installed in front of the sitting position with a spacing of about 70 cm, and listens to the sound from the speaker installed on the side of the screen. Measurements were made on the configuration.

計測条件は以下の通りである。被験者10名(平均年齢23.6才、全員成人女性)を公募により募り、書面によりインフォームドコンセントを取得した後、国際10−20法に準拠した21電極(図3)を頭皮上に設置し、リラックス画像(120s)、笑顔動画(116s)、悲しみ動画(195s)、恐怖動画(196s)の4種を順次提示し、ビデオカメラによる表情計測、瞳孔径計測、および脳電位の同時計測を行った。脳電位はHPF=1.6Hz、LPF=50Hz、サンプリング周波数200Hzで記録した。   The measurement conditions are as follows. After recruiting 10 subjects (average age: 23.6 years, all adult women) through public recruitment and obtaining informed consent in writing, 21 electrodes (Fig. 3) compliant with the International 10-20 Act were placed on the scalp. , Relaxing images (120s), smile videos (116s), sadness videos (195s), and fear videos (196s) are presented in sequence, and facial expression measurement, pupil diameter measurement, and simultaneous brain potential measurement are performed using a video camera. It was. The brain potential was recorded at HPF = 1.6 Hz, LPF = 50 Hz, and sampling frequency 200 Hz.

また、各動画視聴後には、再度動画と同じ音声を聞きながら安静閉眼状態で脳電位を記録し、その直後に筆記による印象についてのアンケート調査を実施した。アンケートは、「イライラした」「楽しかった」「悲しかった」「リラックスした」「怖かった」の5項目につき、「1=そう思わない」から「7=そう思う」までの7段階で回答してもらった。各ビデオコンテンツから想定される代表的な感性状態は、アンケート結果より、リラックス画像視聴時は「リラックス」、同様に、笑顔動画視聴時は「喜び」、悲しみ動画視聴時は「悲しみ」、恐怖動画視聴時は「恐怖」「ストレス」、と判断して各種解析を実施した。実験プロトコルの詳細は図17に示す。   In addition, after watching each video, the brain potential was recorded with the eyes closed at rest while listening to the same voice as the video again, and immediately after that, a questionnaire survey was conducted on the written impression. The questionnaire is answered in 7 stages from “1 = I don't think so” to “7 = I think so” for 5 items, “I was frustrated”, “It was fun”, “It was sad”, “Relaxed”, “I was scared” received. Based on the questionnaire results, typical emotional states assumed from each video content are “relaxed” when watching relaxed images, “joy” when watching smile videos, “sadness” when watching sadness videos, and fear videos. At the time of viewing, it was judged as “fear” and “stress”, and various analyzes were performed. Details of the experimental protocol are shown in FIG.

脳電位の解析に先立ち、前頭部の電極には瞬きによる過大ノイズが混入するため、瞳孔径から瞬目のイベントを検出し、過大ノイズの除去を行った後、β帯域、θ帯域及びδ帯域を抽出するBPF処理を経て、各ビデオコンテンツから想定される感性状態に伴う脳電位特徴量の抽出を行い、瞳孔径解析・表情解析から得られる感性情報との関連を調査した。具体的には、前述したように脳電位データ(T3、T4、F7のZスコア平均又は前頭部及び後頭部のdNAT値のZスコア)、瞳孔径データ、表情データを取得し、これらのデータを用いて解析を行った。なおノイズ除去方法について簡単に説明する。まず瞳孔径データ算出時において、瞬目はデータエラー等で検出することができる。そこで検出された信号(瞬目検出信号)を用いて、瞬目除去処理部は瞬目検出信号から疑似瞬目波形を生成し、取得した脳電位データから瞬目ノイズを除去する。この処理は、特に前頭部から低い周波数の脳電位計測を行う場合に効果が大きい。   Prior to analysis of brain potential, excessive noise due to blinking is mixed in the frontal electrodes, so after detecting the blink event from the pupil diameter and removing excessive noise, β band, θ band and δ Through the BPF process of extracting the band, the brain potential feature amount associated with the emotional state assumed from each video content was extracted, and the relationship with the emotional information obtained from the pupil diameter analysis / facial expression analysis was investigated. Specifically, as described above, brain potential data (Z score average of T3, T4, F7 or Z score of dNAT values of frontal and occipital regions), pupil diameter data, facial expression data are acquired, and these data are obtained. And analyzed. The noise removal method will be briefly described. First, blinks can be detected by a data error or the like when calculating pupil diameter data. Using the detected signal (blink detection signal), the blink removal processing unit generates a pseudo blink waveform from the blink detection signal and removes blink noise from the acquired brain potential data. This processing is particularly effective when low-frequency brain potential measurement is performed from the frontal region.

リラックス画像視聴時の状態と、笑顔動画視聴時の状態を瞳孔径により比較すると、図18のようになり有意に笑顔動画視聴時の方が瞳孔径は大きいことがわかった(t(8)=2.48、p<0.05)(計測が正常に行われた9人の平均値)。このことより、被験者は笑顔動画視聴時において、より興味を持って視聴していることが分かった。なお、t()はt検定を行うときのt値を示し、この場合は有意水準5%で差が見られたことを示している。   Comparing the state when viewing the relaxed image and the state when viewing the smiling video by the pupil diameter, it is shown in FIG. 18 that the pupil diameter is significantly larger when viewing the smiling video (t (8) = 2.48, p <0.05) (average value of 9 people with normal measurements). From this, it was found that the subject was watching with more interest when viewing the smile video. Note that t () indicates a t value when the t test is performed, and in this case, a difference is observed at a significance level of 5%.

これに関連した視聴時の喜び指標としての脳波の特徴を抽出するために、脳波のパワーのバランスを統計的に調べるNAT(Neuronal Activity Topography)(Toshimitsu Musha, Haruyasu Matsuzaki, Yohei Kobayashi, Yoshiwo Okamoto, Mieko Tanaka, and Takashi Asada, EEG Markers for Characterizing Anomalous Activities of Cerebral Neurons in NAT (Neuronal Activity Topography) Method, IEEE Trans Biomed Eng., vol.60, no.8, pp.2332-2338, Aug. 2013.)を拡張して用いた。ここでNAT状態の計算においては、例えば前述の脳活動測定装置Aを用いて算出される脳波スコアを用いた。本実験では脳波を規格化する窓幅を4.7Hz〜18.7Hzとし、そのパワーを基準として17.2Hz〜31.3Hzの帯域のパワーを規格化した。また個々人の脳波には大きな差があるため、そのベースラインの差を除去するために、以下のような方法でビデオコンテンツの差のみを抽出した。   In order to extract the characteristics of the EEG as a joy index during viewing, the NAT (Neuronal Activity Topography) (Toshimitsu Musha, Haruyasu Matsuzaki, Yohei Kobayashi, Yoshiwo Okamoto, Mieko) Tanaka, and Takashi Asada, EEG Markers for Characterizing Anomalous Activities of Cerebral Neurons in NAT (Neuronal Activity Topography) Method, IEEE Trans Biomed Eng., Vol.60, no.8, pp.2332-2338, Aug. 2013.) Used extended. Here, in the calculation of the NAT state, for example, an electroencephalogram score calculated using the above-described brain activity measuring apparatus A was used. In this experiment, the window width for normalizing the electroencephalogram was set to 4.7 Hz to 18.7 Hz, and the power in the band of 17.2 Hz to 31.3 Hz was normalized based on the power. In addition, since there is a big difference in the brain waves of each person, in order to remove the difference in the baseline, only the difference in video content was extracted by the following method.

まず実験開始後最初の安静開眼2分について、セグメント長0.64秒、時間刻み1/30秒ごとにNAT状態を計算し、セグメント内に瞬目がないデータだけを取り出して平均と標準偏差を計算し、その個人の安静開眼のNATコントロール(Zスコアを算出するための平均値、標準偏差)とした。同様に各ビデオコンテンツ視聴時においてセグメント長0.64秒、時間刻み1/30秒でNAT状態を計算し、前述したコントロールを用いてZスコアマップに変換した。この規格化により、安静開眼状態と比較してその瞬間のNAT状態が、統計的にどの程度特徴を持っているかがわかりやすいようにした。   First, for the first 2 minutes of resting eyes after the start of the experiment, the NAT state is calculated for each segment length of 0.64 seconds and time increments of 1/30 seconds. It was calculated and used as the NAT control (average value for calculating Z score, standard deviation) of the individual's resting eyes. Similarly, when viewing each video content, the NAT state was calculated with a segment length of 0.64 seconds and a time increment of 1/30 seconds, and converted to a Z score map using the control described above. This standardization makes it easier to understand the statistical characteristics of the NAT state at that moment compared to the resting open eye state.

図19はリラックス画像視聴時における各人のZスコアマップの瞬目部分を除いた時間平均、同様に図20は喜び動画視聴時における各人のZスコアマップの時間平均である。これらを比較すると図19のリラックス画像視聴時には各人のマップにはあまり特徴はみられないものの、図20の喜び動画視聴時には各人のマップには左右T3、T4付近に共通した特徴を読み取ることができる。電極ごとに10人分の平均を比較すると図21のようになり、T3、T4、F7などで顕著な差を確認した。リラックス画像視聴時と喜び動画視聴時とで対応有りの比較を行ったところ、T3において(t(9)=4.65、p<0.001)またT4において(t(9)=5.52、p<0.001)有意な差を確認した。またF7においてもある程度の差を確認した(t(9)=2.01、p<0.05)。   FIG. 19 shows the time average of each person's Z score map when viewing a relaxed image, excluding the blinking portion. Similarly, FIG. 20 shows the time average of each person's Z score map when viewing a pleasure video. When comparing these images, the characteristics of each person's map are not so many when viewing the relaxed image of FIG. 19, but when viewing the pleasure video of FIG. 20, each person's map reads the characteristics common to the left and right T3 and T4. Can do. When the average of 10 persons is compared for each electrode, it becomes as shown in FIG. 21, and significant differences were confirmed at T3, T4, F7, and the like. When comparing relaxed image viewing and pleasure video viewing, there was a comparison, and it was significant at T3 (t (9) = 4.65, p <0.001) and at T4 (t (9) = 5.52, p <0.001) The difference was confirmed. In F7, a certain difference was confirmed (t (9) = 2.01, p <0.05).

NAT状態のβパターン(β波から得られる脳波スコア)がどの程度リアルタイムに喜びの感情の指標となっているかを評価するために、特徴が顕著であったT3、T4、F7の平均値の時系列データと、表情評価による喜びの指標の時間発展を比較した。図22a、図22b、図22cは前述した脳波から評価した喜びの指標の平均値(T3、T4、F7のZスコア平均値)、表情から評価した喜びの指標の平均値(表情レベル(顔画像特徴量データ)の平均値)、瞳孔径から評価した喜びの指標の平均値(注目度(瞳孔径データ)の平均値)、をそれぞれ時系列にグラフ化したものである。脳波については10人の平均を、表情と瞳孔径については計測が正常に行われた9人の平均である。これらのデータは視聴コンテンツの推移に連動するものと考えられるため、類似性のあるパターンで時間発展していくことが予想される。脳波スコアに対する、表情スコアと瞳孔径スコアの相互相関関数について調べたところ、図23のような結果となった。   In order to evaluate how much the β pattern of the NAT state (an electroencephalogram score obtained from the β wave) is an index of feelings of joy in real time, the average value of T3, T4, and F7 whose features were remarkable We compared the time evolution of series data and the index of joy by facial expression evaluation. 22a, 22b, and 22c show the average value of the index of pleasure evaluated from the above-described brain waves (average Z score of T3, T4, and F7), and the average value of the index of pleasure evaluated from the expression (expression level (face image). The average value of the feature amount data) and the average value of the joy index evaluated from the pupil diameter (average value of the degree of attention (pupil diameter data)) are graphed in time series. For brain waves, the average of 10 people, and for facial expression and pupil diameter, the average of 9 people with normal measurements. Since these data are considered to be linked to the transition of the viewing content, it is expected that the time will develop in a similar pattern. When the cross-correlation function between the facial expression score and the pupil diameter score with respect to the electroencephalogram score was examined, the result was as shown in FIG.

図23から、脳波スコアの基準点(時間ずれ0)から見て、瞳孔径スコアが約1.5秒程度早くピークを出していることが分かる。また、表情スコアは、±約5秒間に亘って高い相関を持つことが分かる。そこで、瞳孔径スコアについては、約1.5秒程度の遅延操作をしたうえで、脳波β波から得られる脳波スコアと統合することで、より精度の高い表情推定が可能となり、また、瞳孔径スコアが測定不能な閉眼時も、脳波β波成分のみから、瞳孔径スコアと類似したスコアが得られる可能性がある。   From FIG. 23, it can be seen that the pupil diameter score peaked about 1.5 seconds earlier as seen from the reference point of the electroencephalogram score (time shift 0). It can also be seen that the facial expression score has a high correlation over ± about 5 seconds. Therefore, with regard to the pupil diameter score, after performing a delay operation of about 1.5 seconds and integrating it with the electroencephalogram score obtained from the electroencephalogram β wave, more accurate facial expression estimation becomes possible. Even when the eyes cannot be measured, a score similar to the pupil diameter score may be obtained only from the electroencephalogram β wave component.

さらに脳活動測定装置Bを用いて、恐怖動画視聴時の脳電位特徴を抽出する為に、頭皮上に正三角形状に配置された3電極で同符号成分を抽出し、その3重相関の不規則性を評価する脳電位解析手法(前述のdNAT法)により脳深部活動の解析を行った。一般的に、δ波帯において、恐怖時は後頭部よりも前頭部の脳活動が活性化すると言われている。そこでδ波値(2Hz〜4Hz)において、前頭部(F3、F4、Cz)と後頭部(P3、P4、Oz)で解析を行い、個人の安静開眼時をコントロールとしたdNAT値のZスコア値を算出した。具体的なZスコアの算出方法は脳活動測定装置Bの項で前述した通りである。恐怖の度合いが高かった2つ目の恐怖コンテンツを視聴した5名の平均値を算出したところ、最も恐怖シーンが出現するコンテンツ後半において、前頭部で後頭部に比べ、増加する特徴がみられた(図24参照)。そのため、特に恐怖シーンが出現する後半において、前頭部と後頭部のdNAT値の差分の平均値(個人ごとの前頭部と後頭部のdNAT値差分平均)が、後半部の時間経過に伴い増加していることが分かる。また、注目度(瞳孔径変化)の時間発展結果において平均値を算出したところ、dNAT値と同様に、コンテンツ後半において注目度の値が高くなっており、これは平均注目度が後半に高くなっていることを示している(図25参照)。   Furthermore, in order to extract the brain potential characteristics at the time of watching a fear movie using the brain activity measuring device B, the same sign component is extracted with three electrodes arranged in a regular triangle shape on the scalp, and the triple correlation is not detected. Deep brain activity was analyzed by a brain potential analysis method for evaluating regularity (the aforementioned dNAT method). In general, it is said that in the δ wave band, brain activity in the frontal region is activated rather than the occipital region in fear. Therefore, in the δ wave value (2 Hz to 4 Hz), analysis is performed with the frontal head (F3, F4, Cz) and occipital head (P3, P4, Oz), and the Z-score value of the dNAT value with the individual resting eyes open as a control Was calculated. A specific method for calculating the Z score is as described above in the section of the brain activity measuring apparatus B. When the average value of five people who watched the second horror content with a high degree of horror was calculated, in the latter half of the content where the horror scene appeared, an increased feature was seen in the forehead compared to the back of the head (See FIG. 24). Therefore, especially in the second half when the horror scene appears, the average value of the difference between the dNAT values of the frontal head and the back of the head (average difference of dNAT values of the frontal head and the back of each individual) increases with the passage of time in the second half. I understand that In addition, when the average value was calculated in the temporal development result of the attention degree (pupil diameter change), the attention degree value was high in the latter half of the content, as in the dNAT value, and this average attention degree was high in the second half. (See FIG. 25).

続いて恐怖動画視聴時と同様に、dNAT値を用いて、悲しみ動画視聴時の解析を行った。悲しみ動画を視聴した10名の平均値を算出したところ、最も悲しいシーンが出現する後半部において、恐怖動画視聴時同様に、前頭部で後頭部に比べ、増加する特徴が見られた(図26a参照)。また、注目度(瞳孔径変化)の時間発展結果においてもdNAT値と同様に、後半部で注目度が大きい値を示しており、平均注目度がコンテンツ後半部で高いことを示した(図26b参照)。さらに、この時の悲しみ感情度(表情レベル(悲しみ))の指標の時間発展を調べたところ、コンテンツ後半で悲しみ感情が大きく表出していることが分かった(図26c参照)。   Subsequently, analysis was performed at the time of watching a sadness movie using the dNAT value as in the case of watching a fear movie. When the average value of the 10 people who watched the sadness movie was calculated, in the latter half of the most sad scene, an increased feature was seen in the frontal region compared to the back of the head as in the feared movie viewing (FIG. 26a). reference). Also, in the temporal development result of the attention level (pupil diameter change), similarly to the dNAT value, the value of the attention level is large in the second half, and the average attention level is high in the second half of the content (FIG. 26b). reference). Furthermore, when the time development of the index of the sadness emotion level (expression level (sadness)) at this time was examined, it was found that sadness emotions were greatly expressed in the latter half of the content (see FIG. 26c).

以上より、3つのスコアを適切な遅延量を与えたうえで同時に評価することで、より安定した感情推定が可能であることが考えられる。   From the above, it is conceivable that more stable emotion estimation is possible by simultaneously evaluating the three scores after giving appropriate delay amounts.

[実施形態1]
本発明の1つの実施形態に係る感情推定装置のデータ処理ブロック図を図27に示す。図に示すように、まず各々の測定からデータを取得し(S2701、S2711、S2721)、脳波スコア(T3、T4、F7のZスコア平均、又は前頭部と後頭部のdNAT値のZスコアなど)、瞳孔径データ(注目度)、及び顔画像特徴量データ(基本6感情の感情度、感情レベル)を算出する(S2702、S2712、S2722)。
[Embodiment 1]
FIG. 27 shows a data processing block diagram of the emotion estimation apparatus according to one embodiment of the present invention. As shown in the figure, first, data is acquired from each measurement (S2701, S2711, S2721), and an electroencephalogram score (Z score average of T3, T4, F7 or Z score of dNAT values of frontal and occipital) Then, pupil diameter data (attention level) and face image feature amount data (emotion level and emotion level of basic 6 emotions) are calculated (S2702, S2712, S2722).

脳波スコアについては、算出されたデータに対して閾値θeにより閾値処理を行う(S2703)。閾値処理は、例えばそれぞれの閾値θe以上の値のみデータとして使用する処理である。閾値処理された脳電位データの脳波スコアは、加重設定Weにより重みづけされる(S2724)。   For the electroencephalogram score, threshold processing is performed on the calculated data with the threshold θe (S2703). The threshold process is a process that uses, for example, only a value equal to or greater than each threshold θe as data. The electroencephalogram score of the brain potential data subjected to the threshold processing is weighted by the weight setting We (S2724).

瞳孔径データは、まず確率パラメータ抽出(瞳孔径スコア算出)を行う(S2713)。確率パラメータ抽出は、脳電位データにおける脳波スコアの算出と同様であり、次のとおりである。まず被験者の安静開眼時の瞳孔径データを(好ましくは10個以上)取得し、取得したデータから平均値(Xave)及び標準偏差(Xsd)を算出する。この平均値及び標準偏差を用いて、測定対象の瞳孔径データ(X(t))の瞳孔径スコア(Zスコア)を算出し(Z(t)=(X(t)−Xave)/Xsd)、この値を抽出することが確率パラメータ抽出である。その後、算出されたデータに対して閾値θpにより閾値処理を行う(S2715)。閾値処理の前又は後で遅延時間設定により、データに遅延がつけられる(S2714)。これは図23に示す通り、瞳孔径データは脳電位データに対して早く反応する傾向があり、この時間的なずれを補正するためである。続いて加重設定Wpにより重みづけされる(S2716)。   The pupil diameter data is first subjected to probability parameter extraction (pupil diameter score calculation) (S2713). The probability parameter extraction is similar to the calculation of the electroencephalogram score in the electroencephalogram data, and is as follows. First, pupil diameter data (preferably 10 or more) when the subject's eyes are at rest is acquired, and an average value (Xave) and standard deviation (Xsd) are calculated from the acquired data. Using this average value and standard deviation, the pupil diameter score (Z score) of the pupil diameter data (X (t)) to be measured is calculated (Z (t) = (X (t) −Xave) / Xsd) Extracting this value is the probability parameter extraction. Thereafter, threshold processing is performed on the calculated data with the threshold θp (S2715). Data is delayed by setting the delay time before or after the threshold processing (S2714). This is because, as shown in FIG. 23, the pupil diameter data tends to react quickly to the brain potential data, and this time lag is corrected. Subsequently, the weight is set by the weight setting Wp (S2716).

顔画像特徴量データも、まず確率パラメータ抽出(表情スコア算出)を行う(S2723)。確率パラメータ抽出は、瞳孔径データと同様の処理が行われる。その後、算出されたデータに対して閾値θfにより閾値処理を行う(S2724)。続いて加重設定Wfにより重みづけされる(S2725)。   First, probability parameter extraction (expression score calculation) is also performed on the face image feature data (S2723). The probability parameter extraction is performed in the same manner as the pupil diameter data. Thereafter, threshold processing is performed on the calculated data with the threshold θf (S2724). Subsequently, weighting is performed by the weight setting Wf (S2725).

これらの加重和により得られた数値により感情推定を行う(S2741)。ただし、これらの加重和による演算は例示であって、各データを所定の四則演算により算出することもできる。また加重和による演算を行う場合、閉眼時に脳波計測以外の加重をゼロとすることができる。なお確実パラメータ抽出は、例えば(後藤正幸、小林学、「入門パターン認識と機械学習」、第一章、コロナ社)にあるような古典的な最尤決定法や関数識別法による線形判別、また(L. Breimen, J. H. Friedman, R. A. Olshen, C. J. Stone: Classification and Regression Trees, Wadsworth & Books (1984) )にあるようなCARTアルゴリズムやバギング法による学習による決定木を構築することによって行うこともできる。   Emotion estimation is performed based on the numerical values obtained from these weighted sums (S2741). However, the calculation based on these weighted sums is merely an example, and each data can be calculated by a predetermined four arithmetic operations. In addition, in the case of performing the calculation by the weighted sum, the weights other than the electroencephalogram measurement can be set to zero when the eyes are closed. Certain parameter extraction can be performed by, for example, linear discrimination by the classical maximum likelihood determination method or function identification method as described in (Masato Goto, Manabu Kobayashi, “Introduction Pattern Recognition and Machine Learning”, Chapter 1, Corona). (L. Breimen, JH Friedman, RA Olshen, CJ Stone: Classification and Regression Trees, Wadsworth & Books (1984)) can also be used to construct a decision tree by learning using the CART algorithm or bagging method.

本実施形態の例示の1つとして笑顔動画視聴時と悲しみ動画視聴時における、瞳孔径スコア、脳波スコア(脳活動測定装置Aを用いる)、表情スコアの10人のアンサンブル平均の比較例は以下のようになる。図28aが脳波から抽出したパラメータ(脳波スコア)、図28bが表情から抽出したパラメータ(表情スコア)、図28cが瞳孔径から抽出したパラメータ(瞳孔径スコア)の時間的な推移であり、破線が喜び動画視聴時、実線が悲しみ動画視聴時である。喜びと悲しみの両動画については同程度の注目がなされているが、感情については差があることが読み取れる。   As an example of this embodiment, a comparison example of the ensemble average of 10 people of the pupil diameter score, the electroencephalogram score (using the brain activity measuring device A), and the facial expression score when watching a smile video and watching a sad video is as follows. It becomes like this. FIG. 28a is a parameter (electroencephalogram score) extracted from an electroencephalogram, FIG. 28b is a parameter extracted from an expression (expression facial score), and FIG. 28c is a temporal transition of a parameter (pupil diameter score) extracted from the pupil diameter. When watching a joy video, the solid line is when watching a sad video. Although both joy and sadness videos have received the same level of attention, it can be seen that there is a difference in emotion.

このデータを元に、脳波のパラメータについてはθe=0.5を閾値に、表情のパラメータについてはθf=0を閾値に、瞳孔径のパラメータはθp=0.6を閾値とし、Wf=0.3、We=1、Wp=1として加重和を計算した計算した例を図29、図30に示す。図29は喜び動画視聴時の推移、図30は悲しみ動画視聴時の推移である。   Based on this data, for the electroencephalogram parameters, θe = 0.5 is set as the threshold, for the facial expression parameters, θf = 0 is set as the threshold, and the pupil diameter parameter is set as θp = 0.6, Wf = 0.3, We = 1, An example of calculating the weighted sum with Wp = 1 is shown in FIGS. FIG. 29 shows a transition when watching a joy video, and FIG. 30 shows a transition when watching a sad video.

本実施形態の他の例示の1つとしては、脳活動測定装置Bを用いて、前頭深部のδ波と、後頭深部のδ波の空間的、時間的ゆらぎを評価する2つのdNATの信号の差もしくは比率をとることで、脳内の抑制部位の変化を顕在化させ、感情の変化を抽出する。なお本発明においては周波数範囲をδ波帯域2〜4Hzとしている。   As another example of the present embodiment, the brain activity measuring device B is used to measure two dNAT signals that evaluate spatial and temporal fluctuations of the δ wave in the deep frontal region and the δ wave in the deep occipital region. By taking the difference or ratio, the change of the suppression site in the brain becomes obvious and the change of emotion is extracted. In the present invention, the frequency range is 2 to 4 Hz.

δ波値(2Hz〜4Hz)において、前頭部(F3、F4、Cz)、後頭部(P3、P4、Oz)で解析を行い、個人の安静開眼時をコントロールとしたdNAT値のZスコア値を算出した。図31に示すように、アンケート結果より恐怖の度合いが高かった2つ目の恐怖コンテンツを視聴した5名の平均値を算出したところ、最も恐怖シーンが出現するコンテンツ後半において、前頭部で後頭部に比べ、増加する特徴がみられた。   In the δ wave value (2 Hz to 4 Hz), analysis is performed on the frontal region (F3, F4, Cz) and occipital region (P3, P4, Oz), and the Z-score value of the dNAT value with the individual resting eyes open as a control is calculated. Calculated. As shown in FIG. 31, when the average value of five people who watched the second horror content whose fear level was higher than the questionnaire result was calculated, in the latter half of the content in which the horror scene appears most, Increased characteristics were seen compared to.

さらに、上記と同様の解析を悲しみ動画コンテンツと喜び動画コンテンツを視聴した際に行ったところ、悲しみ動画は後頭部に比べ前頭部のdNAT値が大きくなるのに対し、喜び動画は前頭部に比べ後頭部のdNAT値が大きくなる傾向が見られる。図32に、喜び動画コンテンツ視聴時と悲しみコンテンツ視聴時、ストーリー展開上感情への影響が大きいコンテンツ後半について、前頭部と後頭部の安静開眼時をコントロールとしたdNAT値のZスコア値の差分(10名の平均値)を取った結果を示す。悲しみのコンテンツでは、Zスコアが正側に分布し、前頭部の報酬系抑制の効果が良く表れている。対して、喜びのコンテンツでは抑制が負、すなわち報酬系の活動が正常に保たれていることを示している。   Furthermore, when the same analysis as described above was performed when the sadness video content and the joy video content were viewed, the sadness video had a larger dNAT value in the frontal region than the occipital region, whereas the joyous video was in the frontal region. In comparison, the dNAT value of the occipital region tends to increase. FIG. 32 shows the difference in the Z-score value of the dNAT value for the latter half of the content that has a great influence on emotions in story development when viewing joyful video content and sadness content, with the frontal and occipital resting eyes open as controls ( The average value of 10 persons) is shown. In sad content, the Z score is distributed on the positive side, and the effect of suppressing the reward system of the frontal region is well expressed. On the other hand, the content of joy is negatively suppressed, that is, the reward-related activities are maintained normally.

[実施形態2]
本発明の他の1つの実施形態に係る感情推定装置のデータ処理ブロック図を図33に示す。図に示すように、まず各々の測定からデータを取得し(S2701、S2711、S2721)、脳波スコア(T3、T4、F7のZスコア平均、又は前頭部と後頭部のdNAT値のZスコアなど)、瞳孔径データ(瞳孔径スコア、注目度)、顔画像特徴量データ(基本6感情の感情度、感情レベル)を算出する(S2702、S2712、S2722)。瞳孔径データ及び顔画像特徴量データについては、算出されたデータについて確率パラメータ抽出を行う(S2713、S2723)。これらの各データにそれぞれの閾値θe、θp、θfにより閾値処理を行う(S2707、S2717、S2727)。ここでの閾値処理は、例えばそれぞれの閾値θe、θp、θf以上のデータと未満のデータで二値化する。二値化されたデータの論理積により得られた数値から感情推定を行う(S2742)。論理積は一例を示しただけであり、一般には、多数決論理等の論理関数で置き換えることもできる。なお瞳孔径データは、実施形態1と同様にして閾値処理の前又は後で遅延時間設定により、データに遅延がつけられる(S2714)。
[Embodiment 2]
FIG. 33 shows a data processing block diagram of the emotion estimation apparatus according to another embodiment of the present invention. As shown in the figure, first, data is acquired from each measurement (S2701, S2711, S2721), and an electroencephalogram score (Z score average of T3, T4, F7 or Z score of dNAT values of frontal and occipital) Then, pupil diameter data (pupil diameter score, attention level) and face image feature amount data (emotion level and emotion level of basic 6 emotions) are calculated (S2702, S2712, S2722). For pupil diameter data and face image feature data, probability parameters are extracted from the calculated data (S2713, S2723). Threshold processing is performed on each of these data using the respective threshold values θe, θp, and θf (S2707, S2717, S2727). In this threshold processing, for example, binarization is performed using data that is equal to or greater than the threshold values θe, θp, and θf. Emotion estimation is performed from the numerical value obtained by the logical product of the binarized data (S2742). The logical product is only an example, and in general, it can be replaced with a logical function such as majority logic. Note that the pupil diameter data is delayed by setting the delay time before or after threshold processing in the same manner as in the first embodiment (S2714).

本実施形態の例示の1つとして図33に示した各閾値パラメータをθe=0.5、θf=0、θp=0.6を閾値とし、閾値処理で二値化し、その論理積を用いた場合は図34、図35のようになる。図34は喜び動画視聴時、図35は悲しみ動画視聴時である。   As an example of the present embodiment, when the threshold parameters shown in FIG. 33 are the threshold values θe = 0.5, θf = 0, and θp = 0.6, and binarized by threshold processing, and the logical product is used, FIG. As shown in FIG. FIG. 34 shows a joy movie viewing time, and FIG. 35 shows a sadness movie viewing time.

論理演算を、積の演算とする場合には、3つの条件を満たした、より信頼性の高い処理結果を得ることができる。しかしながら、測定に閉眼時を含む場合には、瞳孔径計測から閉眼が確認された場合には、論理積の中で、瞳孔径から得られる論理出力は強制的に論理値を1とすることができる。また、顔画像から得られる表情スコアについても同様である。このような演算処理を行うことで、測定時間中に被験者が目を閉じた場合についても、脳波からの情報で、出力値を得ることができ、シームレスな測定が可能となる。   When the logical operation is a product operation, a more reliable processing result satisfying the three conditions can be obtained. However, when the measurement includes the time when the eye is closed, if the closed eye is confirmed from the pupil diameter measurement, the logical output obtained from the pupil diameter may be forcibly set to 1 in the logical product. it can. The same applies to the expression score obtained from the face image. By performing such arithmetic processing, even when the subject closes his eyes during the measurement time, an output value can be obtained from information from the electroencephalogram, and seamless measurement becomes possible.

[実施形態3]
本発明の1つの実施形態に係る感情推定装置のデータ処理ブロック図を図36に示す。図に示すように、まず各々の測定からデータを取得し(S2701、S2721)、脳波スコア(T3、T4、F7のZスコア平均、又は前頭部と後頭部のdNAT値のZスコアなど)、及び顔画像特徴量データ(基本6感情の感情度、感情レベル)を算出する(S2702、S2722)。顔画像特徴量データについては、算出されたデータについて確率パラメータ抽出を行う(S2723)。続いて横軸を表情スコア(例えばポジティブ感情度)、縦軸を脳波スコア(例えばβ波の喜び指標(T3、T4、F7のZスコア平均))とした座標に、時々刻々と変化する各被験者の2次元指標値(座標)を軌跡としてプロットする(S2743)。例えば図37aは喜びコンテンツ視聴時の2次元指標値表示であり、図37bは悲しみコンテンツ視聴時の2次元指標値表示である。2次元指標値は、悲しみ動画視聴時では点線の境界内に位置するのに対し、喜び動画視聴時ではほとんどが境界の外に位置する。各スコアをガウス分布と仮定しZスコアとすると、座標(x,y)の位置の確率密度はexp(x2/2)*exp(y2/2)に比例するため、表情スコアをx、脳波スコアをyとし、原点からの各二次元上の点までの距離r=(x2+y21/2を評価することで、被験者の感情が喜んでいるか悲しんでいるかを高精度で評価することができる。
[Embodiment 3]
A data processing block diagram of the emotion estimation apparatus according to one embodiment of the present invention is shown in FIG. As shown in the figure, first obtain data from each measurement (S2701, S2721), EEG score (Z score average of T3, T4, F7, or Z score of dNAT values of frontal and occipital), and Face image feature data (emotion level and emotion level of basic six emotions) is calculated (S2702, S2722). For the face image feature data, probability parameters are extracted from the calculated data (S2723). Subsequently, each subject that changes from moment to moment in coordinates with the abscissa representing facial expression score (eg positive emotion level) and the ordinate representing electroencephalogram score (eg β wave joy index (T score average of T3, T4, F7)) Are plotted as trajectories (S2743). For example, FIG. 37a is a two-dimensional index value display when viewing pleasure content, and FIG. 37b is a two-dimensional index value display when viewing sadness content. The two-dimensional index value is located within the boundary of the dotted line when viewing the sadness moving image, but is almost outside the boundary when viewing the joyful moving image. If each score and assuming Z score a Gaussian distribution, the coordinates (x, y) for the probability density of the position of which is proportional to exp (x 2/2) * exp (y 2/2), the expression scores x, Evaluate with high accuracy whether the subject's emotion is happy or sad by evaluating the distance r = (x 2 + y 2 ) 1/2 from the origin to each two-dimensional point with an electroencephalogram score y can do.

上記の実施形態のように、人が注目すると瞳孔径が拡大することを利用した瞳孔径変化による注目度判定、そして顔の表情計測による表出感情の判定を合わせることにより、脳波だけによる感情推定より幅広く、きめ細かい、正確な感情推定が可能になる。すなわち、本発明により、テレビや映画、広告等のコンテンツ評価、商品評価、店舗陳列評価等のマーケッティング評価等多くの応用が可能となる。   As in the above embodiment, emotion estimation using only brain waves is performed by combining attention determination based on pupil diameter change using the enlargement of the pupil diameter when a person pays attention and facial expression determination based on facial expression measurement. A wider, detailed, and accurate emotion estimation is possible. That is, according to the present invention, many applications such as content evaluation such as television, movie, and advertisement, product evaluation, and marketing evaluation such as store display evaluation are possible.

以上に説明した処理又は動作において、あるステップにおいて、そのステップではまだ利用することができないはずのデータを利用しているなどの処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。   In the process or operation described above, a process or operation can be freely performed at a certain step as long as there is no inconsistency in the process or operation such as using data that should not be used at that step. Can be changed. Moreover, each Example described above is the illustration for demonstrating this invention, and this invention is not limited to these Examples. The present invention can be implemented in various forms without departing from the gist thereof.

100 感情推定装置
110 コンピュータ
111 処理部
112 記憶部
113 通信部
120 入力装置
130 出力装置
140、200 脳活動測定装置
150 眼球撮影装置
160 表情測定用カメラ
201、211 電極
202 増幅器
203 マルチプレクサ
204 A/D変換器
210 頭部装着部
212 基準電極
213 固定具
214 プリアンプ
215 シールドケーブル
216 導電性ゴム電極
217 金属フィルム
220 3ch増幅器・帯域フィルタ
601 電極EA
602 電極EB
603 電極EC
700 3重相関評価装置
701 3ch脳電位増幅器
702 3chバンドパスフィルタ
703 3重相関値算出部
704 3重相関表示部
705 指標値算出部
DESCRIPTION OF SYMBOLS 100 Emotion estimation apparatus 110 Computer 111 Processing part 112 Storage part 113 Communication part 120 Input apparatus 130 Output apparatus 140, 200 Brain activity measuring apparatus 150 Eyeball imaging apparatus 160 Facial expression measurement camera 201, 211 Electrode 202 Amplifier 203 Multiplexer 204 A / D conversion Device 210 Head mounting part 212 Reference electrode 213 Fixing tool 214 Preamplifier 215 Shielded cable 216 Conductive rubber electrode 217 Metal film 220 3ch amplifier / band filter 601 Electrode EA
602 Electrode EB
603 Electrode EC
700 Triple Correlation Evaluation Device 701 3ch Brain Potential Amplifier 702 3ch Bandpass Filter 703 Triple Correlation Value Calculation Unit 704 Triple Correlation Display Unit 705 Index Value Calculation Unit

Claims (7)

被験者の感情を推定する感情推定装置であって、
前記被験者の脳電位信号を取得する脳電位信号取得手段と、
前記被験者の顔映像を取得する顔映像取得手段と、
前記被験者の瞳孔径を取得する瞳孔径取得手段と、
前記被験者の視認対象の明るさ情報を取得する明るさ情報取得手段と、
前記取得された瞳孔径、前記取得された明るさ情報、及び予め取得された明るさ情報と前記被験者の瞳孔径との対応関係に基づいて、前記視認対象の明るさの影響を消去した瞳孔径を表す注目度を算出し、
前記取得された顔映像の所定部位のそれぞれの位置の、予め設定された平常時における前記所定部位のそれぞれの位置からの変位量に基づいて、表情変化の度合いを表す顔画像特徴量を算出し、
取得された脳電位信号から抽出された脳活動に起因する特定の周波数帯の信号に基づいて脳電位データを算出し、並びに、
前記算出された注目度、顔画像特徴量、及び脳電位データに基づいて前記被験者の感情を推定する感情推定手段と、
を備える感情推定装置。
An emotion estimation device for estimating a subject's emotion,
A brain potential signal acquisition means for acquiring a brain potential signal of the subject;
Face image acquisition means for acquiring the subject's face image;
Pupil diameter obtaining means for obtaining the pupil diameter of the subject;
Brightness information acquisition means for acquiring brightness information of the visual recognition target of the subject;
Based on the acquired pupil diameter, the acquired brightness information, and the correspondence relationship between the previously acquired brightness information and the pupil diameter of the subject, the pupil diameter in which the influence of the brightness of the visual recognition target is eliminated Calculate the degree of attention that represents
Based on the amount of displacement of each position of the predetermined part of the acquired face image from the position of the predetermined part at a preset normal time, a facial image feature amount representing the degree of expression change is calculated. ,
Calculating brain potential data based on a signal in a specific frequency band resulting from brain activity extracted from the acquired brain potential signal; and
Emotion estimation means for estimating the subject's emotion based on the calculated attention level, facial image feature amount, and brain potential data;
Emotion estimation device comprising:
前記感情推定手段は、
前記算出された顔画像特徴量及び脳電位データ、並びに所定時間前の前記算出された注目度に基づいて前記被験者の感情を推定する、請求項1に記載の感情推定装置。
The emotion estimation means includes
The emotion estimation apparatus according to claim 1, wherein the subject's emotion is estimated based on the calculated face image feature quantity and brain potential data and the calculated attention level a predetermined time ago.
前記感情推定手段は、
前記算出された注目度と前記被験者の安静開眼時の注目度の平均値との差を当該安静開眼時の注目度の標準偏差で除した値である瞳孔径スコア、前記算出された顔画像特徴量と前記被験者の安静開眼時の顔画像特徴量の平均値との差を当該安静開眼時の顔画像特徴量の標準偏差で除した値である表情スコア、及び前記算出された脳電位データと前記被験者の安静開眼時の脳電位データの平均値との差を当該安静開眼時の脳電位データの標準偏差で除した値である脳波スコア、に基づいて前記被験者の感情を推定する請求項1又は2に記載の感情推定装置。
The emotion estimation means includes
The pupil diameter score, which is a value obtained by dividing the difference between the calculated degree of attention and the average value of the degree of attention when the subject's eyes are at rest with the standard deviation of the degree of attention when the eyes are at rest, the calculated facial image feature A facial expression score that is a value obtained by dividing the difference between the amount and the average value of the facial image feature amount when the subject's eyes are open with the standard deviation of the facial image feature amount when the eyes are open, and the calculated brain potential data 2. The emotion of the subject is estimated based on an electroencephalogram score, which is a value obtained by dividing a difference from an average value of brain potential data at the time of resting eyes of the subject by a standard deviation of the brain potential data at the time of resting eyes. Or the emotion estimation apparatus of 2.
前記感情推定手段は、
前記瞳孔径スコア、前記表情スコア、及び前記脳波スコアそれぞれにおける所定の閾値以上又は以下のデータのみを線形結合して生成された数値を用いて前記被験者の感情を推定する、請求項3に記載の感情推定装置。
The emotion estimation means includes
4. The emotion of the subject is estimated using a numerical value generated by linearly combining only data that is greater than or less than a predetermined threshold value in each of the pupil diameter score, the facial expression score, and the electroencephalogram score. Emotion estimation device.
前記感情推定手段は、
前記瞳孔径スコア、前記表情スコア、及び前記脳波スコアをそれぞれの所定の閾値を用いて二値化し、二値化されたそれぞれのデータの論理積を用いて前記被験者の感情を推定する、請求項3に記載の感情推定装置。
The emotion estimation means includes
The pupil diameter score, the facial expression score, and the electroencephalogram score are binarized using respective predetermined threshold values, and the subject's emotion is estimated using a logical product of the binarized data. 3. The emotion estimation apparatus according to 3.
前記脳電位信号取得手段は、
前記被験者の頭部表面の3つの異なる場所に取り付けられるセンサを用いて脳からの信号を取得するものであり、
前記感情推定手段は、
それぞれのセンサにおいて取得された脳電位信号から脳深部の活動に起因する特定の周波数帯の信号を抽出し、抽出された信号からサンプリング周期でデータを抽出し、
それぞれのセンサごとに抽出された3つの時系列データの位相関係に基づいて、それぞれのセンサにおいて取得された信号の相関関係を示す相関値を算出し、及び
算出された相関値に基づいて脳深部からの信号を解析して脳機能を判断するための指標値を算出し、当該指標値を脳電位データとして算出する、請求項1から5のいずれか1項に記載の感情推定装置。
The brain potential signal acquisition means includes
Obtaining signals from the brain using sensors attached to three different locations on the subject's head surface;
The emotion estimation means includes
Extract a specific frequency band signal resulting from deep brain activity from the brain potential signals acquired by each sensor, extract data from the extracted signal at the sampling period,
Based on the phase relationship of the three time-series data extracted for each sensor, a correlation value indicating the correlation of the signals acquired in each sensor is calculated, and the deep brain region is calculated based on the calculated correlation value. The emotion estimation apparatus according to any one of claims 1 to 5, wherein an index value for determining a brain function is calculated by analyzing a signal from, and the index value is calculated as brain potential data.
被験者の感情を推定する方法であって、
前記被験者の脳電位信号を取得するステップと、
前記被験者の顔映像を取得するステップと、
前記被験者の瞳孔径を取得するステップと、
前記被験者の視認対象の明るさ情報を取得するステップと、
前記取得された瞳孔径、前記取得された明るさ情報、及び予め取得された明るさ情報と前記被験者の瞳孔径との対応関係に基づいて、前記視認対象の明るさの影響を消去した瞳孔径を表す注目度を算出するステップと、
前記取得された顔映像の所定部位のそれぞれの位置の、予め設定された平常時における前記所定部位のそれぞれの位置からの変位量に基づいて、表情変化の度合いを表す顔画像特徴量を算出ステップと、
取得された脳電位信号から抽出された脳活動に起因する特定の周波数帯の信号に基づいて脳電位データを算出するステップと、
前記算出された注目度、顔画像特徴量、及び脳電位データに基づいて前記被験者の感情を推定するステップと、を有する感情推定方法。
A method for estimating a subject's emotion,
Obtaining a brain potential signal of the subject;
Obtaining a face image of the subject;
Obtaining a pupil diameter of the subject;
Obtaining brightness information of the visual recognition target of the subject;
Based on the acquired pupil diameter, the acquired brightness information, and the correspondence relationship between the previously acquired brightness information and the pupil diameter of the subject, the pupil diameter in which the influence of the brightness of the visual recognition target is eliminated Calculating a degree of attention that represents
A step of calculating a facial image feature amount representing a degree of expression change based on a displacement amount of each position of the predetermined portion of the acquired face image from each position of the predetermined portion in a preset normal time When,
Calculating brain potential data based on a signal in a specific frequency band resulting from brain activity extracted from the acquired brain potential signal;
Estimating the subject's emotion based on the calculated attention level, facial image feature quantity, and brain potential data.
JP2017505336A 2015-03-06 2016-03-07 Emotion estimation device and emotion estimation method Active JP6899989B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562129034P 2015-03-06 2015-03-06
US62/129,034 2015-03-06
PCT/JP2016/057041 WO2016143759A1 (en) 2015-03-06 2016-03-07 Emotion estimating device and emotion estimating method

Publications (2)

Publication Number Publication Date
JPWO2016143759A1 true JPWO2016143759A1 (en) 2017-12-14
JP6899989B2 JP6899989B2 (en) 2021-07-07

Family

ID=56880251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017505336A Active JP6899989B2 (en) 2015-03-06 2016-03-07 Emotion estimation device and emotion estimation method

Country Status (2)

Country Link
JP (1) JP6899989B2 (en)
WO (1) WO2016143759A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6880721B2 (en) * 2015-12-28 2021-06-02 ニプロ株式会社 Stress determination device, program and method
JP6834318B2 (en) * 2016-10-03 2021-02-24 ニプロ株式会社 Stress evaluation device and method
JP7098974B2 (en) * 2018-03-13 2022-07-12 ニプロ株式会社 Mood disorder measuring device and mood disorder measuring method
JP7359532B2 (en) * 2018-06-29 2023-10-11 大成建設株式会社 Helmet
WO2020194529A1 (en) 2019-03-26 2020-10-01 日本電気株式会社 Interest determination device, interest determination system, interest determination method, and non-transitory computer-readable medium having program stored therein
WO2022070821A1 (en) * 2020-09-29 2022-04-07 株式会社島津製作所 Biological information measurement system
US20230404393A1 (en) 2020-11-19 2023-12-21 Nippon Telegraph And Telephone Corporation Estimation device, estimation method, and estimation program
JPWO2022180852A1 (en) * 2021-02-26 2022-09-01
CN113052064B (en) * 2021-03-23 2024-04-02 北京思图场景数据科技服务有限公司 Attention detection method based on face orientation, facial expression and pupil tracking
CN113057633B (en) * 2021-03-26 2022-11-01 华南理工大学 Multi-modal emotional stress recognition method and device, computer equipment and storage medium
CN113397544B (en) * 2021-06-08 2022-06-07 山东第一医科大学附属肿瘤医院(山东省肿瘤防治研究院、山东省肿瘤医院) Patient emotion monitoring method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (en) * 2002-04-02 2003-10-14 Japan Tobacco Inc Sensation sensitivity evaluation system
JP2008246117A (en) * 2007-03-30 2008-10-16 Fujifilm Corp Image providing device, image providing method, and program
WO2011042989A1 (en) * 2009-10-09 2011-04-14 Kikuchi Kouichi Viewer's feeling determination device for visually-recognized scene
JP2014219937A (en) * 2013-05-10 2014-11-20 パナソニック株式会社 Taste determination system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003290179A (en) * 2002-04-02 2003-10-14 Japan Tobacco Inc Sensation sensitivity evaluation system
JP2008246117A (en) * 2007-03-30 2008-10-16 Fujifilm Corp Image providing device, image providing method, and program
WO2011042989A1 (en) * 2009-10-09 2011-04-14 Kikuchi Kouichi Viewer's feeling determination device for visually-recognized scene
JP2014219937A (en) * 2013-05-10 2014-11-20 パナソニック株式会社 Taste determination system

Also Published As

Publication number Publication date
JP6899989B2 (en) 2021-07-07
WO2016143759A1 (en) 2016-09-15

Similar Documents

Publication Publication Date Title
WO2016143759A1 (en) Emotion estimating device and emotion estimating method
Abdelrahman et al. Cognitive heat: exploring the usage of thermal imaging to unobtrusively estimate cognitive load
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
CN111651060B (en) Real-time evaluation method and evaluation system for VR immersion effect
Wunderlich et al. Eye movement‐related brain potentials during assisted navigation in real‐world environments
JP6856860B2 (en) Concentration ratio evaluation device, concentration evaluation method, and program
KR101689021B1 (en) System for determining psychological state using sensing device and method thereof
CN107809951A (en) (detecting a lie) method and apparatus are detected using the psychology physiological to distortion for going out physiological signal based on video detection
WO2014150684A1 (en) Artifact as a feature in neuro diagnostics
Quek et al. Ultra-coarse, single-glance human face detection in a dynamic visual stream
Al-Barrak et al. NeuroPlace: making sense of a place
CN109923529A (en) Information processing unit, information processing method and program
JP2021118908A (en) Stress determination apparatus, program, and method
Ladouce et al. Capturing cognitive events embedded in the real world using mobile electroencephalography and eye-tracking
Okada et al. Advertisement effectiveness estimation based on crowdsourced multimodal affective responses
van Beers et al. A comparison between laboratory and wearable sensors in the context of physiological synchrony
Masui et al. Measurement of advertisement effect based on multimodal emotional responses considering personality
Mavridou et al. Towards valence detection from EMG for Virtual Reality applications
CN111414835B (en) Detection and determination method for electroencephalogram signals caused by love impulsion
JP6834318B2 (en) Stress evaluation device and method
CN112957049A (en) Attention state monitoring device and method based on brain-computer interface equipment technology
WO2016013596A1 (en) Brain activity measurement device, program, and method
CN110569968A (en) Method and system for evaluating entrepreneurship failure resilience based on electrophysiological signals
JP2015039487A (en) Visual line analysis system and method using physiological index
Okamoto et al. Blind signal processing of facial thermal images based on independent component analysis

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180712

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6899989

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250