JP2022062574A - Estimation of state of brain activity from presented information of person - Google Patents

Estimation of state of brain activity from presented information of person Download PDF

Info

Publication number
JP2022062574A
JP2022062574A JP2020170682A JP2020170682A JP2022062574A JP 2022062574 A JP2022062574 A JP 2022062574A JP 2020170682 A JP2020170682 A JP 2020170682A JP 2020170682 A JP2020170682 A JP 2020170682A JP 2022062574 A JP2022062574 A JP 2022062574A
Authority
JP
Japan
Prior art keywords
brain
neural network
brain activity
expression information
activity state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020170682A
Other languages
Japanese (ja)
Inventor
昌宏 町澤
Masahiro Machizawa
成人 山脇
Shigeto Yamawaki
和也 目良
Kazuya Mera
寿幸 竹澤
Toshiyuki Takezawa
義明 黒澤
Yoshiaki Kurosawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima University NUC
Hiroshima City University
Original Assignee
Hiroshima University NUC
Hiroshima City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima University NUC, Hiroshima City University filed Critical Hiroshima University NUC
Priority to JP2020170682A priority Critical patent/JP2022062574A/en
Publication of JP2022062574A publication Critical patent/JP2022062574A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

To directly estimate the state of a brain activity from presented information and evaluate emotion and sensitivity on the basis of a result of the estimation.SOLUTION: A sensitivity evaluation system 100 comprises: a feature amount extraction unit 11 which extracts a feature amount from presented information of a user; a neural network 12 which estimates and outputs the state of the brain activity of the user when the user presents the presented information; a brain physiological index value calculation unit 13 which calculates at least one brain physiological index value related with sensitivity from the state of the brain activity output from the neural network 12; and a sensitivity evaluation value calculation unit 14 which calculates a sensitivity evaluation value of the user by substituting the brain physiological index value into a predetermined expression.SELECTED DRAWING: Figure 29

Description

本発明は、人の表出情報からその人の脳活動状態を推定する技術に関し、さらに、推定した脳活動状態から感情や感性を評価する技術に関する。 The present invention relates to a technique for estimating a person's brain activity state from the information expressed by the person, and further to a technique for evaluating emotions and sensibilities from the estimated brain activity state.

人が機械やコンピュータなどのモノを操作する場合、手や足などの身体の一部を使ってハンドル、レバー、ボタン、キーボード、マウスなどの補助デバイスを操作したり、発話やジェスチャーによりモノに意思を伝達するのが一般的である。近年、脳と機械とを直接接続して人が思った通りに機械を操作するBMI(Brain Machine Interface)あるいはBCI(Brain Computer Interface)と呼ばれる技術が研究開発されている。BMIあるいはBCIは、人の意思をモノに直接的に伝達できるようになることでモノの使い勝手の向上に期待されるほか、事故や病気によって運動機能や感覚機能などを失った人が自分の意思でモノを操作してモノを通じて他人と意思疎通を図ることができるようになる点で、医療や福祉の分野で期待されている。 When a person operates an object such as a machine or a computer, he or she uses a part of the body such as a hand or a foot to operate an auxiliary device such as a handle, a lever, a button, a keyboard, or a mouse. Is generally transmitted. In recent years, a technology called BMI (Brain Machine Interface) or BCI (Brain Computer Interface), which directly connects the brain and the machine and operates the machine as one wishes, has been researched and developed. BMI or BCI is expected to improve the usability of things by being able to directly convey people's intentions to things, and people who have lost their motor and sensory functions due to accidents or illnesses have their own intentions. It is expected in the fields of medical care and welfare in that it will be possible to communicate with others through things by manipulating things with.

人の無意識あるいは潜在意識、特に感性といった人の精神活動あるいは心の情報を読み取ることができれば、人に心に優しいモノづくりやサービス提供が可能になる。例えば、対象物に対して人が抱く感性を客観的に検出し、または予測することができれば、そのような感性を発揮させるような対象物を事前にデザインすることができる。さらに、読み取った感性の情報は、人の心のケアや人と人とのコミュニケーションに活かすこともできる。本発明者らは、人の感性を読み取り、感性情報を介して人と人、ヒトとモノを繋ぐBEI(Brain Emotion Interface)の開発を目指している。 If we can read information about people's mental activities or minds, such as their unconsciousness or subconsciousness, especially their sensibilities, it will be possible to manufacture and provide services that are kind to people. For example, if it is possible to objectively detect or predict a person's sensibility for an object, it is possible to design an object that exerts such sensibility in advance. Furthermore, the read sensibility information can be used for mental care of people and communication between people. The present inventors aim to develop a BEI (Brain Emotion Interface) that reads human sensibilities and connects people to people and people to things through sensibility information.

BEIを実現するには脳情報が必要となるところ、脳情報として脳波(Electroencephalogram:EEG)がよく用いられる。しかし、脳波を計測するには接触型脳計測装置が必要になるが、日常生活において装置を装着し続けることはユーザに対して大きな負担になるという問題がある。そこで、本発明者は、脳計測情報から推定される話者感情を、脳計測情報の代わりに発話音声の音響的特徴と発話時の表情遷移を用いて推定する手法を開発した(非特許文献1を参照)。 Where brain information is required to realize BEI, electroencephalogram (EEG) is often used as brain information. However, although a contact-type brain measuring device is required to measure brain waves, there is a problem that it is a heavy burden on the user to keep wearing the device in daily life. Therefore, the present inventor has developed a method of estimating the speaker emotion estimated from the brain measurement information by using the acoustic characteristics of the spoken voice and the facial expression transition at the time of speech instead of the brain measurement information (Non-Patent Document). See 1).

目良 和也、外4名、“脳計測情報の代用としての発話音声と表情からの感情推定手法”、[online]、2020年6月8日、2020年度第34回人工知能学会全国大会論文集Kazuya Mera, 4 outsiders, "Emotion estimation method from spoken voice and facial expression as a substitute for brain measurement information", [online], June 8, 2020, 2020 34th Annual Meeting of the Japanese Society for Artificial Intelligence collection

上記先行研究では、被験者の発話音声や表情といった表出情報から他己評価に基づいて被験者の感情や感性を評価し、当該他己評価結果を教師信号として学習させた機械学習機を用いて被験者の発話音声および表情からの感情推定を試みている。しかし、他己評価された感情や感性は本人の主観を十分正確に反映しているとは言えず、他己評価の感情や感性を教師信号として学習させた機械学習機により推定される感情や感性は、本人評価の感情や感性から多分にずれており、機械学習機の推定精度は十分とは言えなかった。 In the above-mentioned previous study, the subject was evaluated using the subject's emotions and sensibilities based on the evaluation of the other person from the expression information such as the voice and facial expression of the subject, and the subject was trained using the other person's evaluation result as a teacher signal. I am trying to estimate emotions from the spoken voice and facial expressions. However, it cannot be said that the emotions and sensibilities evaluated by others accurately reflect the subjectivity of the person, and the emotions and sensibilities estimated by the machine learning machine that learned the emotions and sensibilities of others as teacher signals. The sensibility was probably different from the emotions and sensibilities of the person's evaluation, and the estimation accuracy of the machine learning machine was not sufficient.

かかる問題に鑑み、本発明は、本人の主観さらに本人も無意識のうちに感じている感情や感性を反映する脳活動状態を直接推定して、その推定結果に基づいて感情や感性を評価することを課題とする。 In view of this problem, the present invention directly estimates the brain activity state that reflects the emotions and sensibilities that the person himself / herself feels unconsciously, and evaluates the emotions / sensibilities based on the estimation results. Is the subject.

本発明の一局面に従うと、人の表出情報から抽出された特徴量が入力される入力層と、前記表出情報を表出したときのその人の脳活動状態を出力する出力層と、人の表出情報から抽出された特徴量と当該表出情報を表出したときのその人の脳活動状態とを対応付けた教師データを用いて重み係数が学習された中間層とを備え、前記入力層に入力された人の表出情報から抽出された特徴量に対し、前記中間層における学習済み重み係数に基づく演算を行なって、前記出力層から、当該表出情報を表出したときのその人の脳活動状態を出力するニューラルネットワークが提供される。 According to one aspect of the present invention, an input layer in which a feature amount extracted from a person's expression information is input, an output layer that outputs the person's brain activity state when the expression information is expressed, and an output layer. It is equipped with an intermediate layer in which the weighting coefficient is learned using teacher data that associates the feature amount extracted from the expression information of a person with the brain activity state of the person when the expression information is expressed. When the feature quantity extracted from the expression information of the person input to the input layer is calculated based on the learned weight coefficient in the intermediate layer and the expression information is expressed from the output layer. A neural network is provided that outputs the brain activity state of the person.

さらに、本発明の別局面に従うと、ユーザの表出情報から特徴量を抽出する特徴量抽出部と、前記特徴量が入力され、前記表出情報を表出したときの前記ユーザの脳活動状態を推定して出力するニューラルネットワークと、前記ニューラルネットワークから出力される脳活動状態から感性に関連する少なくとも一つの脳生理指標値を算出する脳生理指標値算出部と、前記脳生理指標値を所定の式に代入して前記ユーザの感性評価値を算出する感性評価値算出部と、を備えた感性評価システムが提供される。 Further, according to another aspect of the present invention, a feature amount extraction unit that extracts a feature amount from the user's expression information and a brain activity state of the user when the feature amount is input and the expression information is displayed. A neural network that estimates and outputs, a brain physiology index value calculation unit that calculates at least one brain physiology index value related to sensitivity from the brain activity state output from the neural network, and the brain physiology index value are predetermined. Provided is a sensitivity evaluation system including a sensitivity evaluation value calculation unit for calculating the sensitivity evaluation value of the user by substituting into the equation of.

本発明によると、脳計測装置を用いることなく、すなわち非接触で、より手軽に、表出情報から本人の脳活動状態を直接推定することができる。さらに、その推定結果に基づいて感情や感性を評価することができる。 According to the present invention, it is possible to directly estimate the brain activity state of a person from the displayed information without using a brain measuring device, that is, without contact, more easily. Furthermore, emotions and sensibilities can be evaluated based on the estimation results.

情動、感情、感性の関係を表す模式図Schematic diagram showing the relationship between emotions, emotions, and sensibilities 発明者が提唱する感性多軸モデルの模式図Schematic diagram of the Kansei multi-axis model proposed by the inventor 感性多軸モデルの各軸に関連する関心領域を説明する図Diagram illustrating regions of interest associated with each axis of the Kansei multi-axis model 快反応時のさまざまなfMRI画像を示す図The figure which shows various fMRI images at the time of a pleasant reaction. 快反応時のfMRI画像およびEEG信号源をプロットした脳矢状断面を示す図The figure which shows the brain sagittal section which plotted the fMRI image and the EEG signal source at the time of a pleasant reaction. 関心領域(快反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図The figure which shows the result of time-frequency analysis of the signal of the EEG signal source of the region of interest (the posterior cingulate gyrus at the time of a pleasant reaction). 活性反応性時のfMRI画像およびEEG信号源をプロットした脳矢状断面を示す図The figure which shows the brain sagittal section which plotted the fMRI image and the EEG signal source at the time of active reactivity. 関心領域(活性反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図The figure which shows the result of time-frequency analysis of the signal of the EEG signal source of the region of interest (the posterior cingulate gyrus at the time of an active reaction). 快/不快の刺激画像呈示実験の概要を説明する図Figure explaining the outline of the pleasant / unpleasant stimulus image presentation experiment 快画像予期時および不快画像予期時の各fMRI画像を示す図The figure which shows each fMRI image at the time of a pleasant image anticipation and an unpleasant image anticipation 快画像予期時と不快画像予期時のEEG信号の差分における信号源をプロットした脳矢状断面(頭頂葉部分)および当該部分のEEG信号の時間周波数分布を示す図The figure which shows the time frequency distribution of the EEG signal of the electroencephalogram-shaped cross section (parietal lobe part) which plotted the signal source in the difference between the EEG signal at the time of a pleasant image and the time of an unpleasant image. 快画像予期時と不快画像予期時のEEG信号の差分における信号源をプロットした脳矢状断面(視覚野)および当該部分のEEG信号の時間周波数分布を示す図A diagram showing the time-frequency distribution of the EEG signal in the brain sagittal section (visual cortex) plotting the signal source in the difference between the EEG signal at the time of expectation of the pleasant image and the time of the unpleasant image. 主観心理軸決定のための自己評価の一例を示す図A diagram showing an example of self-evaluation for determining the subjective psychological axis 関心領域の脳波独立成分および周波数帯域を特定するフローチャートFlowchart to identify EEG independent components and frequency bands in the region of interest 脳波信号の独立成分分析で抽出された各独立成分における信号強度分布を表したコンポーネント(脳波トポグラフィ)を示す図The figure which shows the component (electroencephalogram topography) which showed the signal intensity distribution in each independent component extracted by the independent component analysis of an electroencephalogram signal. 独立信号成分の信号源の推定位置をプロットした脳矢状断面図Sagittal section of the brain plotting the estimated position of the signal source of the independent signal component 快・不快反応時のfMRI画像を示す図The figure which shows the fMRI image at the time of a pleasant / unpleasant reaction EEG信号源の信号を時間周波数解析した結果を示す図The figure which shows the result of time-frequency analysis of the signal of an EEG signal source. 脳波を用いた感性のリアルタイム評価のフローチャートFlowchart of real-time evaluation of sensitivity using brain waves 脳波信号の独立成分分析で抽出された各独立成分における信号強度分布を表したコンポーネント(脳波トポグラフィ)を示す図The figure which shows the component (electroencephalogram topography) which showed the signal intensity distribution in each independent component extracted by the independent component analysis of an electroencephalogram signal. 関心領域に関連する独立成分として特定されたコンポーネントを示す図Diagram showing a component identified as an independent component associated with a region of interest 特定された独立成分についての時間周波数解析の結果を示す図Figure showing the result of time frequency analysis for the identified independent component 推定された快/不快軸の値を示す模式図Schematic diagram showing estimated pleasant / unpleasant axis values 推定された活性/非活性軸および期待感軸の各値を示す模式図Schematic diagram showing each value of the estimated active / inactive axis and expected feeling axis 本発明の概念を説明する図The figure explaining the concept of this invention 表出情報の一つである発話音声から音響的特徴量を抽出する例を説明する図The figure explaining the example which extracts the acoustic feature quantity from the utterance voice which is one of the expression information. 表出情報の一つである表情から表情遷移特徴量を抽出する例を説明する図A diagram illustrating an example of extracting facial expression transition features from facial expressions, which is one of the expression information. 本発明に係る脳活動状態推定に好適なニューラルネットワークの模式図Schematic diagram of a neural network suitable for estimating the brain activity state according to the present invention. 本発明の一実施形態に係る感性評価システムのブロック図Block diagram of sensitivity evaluation system according to one embodiment of the present invention

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本発明を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters and duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessary redundancy of the following description and to facilitate the understanding of those skilled in the art. It should be noted that the inventor intends to limit the subject matter described in the claims by those skilled in the art by providing the accompanying drawings and the following description in order to fully understand the present invention. not.

本発明に係る脳活動状態推定は人の表出情報からその人の脳活動状態を推定できる点で感情や感性の評価・可視化に好適である。以下、感性の評価・可視化への応用を例に本発明の実施形態について説明する。 The brain activity state estimation according to the present invention is suitable for evaluation and visualization of emotions and sensibilities in that the brain activity state of a person can be estimated from the information expressed by the person. Hereinafter, embodiments of the present invention will be described by taking an application to evaluation and visualization of sensitivity as an example.

1.感性の定義
人は何かを見たり、聞いたり、あるいは何かに触れたり、触れられたりしたときに、わくわくしたり、うきうきしたり、はらはらしたり、どきどきしたりする。これらは、単なる情動や感情と異なり、運動神経および感覚神経を含む体性神経系を通して脳に入ってくる外受容感覚、交感神経および副交感神経を含む自律神経系、それに基づく内受容感覚、さらには記憶や経験などが深く関与した複雑で高次の脳活動によってもたらされていると考えられる。
1. 1. Definition of sensibility When a person sees, hears, or touches or is touched by something, he or she is excited, excited, excited, or throbbing. These are different from mere emotions and emotions, such as external receptive sensations that enter the brain through the somatic nervous system including motor and sensory nerves, autonomic nervous system including sympathetic and parasympathetic nerves, and internal receptive sensations based on them. It is thought to be caused by complex and higher-order brain activity that is deeply involved in memory and experience.

本発明では、わくわく、うきうき、はらはら、どきどきなどの感情あるいは情動とは異なる複雑な高次脳機能を広く「感性」として捉える。すなわち、本発明において、感性を、外受容感覚情報(体性神経系)と内受容感覚情報(自律神経系)を統合し、過去の経験、記憶と照らし合わせて生じる情動反応を、より上位のレベルで俯瞰する高次脳機能と定義する。換言すると、感性は、予測(イメージ)と結果(感覚情報)とのギャップを経験・知識と比較することによって直感的に“はっ”と気付く高次脳機能であると言える。 In the present invention, complex higher brain functions different from emotions or emotions such as excitement, excitement, harara, and pounding are broadly regarded as "sensitivity". That is, in the present invention, the sensibility is integrated with the externally receptive sensory information (somatic nervous system) and the internal receptive sensation information (autonomic nervous system), and the emotional response generated in comparison with the past experience and memory is higher. It is defined as higher brain function that gives a bird's-eye view at the level. In other words, sensibility is a higher brain function that intuitively notices "haha" by comparing the gap between prediction (image) and result (sensory information) with experience / knowledge.

ここで、情動、感情、および感性の3つの概念を整理する。図1は情動、感情、感性の関係を表す模式図である。情動は外界からの刺激などによって引き起こされる無意識的・本能的な脳機能であり、3つの中で最も低次の脳機能である。感情は情動を意識化したより高次の脳機能である。そして、感性は経験・知識も反映したヒト特有の脳機能であり、3つの中で最も高次の脳機能である。 Here, the three concepts of emotion, emotion, and sensibility are organized. FIG. 1 is a schematic diagram showing the relationship between emotions, emotions, and sensibilities. Affect is an unconscious and instinctive brain function caused by stimuli from the outside world, and is the lowest of the three brain functions. Emotions are higher brain functions that are emotionally conscious. Sensitivity is a human-specific brain function that reflects experience and knowledge, and is the highest-order brain function among the three.

このような高次脳機能である感性の全体像を把握するには、種々の観点あるいは側面から総合的に感性を捉える必要がある。 In order to grasp the whole picture of sensibility, which is such a higher brain function, it is necessary to comprehensively grasp sensibility from various viewpoints or aspects.

例えば、人が快い、快適、あるいは心地よいと感じているか、あるいは反対に人が気持ち悪い、不快、あるいは心地よくないと感じているかといった「快/不快」の観点あるいは側面から感性を捉えることができる。 For example, sensibilities can be grasped from the viewpoint or aspect of "pleasant / unpleasant", such as whether a person feels comfortable, comfortable, or comfortable, or conversely, whether a person feels unpleasant, unpleasant, or uncomfortable.

また、例えば、人が覚醒、興奮、あるいは活性状態にあるか、あるいは反対に人がぼんやり、沈静、あるいは非活性状態にあるかといった「活性/非活性」の観点あるいは側面から感性を捉えることができる。 It is also possible to capture sensibilities from an "active / inactive" perspective or aspect, such as whether a person is awake, agitated, or active, or conversely, a person is vague, calm, or inactive. can.

また、例えば、人が何かを期待あるいは予期してわくわくしているか、あるいは期待が外れてがっかりしているかといった「期待感」の観点あるいは側面から感性を捉えることができる。 In addition, for example, it is possible to grasp the sensibility from the viewpoint or aspect of "expectation" such as whether a person is expecting or anticipating something and is excited, or disappointing and disappointed.

快/不快および活性/非活性を2軸に表したラッセル(Russell)の円環モデルが知られている。感情はこの円環モデルで表すことができる。しかし、感性は予測(イメージ)と結果(感覚情報)とのギャップを経験・知識と比較する高次脳機能であるので、快/不快および活性/非活性の2軸からなる既存の円環モデルでは十分に表し得ないと本発明者は考える。そこで、本発明者は、ラッセルの円環モデルに、時間軸(例えば、期待感)を第3軸として加えた感性多軸モデルを提唱する。 Russell's annulus model, which represents pleasant / unpleasant and active / inactive on two axes, is known. Emotions can be represented by this annulus model. However, since sensitivity is a higher brain function that compares the gap between prediction (image) and result (sensory information) with experience / knowledge, it is an existing annular model consisting of two axes: pleasant / unpleasant and active / inactive. The present inventor thinks that this cannot be sufficiently expressed. Therefore, the present inventor proposes a Kansei multi-axis model in which a time axis (for example, a feeling of expectation) is added as a third axis to Russell's annulus model.

図2は、本発明らが提唱する感性多軸モデルの模式図である。感性多軸モデルは、例えば、「快/不快」を第1軸、「活性/非活性」を第2軸、「時間(期待感)」を第3軸として表すことができる。感性を多軸モデル化することのメリットは、各軸について評価値を算出し、それらを総合することで、漠然と広い概念の感性を定量的に評価する、すなわち、可視化することができる点にある。 FIG. 2 is a schematic diagram of the Kansei multi-axis model proposed by the present inventions. In the Kansei multi-axis model, for example, "pleasant / unpleasant" can be represented as the first axis, "active / inactive" as the second axis, and "time (expected feeling)" as the third axis. The merit of multi-axis modeling of sensibilities is that by calculating evaluation values for each axis and integrating them, it is possible to quantitatively evaluate, that is, visualize, the sensibilities of a vaguely broad concept. ..

この高次脳機能である感性を正確に評価することができれば、ヒトとモノを繋ぐBEI技術の確立に繋がる。そして、多様な分野で感性情報を活用して新価値を創造して、新しい価値を生み出すことができる。例えば、使えば使うほどヒトの思いに的確に反応し、喜び、やる気、愛情などの精神的価値が成長する製品・システムの創出を通してBEI技術の社会実装を実現することができると考えられる。 If the sensitivity, which is a higher brain function, can be accurately evaluated, it will lead to the establishment of BEI technology that connects humans and things. Then, it is possible to create new value by utilizing Kansei information in various fields. For example, it is thought that social implementation of BEI technology can be realized through the creation of products and systems that respond more accurately to human thoughts and grow mental values such as joy, motivation, and affection as they are used.

2.関心領域の特定
快/不快、活性/非可性、および期待感の各脳反応に伴い、脳のどの部位が活動するかをfMRIとEEGにより測定した結果について説明する。この測定結果は、感性を可視化、数値化する上での基礎データになり、極めて重要な位置づけにある。
2. 2. Identification of the region of interest The results of fMRI and EEG measurement of which part of the brain is active in response to each of the pleasant / unpleasant, active / non-possible, and anticipatory brain responses will be described. This measurement result serves as basic data for visualizing and quantifying sensibilities, and is extremely important.

fMRIとは、ある心的過程と特定の脳構造を非侵襲的に対応づける脳機能画像法の一つであり、神経活動に伴う局所脳血流の酸素レベルに依存した信号強度を計測するものである。そのためfMRIはBOLD(Blood Oxygen Level Dependent)法とも呼ばれる。 fMRI is one of the brain function imaging methods that non-invasively associates a certain mental process with a specific brain structure, and measures the signal intensity depending on the oxygen level of local cerebral blood flow associated with neural activity. Is. Therefore, fMRI is also called BOLD (Blood Oxygen Level Dependent) method.

脳の中で神経細胞の活動が生じると多くの酸素が要求されるため、脳血流を通して酸素と結合した酸化ヘモグロビン(oxyhemoglobin)が局所において流れ込んでくる。そのときに神経細胞の酸素摂取を上回る酸素が供給され、結果として酸素を運び終えた還元型ヘモグロビン(deoxyhemoglobin)が局所において相対的に減少することになる。この還元型ヘモグロビンは磁気的性質を持ち、血管周囲の磁場の局所的不均一性を引き起こす。fMRIは、このような酸素との結合関係に応じて磁気的性質を変化させるヘモグロビンの特徴を利用して、神経細胞の活動に伴う脳血流の酸素化バランスの局所的変化によって二次的に起こる信号増強を捉えるものである。現在では、局所的な脳血流の変化を全脳にわたり、数ミリメートル程度の空間的解像度で、秒単位で計測することが可能である。 Since a large amount of oxygen is required when the activity of nerve cells occurs in the brain, oxidative hemoglobin (oxyhemoglobin) bound to oxygen flows locally through the cerebral bloodstream. At that time, oxygen is supplied in excess of the oxygen intake of nerve cells, and as a result, reduced hemoglobin (deoxyhemoglobin) that has finished carrying oxygen is relatively reduced locally. This reduced hemoglobin has magnetic properties and causes local non-uniformity of the magnetic field around the blood vessel. fMRI utilizes the characteristics of hemoglobin, which changes its magnetic properties according to the binding relationship with oxygen, and is secondary to the local change in the oxygenation balance of cerebral blood flow associated with the activity of nerve cells. It captures the signal enhancement that occurs. At present, it is possible to measure local changes in cerebral blood flow over the entire brain in seconds with a spatial resolution of about several millimeters.

図3は、感性多軸モデルの各軸に関連する関心領域を説明する図であり、各軸に関連する脳反応についてfMRIとEEGにより測定した結果を示す。図3において、快・不快軸、活性・非活性軸のfMRI画像、EEG画像は、それぞれ、快反応時と不快反応時、活性反応時と非活性反応時との差分(変化分)を示すものである。また、期待感軸のfMRI画像は快画面予期反応時のものであり、EEG画像は快画像予期反応時と不快画像予期反応時との差分を示すものである。 FIG. 3 is a diagram illustrating a region of interest related to each axis of the Kansei multi-axis model, and shows the results of measurement of brain reactions related to each axis by fMRI and EEG. In FIG. 3, the fMRI image and the EEG image of the pleasant / unpleasant axis, the active / inactive axis show the difference (change) between the pleasant reaction and the unpleasant reaction, and the active reaction and the inactive reaction, respectively. Is. Further, the fMRI image of the expected feeling axis is the one at the time of the pleasant screen expected reaction, and the EEG image shows the difference between the time of the pleasant image expected reaction and the time of the unpleasant image expected reaction.

図3に示したように、「快・不快」と「活性・非活性」反応時には帯状回が活動していることがfMRIおよびEEGの測定結果から示され、「期待感」反応時にはfMRIおよびEEGの測定結果から、頭頂葉、視覚野において脳活動があることが示される。 As shown in FIG. 3, the measurement results of fMRI and EEG show that the cingulate gyrus is active during the “pleasant / unpleasant” and “active / inactive” reactions, and fMRI and EEG during the “expected” reaction. From the measurement results of, it is shown that there is brain activity in the parietal lobe and the visual cortex.

図3に示した感性多軸モデルの各軸に関連する関心領域は、fMRIおよびEEGを用いたさまざまな条件下での脳反応の観測実験を通じて得られた知見である。以下、その観測実験について具体的に説明する。 The region of interest related to each axis of the Kansei multi-axis model shown in FIG. 3 is the findings obtained through observation experiments of brain reactions under various conditions using fMRI and EEG. Hereinafter, the observation experiment will be specifically described.

(1)快/不快時の脳反応について
まず、国際感情画像システム(International Affective Picture System:IAPS)から抽出した快画像(例えば、愛くるしいアザラシの赤ちゃん画像)と不快画像(例えば、危険な産業廃棄物画像)を27名の実験参加者に提示することにより、実験参加者の快/不快時の脳反応を観察する。
(1) Brain reaction during pleasant / unpleasant first, pleasant images (for example, images of lovely baby lizards) and unpleasant images (for example, dangerous industrial waste) extracted from the International Affective Picture System (IAPS). By presenting the image) to 27 experimental participants, the brain reaction during pleasant / unpleasant times of the experimental participants is observed.

図4は、快反応時のさまざまなfMRI画像(脳の矢状断、冠状断、および水平断の各fMRI断面画像)を示す図である。図4において、不快反応時(不快画像を見た場合)と比較して快反応時(快画像を見た場合)に顕著に反応した領域に○印を付している。図4から明らかなように、快反応時には、後帯状回、視野野、線条体、眼窩前頭前野が賦活する。 FIG. 4 is a diagram showing various fMRI images during a pleasant reaction (each fMRI cross-sectional image of a sagittal section, a coronal section, and a horizontal section of the brain). In FIG. 4, the regions that responded significantly during the pleasant reaction (when the pleasant image was viewed) as compared with the unpleasant reaction (when the unpleasant image was viewed) are marked with a circle. As is clear from FIG. 4, the posterior cingulate gyrus, visual cortex, striatum, and orbital prefrontal cortex are activated during a pleasant reaction.

図5は、快反応時のfMRI画像およびEEG信号源をプロットした脳矢状断面を示す図である。図5において、不快反応時と比較して快反応時に顕著に反応した領域に○印を付している。図5からわかるように、快反応時には後帯状回を含む領域の脳活動がfMRIとEEGの観測結果で共通している。この結果から、帯状回を含む領域を快/不快反応時の関心領域として特定することができる。 FIG. 5 is a diagram showing an electroencephalogram-shaped cross section plotting an fMRI image and an EEG signal source during a pleasant reaction. In FIG. 5, the regions that responded significantly during the pleasant reaction as compared with the unpleasant reaction are marked with a circle. As can be seen from FIG. 5, during the pleasant reaction, the brain activity in the region including the posterior cingulate gyrus is common to the observation results of fMRI and EEG. From this result, the region including the cingulate gyrus can be specified as the region of interest during a pleasant / unpleasant reaction.

図6は、関心領域(快反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図である。図6左側は、関心領域(快反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図である。図6右側は快反応時と不快反応時の差分を示す。図6右側において色の濃い部分は差分が大きいことを表す。このEEGの測定結果から、快反応時には関心領域のθ帯域の反応が関与していることがわかる。 FIG. 6 is a diagram showing the results of time-frequency analysis of the signal of the EEG signal source in the region of interest (posterior cingulate gyrus during a pleasant reaction). The left side of FIG. 6 is a diagram showing the result of time-frequency analysis of the signal of the EEG signal source in the region of interest (posterior cingulate gyrus during a pleasant reaction). The right side of FIG. 6 shows the difference between the pleasant reaction and the unpleasant reaction. On the right side of FIG. 6, the dark part indicates that the difference is large. From the measurement results of this EEG, it can be seen that the reaction in the θ band of the region of interest is involved in the pleasant reaction.

(2)活性/非活性時の脳反応について
IAPSから抽出した活性画像(例えば、美味しそうな寿司の画像)および非活性画像(例えば、静かな田園にたたずむ館の画像)を27名の実験参加者に提示することにより、実験参加者の活性/非活性時の脳反応を観察する。
(2) Brain reaction during active / inactive activity 27 people participated in the experiment with active images (for example, images of delicious sushi) and inactive images (for example, images of a mansion standing in a quiet countryside) extracted from IAPS. By presenting to the person, the brain reaction during active / inactive state of the experimental participants is observed.

図7は、活性反応時のfMRI画像およびEEG信号源をプロットした脳矢状断面を示す図である。図7において、非活性反応時(非活性画像を見た場合)と比較して活性反応時(活性画像を見た場合)に顕著に反応した領域に○印を付している。図7からわかるように、活性反応時には後帯状回を含む領域の脳活動がfMRIとEEGの観測結果で共通している。この結果から、帯状回を含む領域を活性/非活性反応時の関心領域として特定することができる。 FIG. 7 is a diagram showing an electroencephalogram-shaped cross section plotting an fMRI image and an EEG signal source during an active reaction. In FIG. 7, the regions markedly reacted during the active reaction (when the active image is viewed) as compared with the inactive reaction (when the inactive image is viewed) are marked with a circle. As can be seen from FIG. 7, during the active reaction, the brain activity in the region including the posterior cingulate gyrus is common to the observation results of fMRI and EEG. From this result, the region including the cingulate gyrus can be specified as the region of interest during the active / inactive reaction.

図8は、関心領域(活性反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図である。図8左側は、関心領域(活性反応時の後帯状回)のEEG信号源の信号を時間周波数解析した結果を示す図である。図8右側は活性反応時と非活性反応時の差分を示す。図8右側において色の濃い部分は差分が大きいことを表す。このEEGの測定結果から、活性反応時には関心領域のβ帯域の反応が関与していることがわかる。 FIG. 8 is a diagram showing the results of time-frequency analysis of the signal of the EEG signal source in the region of interest (posterior cingulate gyrus during the active reaction). The left side of FIG. 8 is a diagram showing the result of time-frequency analysis of the signal of the EEG signal source in the region of interest (posterior cingulate gyrus during the active reaction). The right side of FIG. 8 shows the difference between the active reaction and the inactive reaction. On the right side of FIG. 8, the dark part indicates that the difference is large. From the measurement results of this EEG, it can be seen that the reaction in the β band of the region of interest is involved in the active reaction.

(3)期待時の脳反応について
まず、27名の実験参加者に対して、情動を喚起する刺激画像を呈示し、画像を視認しているときの実験参加者の感情状態を評定させる実験を行う。刺激画像として、IAPSから抽出した情動を喚起するカラー画像80枚を用いる。そのうち40枚が快さを喚起する画像(快画像)であり、残りの40枚が不快を喚起する画像(不快画像)である。
(3) Brain reaction at the time of expectation First, an experiment was conducted in which 27 experimental participants were presented with a stimulating image that evoked emotions and the emotional state of the experimental participants was evaluated when the image was visually recognized. conduct. As the stimulating image, 80 color images extracted from IAPS that evoke emotions are used. Of these, 40 are images that evoke pleasure (pleasant images), and the remaining 40 are images that evoke discomfort (discomfort images).

図9は、快/不快の刺激画像呈示実験の概要を説明する図である。刺激画像は、短いトーン音(Cue)を0.25秒間鳴らして、その3.75秒後に4秒間だけ呈示する。そして、呈示された画像を快いと感じたか、不快と感じたかを被験者にボタンで回答してもらう。ただし、低いトーン音(500Hz)が鳴った後には必ず快画像が呈示される。高いトーン音(4000Hz)が鳴った後には必ず不快画像が呈示される。そして、中くらいのトーン音(1500Hz)が鳴った後には、50%の確率で快画像または不快画像が呈示される。 FIG. 9 is a diagram illustrating an outline of a pleasant / unpleasant stimulus image presentation experiment. The stimulus image is presented with a short tone sound (Cue) for 0.25 seconds and 3.75 seconds later for only 4 seconds. Then, the subject is asked to answer with a button whether the presented image is pleasant or unpleasant. However, a pleasant image is always presented after the low tone sound (500 Hz) is heard. An unpleasant image is always presented after a high tone sound (4000 Hz). Then, after the medium tone sound (1500 Hz) is heard, there is a 50% probability that a pleasant image or an unpleasant image is presented.

この実験において、いずれかのトーン音がなってから画像が呈示されるまでの4秒間は実験参加者が次に起こるであろうこと(この実験の場合には、快画像または不快画像が呈示されること)を予期している期間であり、この予期時における脳活動を観測した。例えば、低いトーン音が鳴ったとき、実験参加者は快画像が呈示されることを予期する「快画像予期」の状態にあり、高いトーン音が鳴ったとき、不快画像が呈示されることを予期する「不快画像予期」の状態にある。一方、中くらいのトーン音が鳴ったとき、実験参加者は快画像および不快画像のいずれが呈示されるのかがわからない「快・不快予期不可」の状態にある。 In this experiment, the next 4 seconds between the sound of one of the tones and the presentation of the image will occur next to the experiment participants (in the case of this experiment, a pleasant or unpleasant image is presented. This is the period in which we are expecting, and we observed the brain activity at this time. For example, when a low tone sound is heard, the experiment participants are in a state of "pleasant image expectation" in which a pleasant image is expected to be presented, and when a high tone sound is heard, an unpleasant image is presented. You are in the expected "unpleasant image anticipation" state. On the other hand, when the medium tone sound is heard, the experiment participants are in a "pleasant / unpleasant unpredictable" state in which it is not known whether the pleasant image or the unpleasant image is presented.

図10は、快画像予期時および不快画像予期時の各fMRI画像(脳の矢状断および水平断の各fMRI断面画像)を示す図である。図10の○印部分から明らかなように、fMRIでは快画像予期時と不快画像予期時には、頭頂葉、視覚野、島皮質を含む脳領域が関与していることがわかる。 FIG. 10 is a diagram showing each fMRI image (each fMRI cross-sectional image of a sagittal section and a horizontal section of the brain) at the time of expectation of a pleasant image and the time of expectation of an unpleasant image. As is clear from the circled portion in FIG. 10, fMRI shows that the brain region including the parietal lobe, the visual cortex, and the insular cortex is involved in the prediction of the pleasant image and the prediction of the unpleasant image.

図11は、EEGによる測定結果を示し、図11aは脳の矢状断の断面を示すものであり、不快画像予期時と比較して快画像予期時において顕著に反応した領域に破線○印を付している。また、図11bは、関心領域(快画像予測時の頭頂葉の領域)のEEG信号源の信号を時間周波数解析した結果を示し、図11cは、関心領域(不快画像予測時の頭頂葉の領域)のEEG信号源の信号を時間周波数解析した結果を示す。さらに、図11dは、快予測時と不快予測時の差分を示した図であり、図中で丸で囲んだ部分は差分があった領域であり、その他の部分は差分がなかった領域である。このEEGの測定結果から、快画像予測時において頭頂葉のβ帯域の反応が関与していることが理解される。 FIG. 11 shows the measurement results by EEG, and FIG. 11a shows a cross section of the sagittal section of the brain. It is attached. Further, FIG. 11b shows the result of time-frequency analysis of the signal of the EEG signal source in the region of interest (the region of the parietal lobe at the time of predicting a pleasant image), and FIG. 11c shows the region of the parietal lobe at the time of predicting an unpleasant image. The result of time-frequency analysis of the signal of the EEG signal source of) is shown. Further, FIG. 11d is a diagram showing the difference between the time of pleasant prediction and the time of unpleasant prediction. In the figure, the circled part is the area where there is a difference, and the other parts are the areas where there is no difference. .. From the measurement results of this EEG, it is understood that the reaction in the β band of the parietal lobe is involved in the prediction of the pleasant image.

図12は、EEGによる測定結果を示し、図12aは脳の矢状断の断面を示すものであり、不快画像予期時と比較して快画像予期時において顕著に反応した領域に破線○印を付している。また、図12bは、関心領域(快画像予測時の視覚野の領域)のEEG信号源の信号を時間周波数解析した結果を示し、図12cは、関心領域(不快画像予測時の視覚野の領域)のEEG信号源の信号を時間周波数解析した結果を示す。さらに、図12dは、快予測時と不快予測時の差分を示した図であり、図中で丸で囲んだ部分は差分があった領域であり、その他の部分は差分がなかった領域である。このEEGの測定結果から、快画像予測時視覚野のα帯域の反応が関与していることが理解される。 FIG. 12 shows the measurement results by EEG, and FIG. 12a shows a cross section of the sagittal section of the brain. It is attached. Further, FIG. 12b shows the result of time-frequency analysis of the signal of the EEG signal source in the region of interest (the region of the visual field at the time of predicting a pleasant image), and FIG. 12c shows the region of interest (the region of the visual field at the time of predicting an unpleasant image). The result of time-frequency analysis of the signal of the EEG signal source of) is shown. Further, FIG. 12d is a diagram showing the difference between the time of pleasant prediction and the time of unpleasant prediction. In the figure, the circled part is the area where there is a difference, and the other parts are the areas where there is no difference. .. From the measurement results of this EEG, it is understood that the reaction in the α band of the visual cortex at the time of predicting a pleasant image is involved.

3.感性の可視化
感性を快/不快の軸、活性/非活性の軸、および期待感(時間)の軸の3軸を含む感性多軸モデルを用いて表すことについては上述したが、次は、具体的に感性をどのように可視化・数値化してBEI構築に結び付けできるかが課題になる。
3. 3. Visualization of sensibility As described above, the sensibility is expressed using a sensibility multi-axis model that includes three axes: a pleasant / unpleasant axis, an active / inactive axis, and an expected feeling (time) axis. The issue is how to visualize and quantify sensibilities and link them to BEI construction.

本発明者は、感性を構成する3軸は独立したものでなく相関性があるものであり、各軸の値を実測すると同時に各軸の感性に寄与する関係性を特定する必要があるとの知見に基づき、感性の主観心理軸と感性の脳生理指標を次のように融合させて感性の可視化を図っている。 The present inventor states that the three axes constituting the sensibility are not independent but correlated, and it is necessary to measure the values of each axis and at the same time identify the relationship that contributes to the sensibility of each axis. Based on the findings, we are trying to visualize sensibility by fusing the subjective psychological axis of sensibility and the brain physiology index of sensibility as follows.

感性=[主観心理軸]*[脳生理指標]=a*EEG+b*EEG活性+c*EEG期待感…(式1)
ここで、主観心理軸は各軸の重み付け係数(a,b,c)を示し、脳生理指標はEEGの測定結果に基づく各軸の値(EEG,EEG活性,EEG期待感)を示す。
Sensitivity = [Subjective psychological axis] * [EEG physiological index] = a * EEG pleasant + b * EEG activity + c * EEG expectation ... (Equation 1)
Here, the subjective psychological axis shows the weighting coefficient (a, b, c) of each axis, and the electroencephalographic index shows the value of each axis (EEG comfort , EEG activity , EEG expectation ) based on the measurement result of EEG.

以下、主観心理軸の決定手順、および脳生理指標の選定手順について順に説明する。 Hereinafter, the procedure for determining the subjective psychological axis and the procedure for selecting the brain physiological index will be described in order.

A.主観心理軸の決定
感性の主観心理軸を用いた各軸の寄与率、すなわち重み付けは次の手順で決定することができる。
A. Determining the subjective psychological axis The contribution rate of each axis using the subjective psychological axis of sensitivity, that is, the weighting, can be determined by the following procedure.

(1)実験参加者(男女学生:27名)に対して、上述の快/不快の刺激画像呈示実験を行う。ここでは、各トーン音が鳴ってから画像が呈示されるまでの4秒間(予期時)における脳の感性状態を実験参加者の自己評価により評定してもらう。 (1) The above-mentioned pleasant / unpleasant stimulus image presentation experiment is performed on the experiment participants (male and female students: 27). Here, the sensory state of the brain in 4 seconds (expected time) from the sound of each tone to the presentation of the image is evaluated by the self-evaluation of the experiment participants.

(2)実験参加者には、3条件(快画像予期時、不快画像予期時、および快・不快予期不可)ごとに、わくわく(感性)度合、快度合(快軸)、活性度合(活性軸)、期待感度合(期待感軸)についてVAS(Visual Analog Scale)を用いて0から100までの101段階で評定してもらう。図13は、主観心理軸決定のための自己評価の一例を示す図であり、低いトーン音が鳴ったとき(快画像予期時)の快度合を評定している様子を示す。実験参加者は0から100の間でカーソルを移動させて評定を行う。評定の結果、例えば、ある実験参加者から、快画像予期に関して、わくわく=73、快=68、活性=45、期待感=78といったような主観評定値が得られる。 (2) For the participants of the experiment, the degree of excitement (sensitivity), the degree of pleasure (the axis of pleasure), and the degree of activity (the axis of activity) were given to each of the three conditions (expected pleasant image, expected unpleasant image, and unpredictable pleasant / unpleasant). ), The expected sensitivity (expected sensitivity axis) is rated on a 101-point scale from 0 to 100 using the VAS (Visual Analog Scale). FIG. 13 is a diagram showing an example of self-evaluation for determining the subjective psychological axis, and shows how the degree of comfort when a low tone sound is produced (when a pleasant image is expected) is evaluated. Experiment participants move the cursor between 0 and 100 to make a rating. As a result of the rating, for example, a subjective rating value such as excitement = 73, pleasure = 68, activity = 45, expectation = 78 can be obtained from a certain experimental participant regarding the expectation of a pleasant image.

(3)実験参加者全員から得られた3条件それぞれの主観評定値から、線形回帰により主観心理軸の各係数を算出する。この結果、例えば次式のような主観心理軸における感性評価式が得られる。 (3) From the subjective rating values of each of the three conditions obtained from all the participants in the experiment, each coefficient of the subjective psychological axis is calculated by linear regression. As a result, a sensitivity evaluation formula on the subjective psychological axis such as the following formula can be obtained.

感性=0.38*主観+0.11*主観活性+0.51*主観期待感…(式2)
ただし、主観、主観活性、主観期待感は、実験参加者が評定した快度合、活性度合、期待感度合の各数値である。
Sensitivity = 0.38 * Subjective pleasure +0.11 * Subjective activity +0.51 * Subjective expectation ... (Equation 2)
However, the subjective pleasure , the subjective activity , and the subjective expectation are the numerical values of the degree of pleasure, the degree of activity, and the degree of expected sensitivity evaluated by the experiment participants.

(4)主観心理軸における主観、主観活性、主観期待感と脳生理指標のEEG、EEG活性、EEG期待感とはそれぞれ対応関係にある。したがって、主観評定値の線形回帰により算出された主観心理軸の各軸の重み係数は脳生理指標のEEG、EEG活性、EEG期待感の各重み係数として用いることができる。そこで、式2で得られた各軸の重み係数を式1に適用することで、感性は、時々刻々測定されるEEG,EEG活性,EEG期待感を用いて次式のように表される。 (4) Subjective pleasure , subjective activity , and subjective expectation in the subjective psychological axis and EEG pleasure , EEG activity , and EEG expectation in the brain physiology index have a corresponding relationship with each other. Therefore, the weighting coefficients of each axis of the subjective psychological axis calculated by the linear regression of the subjective rating value can be used as the weighting coefficients of EEG comfort , EEG activity , and EEG expectation of the electroencephalographic index. Therefore, by applying the weighting coefficient of each axis obtained in Eq. 2 to Eq. 1, the sensibility is expressed by the following equation using the EEG comfort , EEG activity , and EEG expectation that are measured every moment. ..

感性=0.38*EEG+0.11*EEG活性+0.51*EEG期待感…(式3)
すなわち、式3により感性を数値により可視化することができる。
Sensitivity = 0.38 * EEG pleasant +0.11 * EEG activity +0.51 * EEG expectation ... (Equation 3)
That is, the sensibility can be visualized numerically by the equation 3.

B.脳生理指標の選定
脳生理指標は、EEGの測定結果から計算される感性多軸モデルの各軸の推定値である。しかし、脳活動には個人差があるため、リアルタイムで感性を評価する前にあらかじめ各個人のEEGを計測して各個人の脳波独立成分およびその周波数帯域を特定しておく必要がある。
B. Selection of brain physiology index The brain physiology index is an estimated value of each axis of the Kansei multi-axis model calculated from the measurement result of EEG. However, since there are individual differences in brain activity, it is necessary to measure the EEG of each individual in advance to identify the EEG independent component and its frequency band before evaluating the sensitivity in real time.

まず、被験者の快/不快、活性/非活性、期待感の各脳波測定時に用いる周波数帯域を特定する手順について説明する。図14は、関心領域の脳波独立成分および周波数帯域を特定するフローチャートである。 First, a procedure for specifying a frequency band used for measuring each brain wave of the subject's pleasant / unpleasant, active / inactive, and anticipatory feelings will be described. FIG. 14 is a flowchart for specifying an electroencephalogram independent component and a frequency band in a region of interest.

被験者に例えば快/不快を伴う画像を呈示して視覚刺激を与え、この刺激により誘発されたEEG脳波信号を計測する(S1)。なお、計測された脳波信号には、瞬き、目の動き、筋電に伴うノイズ(アーチファクト)が混在しているので、これらノイズを除去する。 For example, a subject is presented with a pleasant / unpleasant image to give a visual stimulus, and the EEG EEG signal evoked by this stimulus is measured (S1). Since the measured EEG signal contains noise (artifact) associated with blinking, eye movement, and myoelectricity, these noises are removed.

計測した脳波信号に対して独立成分分析(ICA:Independent Component Analysis)を行って複数の独立成分(信号源)を抽出する(S2)。例えば、32チャンネルで脳波を計測した場合は、チャンネルの数に応じた32の独立成分が抽出される。計測した脳波の独立成分分析の結果、信号源の位置が特定される(S3)。 Independent component analysis (ICA: Independent Component Analysis) is performed on the measured EEG signal to extract a plurality of independent components (signal sources) (S2). For example, when the brain wave is measured with 32 channels, 32 independent components corresponding to the number of channels are extracted. As a result of the independent component analysis of the measured EEG, the position of the signal source is specified (S3).

図15は、ステップS2での脳波信号の独立成分分析で抽出された各独立成分における信号強度分布を表したコンポーネント(脳波トポグラフィ)を示す。また、図16は、独立信号成分の信号源の推定位置をプロットした脳矢状断面を示す。 FIG. 15 shows a component (electroencephalogram topography) showing the signal intensity distribution in each independent component extracted by the independent component analysis of the electroencephalogram signal in step S2. Further, FIG. 16 shows a sagittal section of the brain in which the estimated positions of the signal sources of the independent signal components are plotted.

なお、脳波の測定とは別にfMRIによる測定を行う。図17は、快・不快反応時のfMRI画像を示す。快・不快の反応時において、図17中で○印で示すように帯状回が関与していることがわかる。 In addition to the measurement of the brain wave, the measurement by fMRI is performed. FIG. 17 shows an fMRI image during a pleasant / unpleasant reaction. It can be seen that the cingulate gyrus is involved in the pleasant / unpleasant reaction as shown by the circles in FIG.

このように別途行われるfMRIによる測定により、例えば、「快」の状態では帯状回が関与していることが判明しているため、「快」に関連する独立成分を選定する場合、関心領域の候補として帯状回付近に存在する信号源(独立成分)を選定することができる(S4)。例えば、32の独立成分が取捨選択されて10の独立成分に絞り込まれる。 By the measurement by fMRI performed separately in this way, for example, it is known that the cingulate gyrus is involved in the "pleasant" state. Therefore, when selecting an independent component related to "pleasant", the area of interest is selected. A signal source (independent component) existing near the cingulate gyrus can be selected as a candidate (S4). For example, 32 independent components are selected and narrowed down to 10 independent components.

関心領域の候補となる信号源の信号(例えば10の独立成分)のそれぞれについて、時間周波数解析を行って、各時間ポイントおよび各周波数ポイントにおけるパワー値を算出する(S5)。例えば、40の時間ポイントのそれぞれにおいて20の周波数のポイントを設定して合計800ポイントでのパワー値を算出する。 Time-frequency analysis is performed for each of the signals of the signal source that is a candidate of the region of interest (for example, 10 independent components), and the power value at each time point and each frequency point is calculated (S5). For example, 20 frequency points are set at each of the 40 time points, and the power value at a total of 800 points is calculated.

図18は、ステップS5において、EEG信号源の信号を時間周波数解析した結果を示す図である。図18のグラフにおいて縦軸は周波数であり、横軸は時間である。周波数はβ、α、θの順で高い。グラフの色の濃淡は信号強度を表す。実際には時間周波数解析結果のグラフはカラーで表されるが、ここでは便宜上グレースケールで表している。 FIG. 18 is a diagram showing the result of time-frequency analysis of the signal of the EEG signal source in step S5. In the graph of FIG. 18, the vertical axis is frequency and the horizontal axis is time. The frequencies are higher in the order of β, α, and θ. The shades of color in the graph represent the signal strength. Actually, the graph of the time-frequency analysis result is expressed in color, but here it is expressed in gray scale for convenience.

次に、時間周波数に分解された各独立成分に対して主成分分析(PCA:Principal Component Analysis)を行って、時間および周波帯域の主成分に絞り込みを行う(S6)。これにより、特徴の数が絞り込まれる。例えば、上記の800ポイントの特徴から40の主成分に次元が削減される。 Next, principal component analysis (PCA: Principal Component Analysis) is performed on each independent component decomposed into time and frequency to narrow down the main components in the time and frequency bands (S6). This narrows down the number of features. For example, the dimension is reduced from the above 800 point feature to 40 principal components.

各独立成分において、絞り込まれた時間周波数の主成分を対象に機械学習(SLR:Sparse Logistic Regression)を用いて判別学習を行う(S7)。これにより、その独立成分(信号源)における軸(例えば快/不快軸)の判別に寄与する主成分(時間周波数)が検出される。例えば、被験者の「快」測定時において、関心領域の信号源ではθ帯域が関係していることが判明する。また、例えば、快または不快の2択での判別精度が70%であるといったように、その独立成分の周波帯域における判別精度が算出される。 In each independent component, discriminant learning is performed using machine learning (SLR: Sparse Logistic Regression) for the main component of the narrowed time frequency (S7). As a result, the main component (time frequency) that contributes to the discrimination of the axis (for example, the pleasant / unpleasant axis) in the independent component (signal source) is detected. For example, at the time of the subject's "pleasant" measurement, it is found that the θ band is involved in the signal source in the region of interest. Further, the discrimination accuracy in the frequency band of the independent component is calculated, for example, the discrimination accuracy in the two choices of pleasant or unpleasant is 70%.

算出された判別精度を元に、有意な判別率をもつ独立成分およびその周波帯域を特定する(S8)。これにより、関心領域の候補である例えば10の独立成分の中からトップの独立成分およびその周波帯域が1つ選定される。 Based on the calculated discrimination accuracy, an independent component having a significant discrimination rate and its frequency band are specified (S8). As a result, one of the top independent components and its frequency band is selected from, for example, 10 independent components that are candidates for the region of interest.

上記は快/不快の測定時における手順であるが、活性/非活性および期待感の各測定時においても同様の手順で関心領域の脳波独立成分および周波数帯域の特定を行う。この結果、活性/非活性の場合には関心領域のβ帯域が、期待感の場合には関心領域のθ~α帯域がそれぞれ関与していることが判明する。 The above is the procedure at the time of measuring pleasant / unpleasant, but also at the time of measuring active / inactive and expectation, the brain wave independent component and the frequency band of the region of interest are specified by the same procedure. As a result, it is found that the β band of the region of interest is involved in the case of active / inactive, and the θ to α bands of the region of interest are involved in the case of anticipation.

上記手順で得られた結果は、次の感性のリアルタイム評価において空間フィルタとして適用される。 The results obtained in the above procedure are applied as a spatial filter in the next real-time evaluation of sensitivity.

なお、上記のステップS3およびS4ではすべての独立成分に対する信号源を推定した後にfMRI情報に基づいて信号源(独立成分)の絞り込みを行っているが、fMRI情報を用いずにステップS3~S7を実施し、最後のステップS8において有意に判別に寄与する独立成分の中から、fMRI情報を用いて独立成分(信号源)の選定を行い、その中で最も判別に寄与する独立成分を選択してもよい。このようにしても結果は同じになる。 In steps S3 and S4 described above, the signal sources (independent components) are narrowed down based on the fMRI information after estimating the signal sources for all the independent components, but steps S3 to S7 are performed without using the fMRI information. From the independent components that contribute significantly to the discrimination in the final step S8, the independent components (signal sources) are selected using the fMRI information, and the independent components that contribute the most to the discrimination are selected. May be good. Even if you do this, the result will be the same.

次に、上記手順で特定された独立成分の周波数帯域を用いて、時々刻々変化する被験者の脳活動を推定して感性をリアルタイムで評価する手順について説明する。図19は、脳波を用いた感性のリアルタイム評価のフローチャートである。 Next, a procedure for estimating the brain activity of the subject, which changes from moment to moment, and evaluating the sensitivity in real time will be described using the frequency band of the independent component specified in the above procedure. FIG. 19 is a flowchart of real-time evaluation of sensitivity using brain waves.

被験者の脳波を計測し、リアルタイムで脳波情報(各チャンネルでの脳活動)を抽出する(S11)。なお、計測された各チャンネルの脳波信号には、瞬き、目の動き、筋電に伴うノイズ(アーチファクト)が混在しているので、これらノイズ成分を除去する。 The subject's brain waves are measured, and brain wave information (brain activity in each channel) is extracted in real time (S11). Since the measured electroencephalogram signals of each channel contain a mixture of blinking, eye movements, and noise (artifacts) associated with myoelectricity, these noise components are removed.

計測した脳波信号に対して独立成分分析を行って複数の独立成分(信号源)を抽出する(S12)。例えば、32チャンネルで脳波を計測した場合は、チャンネルの数に応じた32の独立成分が抽出される。図20は、ステップS12での脳波信号の独立成分分析で抽出された各独立成分における信号強度分布を表したコンポーネント(脳波トポグラフィ)を示す。 Independent component analysis is performed on the measured electroencephalogram signal to extract a plurality of independent components (signal sources) (S12). For example, when the brain wave is measured with 32 channels, 32 independent components corresponding to the number of channels are extracted. FIG. 20 shows a component (electroencephalogram topography) showing the signal intensity distribution in each independent component extracted by the independent component analysis of the electroencephalogram signal in step S12.

抽出された32個の独立成分から、関心領域に関連する独立成分を特定する(S13)。ここでは、図14のフローチャートで示す手順により対象とする独立成分があらかじめ特定されているので、対象のコンポーネントは容易に特定される。図21は、関心領域に関連する独立成分として特定されたコンポーネントを示す。 From the 32 extracted independent components, the independent component related to the region of interest is identified (S13). Here, since the target independent component is specified in advance by the procedure shown in the flowchart of FIG. 14, the target component can be easily specified. FIG. 21 shows a component identified as an independent component associated with a region of interest.

次に、特定された独立成分について時間周波数解析を行って、時間周波数スペクトラムを算出する(S14)。図22は、特定された独立成分についての時間周波数解析の結果を示す。 Next, a time-frequency analysis is performed on the specified independent component to calculate a time-frequency spectrum (S14). FIG. 22 shows the results of time-frequency analysis for the identified independent components.

ここで、被験者の「快」測定時においてその独立成分(関心領域の信号源)では、対象となる周波帯域がθ帯域であることが判明しているため、当該帯域でのスペクトラム強度より、ある時点での、快/不快軸の値(脳生理指標値)が推定される(S15)。脳生理指標値は、例えば、0~100の数値で表される。図23は、推定された快/不快軸の値を模式的に示す。例えば、図23に示したように、快/不快軸の値としてEEG=63が推定される。 Here, since it is known that the target frequency band is the θ band in the independent component (signal source in the region of interest) at the time of the subject's “pleasant” measurement, it is more than the spectrum intensity in the band. The value of the pleasant / unpleasant axis (brain physiological index value) at the time point is estimated (S15). The brain physiology index value is represented by a numerical value of 0 to 100, for example. FIG. 23 schematically shows the estimated pleasant / unpleasant axis values. For example, as shown in FIG. 23, EEG comfort = 63 is estimated as the value of the pleasant / unpleasant axis.

上記は快/不快の測定時における手順であるが、活性/非活性および期待感の各測定時においても同様の手順で脳生理指標値を推定する。図24は、推定された活性/非活性軸および期待感軸の各値を模式的に示す。例えば、図24に示したように、活性/非活性軸の値としてEEG活性=42が、期待感軸(時間軸)の値としてEEG期待感=72が推定される。 The above is the procedure for measuring comfort / discomfort, but the brain physiological index value is estimated by the same procedure for each measurement of activity / inactivity and expectation. FIG. 24 schematically shows the estimated active / inactive axis and expected feeling axis values. For example, as shown in FIG. 24, EEG activity = 42 is estimated as the value of the active / inactive axis, and EEG expectation = 72 is estimated as the value of the expected feeling axis (time axis).

推定した脳生理指標値を式3に代入して感性の評価値を計算する(S16)。例えば、EEG=63、EEG活性=42、EEG期待感=72という推定結果が得られた場合、前述の式3から、感性の評価値は65.28と計算される。 The estimated brain physiology index value is substituted into Equation 3 to calculate the evaluation value of sensitivity (S16). For example, when the estimation results of EEG pleasure = 63, EEG activity = 42, and EEG expectation = 72 are obtained, the evaluation value of sensitivity is calculated to be 65.28 from the above equation 3.

4.表出情報に基づく脳活動状態の推定
次に、本発明のテーマである、表出情報に基づく脳活動状態の推定について説明する。図25は、本発明の概念を説明する図である。上記説明では被験者に感情あるいは情動を惹起させる外部刺激を与えたときの脳波のみを計測しているが、本発明では、脳波だけでなく被験者(人)の表情や音声といった表出情報も同時に収集する。概して、本発明では、表出情報を入力信号、脳活動状態を教師信号としてニューラルネットワークを深層学習させ、学習済みのニューラルネットワークに人の表出情報を与えて当該表出情報を表出したときのその人の脳活動状態を推定させる。
4. Estimating the brain activity state based on the expression information Next, the estimation of the brain activity state based on the expression information, which is the theme of the present invention, will be described. FIG. 25 is a diagram illustrating the concept of the present invention. In the above explanation, only the brain waves when the subject is given an external stimulus that evokes emotions or emotions are measured, but in the present invention, not only the brain waves but also the expression information such as the facial expression and voice of the subject (person) are collected at the same time. do. Generally, in the present invention, when the neural network is deep-learned by using the expression information as an input signal and the brain activity state as a teacher signal, and the trained neural network is given the expression information of a person to express the expression information. To estimate the brain activity state of the person.

(教師データ)
被験者に脳計測装置を装着してもらい、感情あるいは情動を惹起させる外部刺激を与えたとき、例えばテレビゲームをプレイ中の被験者の脳波信号を計測、記録する。それと同時にビデオカメラおよびマイクロフォンで被験者の表情(顔画像動画)および発話音声などを記録する。ここで、脳波、顔画像動画、発話音声などの各種信号は時間軸を揃えて同期して適当な記憶装置に記録する。
(Teacher data)
When a subject is asked to wear a brain measuring device and an external stimulus that evokes emotions or emotions is given, for example, the brain wave signal of the subject who is playing a video game is measured and recorded. At the same time, the subject's facial expression (face image video) and spoken voice are recorded with a video camera and a microphone. Here, various signals such as brain waves, facial images and moving images, and spoken voices are recorded in an appropriate storage device in synchronization with the time axis aligned.

記録した表出情報から各種特徴量を抽出してニューラルネットワークへの入力信号とする。図26は、表出情報の一つである発話音声から音響的特徴量を抽出する例を説明する図である。被験者の発話音声を記録した音響信号を、openSMILEソフトウェアを使って解析する。具体的には、音響信号を、50msecのフレームサイズのフレームを10msecずつシフトして、各フレームからopenSMILEによって算出された各種特徴量のうち、例えば、基本周波数、声である確率、および音圧の3つの値を選択し、これら3つの値の時系列データを音響的特徴量としてニューラルネットワークに入力する。一方、図27は、表出情報の一つである表情から表情遷移特徴量を抽出する例を説明する図である。被験者の表情を記録した顔画像動画から、例えば30msecごとに静止画像を切り出してその静止画像中の顔画像に含まれる左目尻、左目中心、左目頭、右目尻、右目中心、右目頭、鼻左、鼻右、左口端、口中心、右口端、および口上の12個の顔部位座標を算出する。これら12個の座標の時系列データを表情遷移特徴量としてニューラルネットワークに入力する。 Various features are extracted from the recorded display information and used as input signals to the neural network. FIG. 26 is a diagram illustrating an example of extracting an acoustic feature amount from an uttered voice which is one of the expression information. The acoustic signal recorded by the subject's spoken voice is analyzed using openSMILE software. Specifically, the acoustic signal is shifted from a frame with a frame size of 50 msec by 10 msec, and among various feature quantities calculated by openSMILE from each frame, for example, the fundamental frequency, the probability of being a voice, and the sound pressure. Three values are selected, and the time-series data of these three values are input to the neural network as acoustic features. On the other hand, FIG. 27 is a diagram illustrating an example of extracting a facial expression transition feature amount from a facial expression, which is one of the expression information. A still image is cut out from a facial image video recording the subject's facial expression, for example, every 30 msec, and the left eye corner, left eye center, left eye inner corner, right eye outer corner, right eye center, right eye inner corner, and nose left included in the facial image in the still image. , Nose right, left mouth edge, mouth center, right mouth edge, and 12 facial site coordinates on the mouth are calculated. Time-series data of these 12 coordinates are input to the neural network as facial expression transition features.

記録した脳波信号については図19のフローチャートにおけるS12ないしS14に相当する処理を行う。すなわち、計測された各チャンネルの脳波信号に含まれるアーチファクトなどのノイズ成分を除去して独立成分分析を行なって複数の独立成分を抽出し、抽出した複数の独立成分の中から関心領域に関連する独立成分を特定する。例えば、快反応時、活性反応時の脳活動状態が知りたければ後帯状回に関連する独立成分を、快画像予測時の脳活動状態が知りたければ頭頂葉および視覚野に関連する独立成分を特定する。そして、特定した独立成分について時間周波数解析を行って、時間周波数スペクトラムを算出する。時間周波数スペクトルは、図22に示すように、周波数スペクトルの時間的変化を表している。このような時間周波数スペクトルにおいて、例えば、θ帯域、α帯域、β帯域の3つの周波数帯域の強度をニューラルネットワークの出力として定義することができる。したがって、被験者の表出情報から抽出した音響的特徴量および表情遷移特徴量の時系列データを入力信号、および当該表出情報を表出したときの被験者の脳波信号を解析して得られた時間周波数スペクトルの時系列データを教師信号とする教師データを用意して、当該教師データを用いてューラルネットワークを学習させることができる。 The recorded electroencephalogram signal is subjected to the processing corresponding to S12 to S14 in the flowchart of FIG. That is, noise components such as artifacts contained in the measured EEG signals of each channel are removed, independent component analysis is performed to extract a plurality of independent components, and the region of interest is related to the extracted multiple independent components. Identify independent components. For example, if you want to know the brain activity state at the time of pleasant reaction and active reaction, you can use the independent component related to the posterior cingulate gyrus. Identify. Then, the time-frequency analysis is performed on the specified independent component to calculate the time-frequency spectrum. As shown in FIG. 22, the time frequency spectrum represents a time change of the frequency spectrum. In such a time frequency spectrum, for example, the intensities of three frequency bands of θ band, α band, and β band can be defined as the output of the neural network. Therefore, the time obtained by analyzing the input signal of the time-series data of the acoustic feature amount and the facial expression transition feature amount extracted from the expression information of the subject and the brain wave signal of the subject when the expression information is expressed. It is possible to prepare teacher data using the time-series data of the frequency spectrum as a teacher signal and train the tural network using the teacher data.

(ニューラルネットワーク)
人の表出情報および脳活動状態は時間変化する信号であるため、本発明では、ニューラルネットワークとして、時系列データを扱うのに適した再帰型ニューラルネットワーク(Recurrent Neural Network: RNN)を用いる。さらに、時系列データの長期的な依存関係を学習しつつニューラルネットワークの過学習を防ぐためにLSTM(Long Short-term memory)を採用することが好ましい。
(neural network)
Since human expression information and brain activity state are signals that change with time, in the present invention, a recurrent neural network (RNN) suitable for handling time-series data is used as a neural network. Further, it is preferable to adopt LSTM (Long Short-term memory) in order to prevent overfitting of the neural network while learning the long-term dependency of time series data.

図28は、本発明に係る脳活動状態推定に好適なニューラルネットワークの模式図である。概して、ニューラルネットワークは入力層101、中間層102、出力層103の3層から構成される。入力層101には人の表出情報から抽出した特徴量(ベクトルx)が入力される。より詳細には、入力層101は図略の複数の人工ニューロン(以下、単に「ニューロン」と称する。)を有しており、各ニューロンに、人の表出情報から抽出した各種特徴量(ベクトルxの要素)が与えられる。出力層103からは脳活動状態を表す時間周波数スペクトル(ベクトルy)が出力される。より詳細には、出力層103は図略の複数のニューロンを有しており、各ニューロンから、脳波信号の所望の独立成分を時間周波数解析して得られた時間周波数スペクトルにおける各周波数帯域の強度(ベクトルyの要素)が出力される。中間層102は隠れ層とも呼ばれ、図略の複数のニューロンを有しており、各ニューロンが入力層101の各ニューロンおよび出力層103の各ニューロンとさまざまな重み付け係数で結合されている。 FIG. 28 is a schematic diagram of a neural network suitable for estimating the brain activity state according to the present invention. Generally, the neural network is composed of three layers, an input layer 101, an intermediate layer 102, and an output layer 103. A feature amount (vector x) extracted from human expression information is input to the input layer 101. More specifically, the input layer 101 has a plurality of artificial neurons (hereinafter, simply referred to as “neurons”) in the illustration, and each neuron has various feature quantities (vectors) extracted from human expression information. The element of x) is given. A time frequency spectrum (vector y) representing a brain activity state is output from the output layer 103. More specifically, the output layer 103 has a plurality of neurons in the figure, and the intensity of each frequency band in the time frequency spectrum obtained by time-frequency analysis of the desired independent component of the EEG signal from each neuron. (Element of vector y) is output. The intermediate layer 102, also called a hidden layer, has a plurality of neurons in the illustration, and each neuron is connected to each neuron in the input layer 101 and each neuron in the output layer 103 with various weighting coefficients.

学習時には上記の教師データを用いてニューラルネットワークを学習、すなわち、中間層102の重み係数をチューニングする。評価時には実データ、すなわち、人の表出情報から抽出した特徴量(ベクトルx)をニューラルネットワークに入力することで、中間層102における学習済み重み係数に基づく演算が行われて、時間周波数スペクトル(ベクトルy)、すなわち、当該表出情報を表出したときのその人の脳活動状態が出力される。 At the time of learning, the neural network is learned using the above teacher data, that is, the weighting coefficient of the intermediate layer 102 is tuned. At the time of evaluation, by inputting the actual data, that is, the feature amount (vector x) extracted from the human expression information into the neural network, the calculation based on the trained weighting coefficient in the intermediate layer 102 is performed, and the time frequency spectrum (time frequency spectrum). Vector y), that is, the brain activity state of the person when the expression information is expressed is output.

5.感性評価への応用
次に、脳活動状態推定を応用した感性の評価について説明する。図29は、本発明の一実施形態に係る感性評価システムのブロック図である。概して、感性評価システム100は、特徴量抽出部11、ニューラルネットワーク12、脳生理指標算出部13、および感性評価値算出部14を備えている。これら各ブロックは、CPU(Central Processing Unit)にコンピュータプログラムを実行させてCPU上で実現することができる他、ハードウェアとして実現することも可能である。
5. Application to Kansei evaluation Next, Kansei evaluation using brain activity state estimation will be described. FIG. 29 is a block diagram of the sensitivity evaluation system according to the embodiment of the present invention. In general, the Kansei evaluation system 100 includes a feature amount extraction unit 11, a neural network 12, a brain physiological index calculation unit 13, and a Kansei evaluation value calculation unit 14. Each of these blocks can be realized on the CPU by causing a CPU (Central Processing Unit) to execute a computer program, and can also be realized as hardware.

特徴量抽出部11は、図略のビデオカメラやマイクロフォンなどで撮影・収音したユーザの顔画像動画や発話音声が入力され、それら信号から特徴量を抽出する。なお、音響信号および顔画像動画からの特徴量抽出例については図26、27を参照して説明した通りであり、ここで再度の説明は省略する。 The feature amount extraction unit 11 inputs a user's facial image video and utterance voice taken and picked up by a video camera, a microphone, or the like shown in the figure, and extracts the feature amount from those signals. The example of extracting the feature amount from the acoustic signal and the moving face image is as described with reference to FIGS. 26 and 27, and the description thereof will be omitted here.

ニューラルネットワーク12は、上述したように、人の表出情報を受けてその人の脳活動状態を推定する。具体的には、コンピュータ上の仮想空間に再現された、あるいは、ハードウェア回路として構成されたニューラルネットワーク構造に学習済み重み係数、すなわち、学習済みモデルを展開することで、人の表出情報からその人の脳活動状態を推定するニューラルネット12を構成することができる。したがって、異なる教師データを用いて学習させた学習済みモデルを複数用意しておけば、所望の関心領域に応じて、ニューラルネットワーク12に展開される学習済みモデルを入れ替えて、ユーザの表出情報から所望の関心領域に関する脳活動状態を推定させることができる。 As described above, the neural network 12 receives the expression information of a person and estimates the brain activity state of the person. Specifically, by developing a trained weight coefficient, that is, a trained model, in a neural network structure reproduced in a virtual space on a computer or configured as a hardware circuit, from human expression information. A neural network 12 that estimates the brain activity state of the person can be constructed. Therefore, if a plurality of trained models trained using different teacher data are prepared, the trained models developed in the neural network 12 can be replaced according to a desired region of interest, and the trained models can be exchanged from the user's expression information. It is possible to estimate the brain activity state for a desired region of interest.

脳生理指標算出部13は、ニューラルネットワーク12から出力される脳活動状態から感性に関連する少なくとも一つの脳生理指標値を算出する。すなわち、脳生理指標算出部13は、図19のフローチャートにおけるS15に相当する処理を行う。例えば、ニューラルネットワーク12に展開される学習済みモデルが後帯状回に関するものであれば、ニューラルネットワーク12から出力される脳活動状態のうちθ帯域のスペクトル強度から快反応時の脳生理指標値であるEEGを、β帯域のスペクトル強度から活性反応時の脳生理指標値であるEEG活性をそれぞれ算出することができる。また、ニューラルネットワーク12の学習済みモデルを頭頂葉に関するものに入れ替えれば、ニューラルネットワーク12から出力される脳活動状態のうちβ帯域のスペクトル強度からEEG期待感を算出することができる。 The brain physiology index calculation unit 13 calculates at least one cerebral physiology index value related to sensitivity from the brain activity state output from the neural network 12. That is, the brain physiology index calculation unit 13 performs the process corresponding to S15 in the flowchart of FIG. For example, if the trained model developed in the neural network 12 is related to the posterior cingulate gyrus, it is a brain physiological index value at the time of a pleasant reaction from the spectral intensity of the θ band among the brain activity states output from the neural network 12. EEG improvement can be calculated from the spectral intensity of the β band, respectively, and the EEG activity , which is an electroencephalographic index value at the time of an active reaction. Further, if the trained model of the neural network 12 is replaced with that related to the parietal lobe, the EEG expectation can be calculated from the spectral intensity of the β band in the brain activity state output from the neural network 12.

感性評価値算出部14は、脳生理指標値を例えば式3のような所定の式に代入してユーザの感性評価値を算出する。すなわち、感性評価値算出部14は、図19のフローチャートにおけるS16に相当する処理を行う。 The Kansei evaluation value calculation unit 14 calculates the user's Kansei evaluation value by substituting the brain physiology index value into a predetermined formula such as the formula 3. That is, the sensitivity evaluation value calculation unit 14 performs the process corresponding to S16 in the flowchart of FIG.

以上のように、本実施形態に係る感性評価システム100によると、ユーザに脳計測装置を装着して脳波の計測を行うことなく、ユーザの表情や発話音声といった表出情報からユーザの感性をリアルタイムで評価することができる。これにより、より手軽に、人の表出情報から脳活動状態を推定し、さらに、その推定結果に基づいて感性を評価することができる。 As described above, according to the sensitivity evaluation system 100 according to the present embodiment, the user's sensitivity can be measured in real time from the expression information such as the user's facial expression and spoken voice without attaching the brain measuring device to the user to measure the brain wave. Can be evaluated at. This makes it possible to more easily estimate the brain activity state from the human expression information and further evaluate the sensibility based on the estimation result.

≪変形例≫
上記説明ではニューラルネットワーク12に入力される、発話音声から抽出された特徴量は基本周波数、声である確率、および音圧の3つであるとしたが、メル周波数ケプストラム係数(MFCC)、8分割された線スペクトル対周波数、時間軸方向での基本周波数の揺らぎ(ジッター)、ジッターの変化など、openSMILEにより算出されるさらに多くの特徴量をニューラルネットワーク12に入力するようにしてもよい。同様に、表情から上記以外の部位の特徴量を抽出してニューラルネットワーク12に入力するようにしてもよい。
≪Variation example≫
In the above explanation, the feature quantities extracted from the spoken voice input to the neural network 12 are the fundamental frequency, the probability of being a voice, and the sound pressure, but the mel frequency cepstrum coefficient (MFCC) is divided into eight. More features calculated by openSMILE, such as the resulting line spectrum vs. frequency, fundamental frequency fluctuations (jitter) in the time axis direction, and changes in jitter, may be input to the neural network 12. Similarly, the feature amount of the portion other than the above may be extracted from the facial expression and input to the neural network 12.

上記説明では表情および発話音声の2つを表出情報としてニューラルネットワーク12の入力としているが、表情および発話音声のいずれか一方のみをニューラルネットワーク12に入力するようにしてもよい。逆に、表情、発話音声以外に、発話音声のテキスト情報、仕草、体表温などのさまざまな情報を追加してマルチモーダルで脳活動状態推定を行うようにしてもよい。 In the above description, the facial expression and the spoken voice are input to the neural network 12 as the expression information, but only one of the facial expression and the spoken voice may be input to the neural network 12. On the contrary, in addition to the facial expression and the utterance voice, various information such as the text information of the utterance voice, the gesture, and the body surface temperature may be added to estimate the brain activity state in a multimodal manner.

また、感性評価への応用について説明したが、図1を参照して説明したように、感性は便宜上、情動、感情よりも高次の脳機能であるということに過ぎない。したがって、本発明に係る脳活動状態推定は感情評価に応用することも可能である。 Moreover, although the application to the sensitivity evaluation has been described, as explained with reference to FIG. 1, sensitivity is merely a higher-order brain function than emotions and emotions for convenience. Therefore, the brain activity state estimation according to the present invention can also be applied to emotional evaluation.

以上のように、本発明における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 As described above, an embodiment has been described as an example of the technique in the present invention. To that end, an attached drawing and a detailed description are provided. Therefore, among the components described in the attached drawings and the detailed description, not only the components essential for problem solving but also the components not essential for problem solving in order to illustrate the above technique. Can also be included. Therefore, the fact that those non-essential components are described in the accompanying drawings or detailed description should not immediately determine that those non-essential components are essential.

また、上述の実施の形態は、本発明における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 Further, since the above-described embodiment is for exemplifying the technique of the present invention, various changes, replacements, additions, omissions, etc. can be made within the scope of claims or the equivalent thereof.

本発明に係る脳活動状態推定は、脳計測装置を用いることなく手軽に脳活動状態を推定することができるため、ヒトとモノを繋ぐBEIを実現するための基礎技術として有用である。 Since the brain activity state estimation according to the present invention can easily estimate the brain activity state without using a brain measuring device, it is useful as a basic technique for realizing BEI that connects humans and things.

100 感性評価システム
11 特徴量抽出部
12 ニューラルネットワーク
13 脳生理指標値算出部
14 感性評価値算出部
101 入力層
102 中間層
103 出力層
100 Kansei evaluation system 11 Feature extraction unit 12 Neural network 13 Brain physiological index value calculation unit 14 Kansei evaluation value calculation unit 101 Input layer 102 Intermediate layer 103 Output layer

Claims (7)

人の表出情報から抽出された特徴量が入力される入力層と、
前記表出情報を表出したときのその人の脳活動状態を出力する出力層と、
人の表出情報から抽出された特徴量と当該表出情報を表出したときのその人の脳活動状態とを対応付けた教師データを用いて重み係数が学習された中間層とを備え、
前記入力層に入力された人の表出情報から抽出された特徴量に対し、前記中間層における学習済み重み係数に基づく演算を行なって、前記出力層から、当該表出情報を表出したときのその人の脳活動状態を出力するニューラルネットワーク。
An input layer in which features extracted from human expression information are input, and
An output layer that outputs the brain activity state of the person when the expression information is expressed, and
It is equipped with an intermediate layer in which the weighting coefficient is learned using teacher data that associates the feature amount extracted from the expression information of a person with the brain activity state of the person when the expression information is expressed.
When the feature amount extracted from the expression information of the person input to the input layer is calculated based on the learned weighting coefficient in the intermediate layer and the expression information is expressed from the output layer. A neural network that outputs the brain activity state of the person.
前記表出情報が表情および発話音声の少なくとも一つを含む、請求項1に記載のニューラルネットワーク。 The neural network according to claim 1, wherein the expression information includes at least one of a facial expression and a spoken voice. 前記脳活動状態が脳の関心領域に関連する脳波独立成分の時間周波数スペクトラムを含む、請求項1または2に記載のニューラルネットワーク。 The neural network according to claim 1 or 2, wherein the brain activity state includes a time frequency spectrum of an electroencephalogram independent component related to a region of interest in the brain. コンピュータを、請求項1ないし3のいずれかに記載のニューラルネットワークとして機能させる、コンピュータプログラム。 A computer program that causes a computer to function as the neural network according to any one of claims 1 to 3. ユーザの表出情報から特徴量を抽出する特徴量抽出部と、
前記特徴量が入力され、前記表出情報を表出したときの前記ユーザの脳活動状態を推定して出力する、請求項1ないし3のいずれかに記載のニューラルネットワークと、
前記ニューラルネットワークから出力される脳活動状態から感性に関連する少なくとも一つの脳生理指標値を算出する脳生理指標値算出部と、
前記脳生理指標値を所定の式に代入して前記ユーザの感性評価値を算出する感性評価値算出部と、
を備えた感性評価システム。
A feature amount extraction unit that extracts feature amounts from the user's display information,
The neural network according to any one of claims 1 to 3, wherein the feature amount is input and the brain activity state of the user when the expression information is displayed is estimated and output.
A brain physiology index value calculation unit that calculates at least one cerebral physiology index value related to sensitivity from the brain activity state output from the neural network, and
The Kansei evaluation value calculation unit that calculates the Kansei evaluation value of the user by substituting the brain physiology index value into a predetermined formula, and the Kansei evaluation value calculation unit.
Sensitivity evaluation system equipped with.
コンピュータが感性を評価する方法であって、
ユーザの表出情報から特徴量を抽出するステップと、
請求項1ないし3のいずれかに記載のニューラルネットワークに前記特徴量を入力して、前記表出情報を表出したときの前記ユーザの脳活動状態を推定させるステップと、
前記ニューラルネットワークから出力される脳活動状態から感性に関連する少なくとも一つの脳生理指標値を算出するステップと、
前記脳生理指標値を所定の式に代入して前記ユーザの感性評価値を算出するステップと、
を備えた感性評価方法。
It ’s a way that computers evaluate sensibilities.
Steps to extract features from user expression information,
A step of inputting the feature amount into the neural network according to any one of claims 1 to 3 to estimate the brain activity state of the user when the expression information is displayed.
A step of calculating at least one brain physiological index value related to sensitivity from the brain activity state output from the neural network, and
A step of substituting the brain physiology index value into a predetermined formula to calculate the user's sensitivity evaluation value, and
Sensitivity evaluation method equipped with.
請求項1ないし3に記載のニューラルネットワークの生成方法であって、
被験者の脳活動状態と表出情報とを同時に計測するステップと、
前記計測した表出情報から特徴量を抽出するステップと、
前記特徴量と前記計測した脳活動状態とを対応付けた教師データを生成するステップと、
前記教師データを用いて前記中間層における重み係数を更新するステップと、
を備えたニューラルネットワークの生成方法。
The method for generating a neural network according to claims 1 to 3.
A step to measure the subject's brain activity state and expression information at the same time,
The step of extracting the feature amount from the measured expression information and
A step of generating teacher data in which the feature amount and the measured brain activity state are associated with each other,
A step of updating the weighting factor in the intermediate layer using the teacher data,
How to generate a neural network with.
JP2020170682A 2020-10-08 2020-10-08 Estimation of state of brain activity from presented information of person Pending JP2022062574A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020170682A JP2022062574A (en) 2020-10-08 2020-10-08 Estimation of state of brain activity from presented information of person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170682A JP2022062574A (en) 2020-10-08 2020-10-08 Estimation of state of brain activity from presented information of person

Publications (1)

Publication Number Publication Date
JP2022062574A true JP2022062574A (en) 2022-04-20

Family

ID=81210911

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020170682A Pending JP2022062574A (en) 2020-10-08 2020-10-08 Estimation of state of brain activity from presented information of person

Country Status (1)

Country Link
JP (1) JP2022062574A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153418A1 (en) * 2022-02-09 2023-08-17 株式会社アラヤ System, method, and program for estimating strength of target brain wave
WO2024029427A1 (en) * 2022-08-01 2024-02-08 国立研究開発法人情報通信研究機構 Brain response space generation device, evaluation device, and brain response space generation method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153418A1 (en) * 2022-02-09 2023-08-17 株式会社アラヤ System, method, and program for estimating strength of target brain wave
JP7454163B2 (en) 2022-02-09 2024-03-22 株式会社アラヤ System, method, and program for estimating the intensity of a subject's brain waves
WO2024029427A1 (en) * 2022-08-01 2024-02-08 国立研究開発法人情報通信研究機構 Brain response space generation device, evaluation device, and brain response space generation method

Similar Documents

Publication Publication Date Title
JP6590411B2 (en) Kansei evaluation method
US20230309887A1 (en) System and method for brain modelling
Giannakakis et al. Review on psychological stress detection using biosignals
JP6916527B2 (en) Kansei evaluation device, Kansei evaluation method, and Kansei multi-axis model construction method
CN109157231A (en) Portable multi-channel Depression trend assessment system based on emotional distress task
Rahman et al. Towards effective music therapy for mental health care using machine learning tools: human affective reasoning and music genres
US20190313966A1 (en) Pain level determination method, apparatus, and system
KR102388596B1 (en) device and method that collect signals related to the brain in an active state and provide digital therapeutics information
Gaskin et al. Using wearable devices for non-invasive, inexpensive physiological data collection
JP2022062574A (en) Estimation of state of brain activity from presented information of person
CN109715049A (en) For the multi-modal physiological stimulation of traumatic brain injury and the agreement and signature of assessment
CN116807476A (en) Multi-mode psychological health assessment system and method based on interface type emotion interaction
Jiang et al. Emotion recognition using electroencephalography signals of older people for reminiscence therapy
JP7122730B2 (en) METHOD OF OPERATION OF EEG SIGNAL EVALUATION DEVICE
WO2017064826A1 (en) Sensitivity evaluation method
Ito et al. Supportive voice-casting robots using bio-estimated emotion for rehabilitation
JP2022153232A (en) Biometric information processing apparatus and biometric information processing system
Taherysayah et al. Virtual reality and electroencephalography in architectural design: A systematic review of empirical studies
WO2022209498A1 (en) Biometric information processing device and biometric information processing system
US20240086761A1 (en) Neuroergonomic api service for software applications
Keshmiri et al. information content of prefrontal Cortex Activity Quantifies the Difficulty of Narrated Stories
Islam et al. Emotion recognition using EEG signal and deep learning approach
Khanam et al. Investigation of the neural correlation with task performance and its effect on cognitive load level classification
Megha MITIGATING PUBLIC SPEAKING ANXIETY USING VIRTUAL REALITY AND POPULATION-SPECIFIC MODELS
Nia et al. FEAD: Introduction to the fNIRS-EEG Affective Database-Video Stimuli

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240410