JP7075045B2 - Estimating system and estimation method - Google Patents

Estimating system and estimation method Download PDF

Info

Publication number
JP7075045B2
JP7075045B2 JP2018069989A JP2018069989A JP7075045B2 JP 7075045 B2 JP7075045 B2 JP 7075045B2 JP 2018069989 A JP2018069989 A JP 2018069989A JP 2018069989 A JP2018069989 A JP 2018069989A JP 7075045 B2 JP7075045 B2 JP 7075045B2
Authority
JP
Japan
Prior art keywords
information
brain
estimation
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018069989A
Other languages
Japanese (ja)
Other versions
JP2019177104A (en
Inventor
伸志 西本
真子 間島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
National Institute of Information and Communications Technology
Original Assignee
Brother Industries Ltd
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd, National Institute of Information and Communications Technology filed Critical Brother Industries Ltd
Priority to JP2018069989A priority Critical patent/JP7075045B2/en
Priority to PCT/JP2019/010106 priority patent/WO2019188263A1/en
Publication of JP2019177104A publication Critical patent/JP2019177104A/en
Application granted granted Critical
Publication of JP7075045B2 publication Critical patent/JP7075045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Finance (AREA)
  • Child & Adolescent Psychology (AREA)
  • Psychology (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Economics (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Psychiatry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Description

本発明は、推定システム、及び推定方法に関する。 The present invention relates to an estimation system and an estimation method.

近年、被験者の脳活動を計測して、感情などの被験者の内的な状態を推定する技術が知られている(例えば、特許文献1)。例えば、特許文献1に記載の従来技術では、動画等の訓練用刺激が誘発した脳活動を計測し、当該訓練用刺激と脳活動との組データに基づいて、脳活動と知覚意味内容を表す知覚意味空間(脳情報表現空間)との対応関係を学習させる。そして、従来技術では、学習させた対応関係を用いて、新規刺激が被験者に与えた際に計測される脳活動から知覚意味内容(被験者の内的な状態)を推定する。 In recent years, a technique for measuring the brain activity of a subject and estimating the internal state of the subject such as emotions has been known (for example, Patent Document 1). For example, in the prior art described in Patent Document 1, the brain activity induced by a training stimulus such as a moving image is measured, and the brain activity and the perceptual meaning content are expressed based on the set data of the training stimulus and the brain activity. Learn the correspondence with the perceptual meaning space (brain information expression space). Then, in the prior art, the perceptual meaning content (internal state of the subject) is estimated from the brain activity measured when the new stimulus is given to the subject by using the learned correspondence.

特開2016-195716号公報Japanese Unexamined Patent Publication No. 2016-195716

しかしながら、上述した従来技術では、新規刺激である刺激情報に対して被験者(推定基準者)の内的な状態を推定する度に、新規の感覚情報に対する脳活動の計測を行う必要があり、迅速、且つ簡便に、脳情報を利用した被験者(推定基準者)の内的な状態の推定を行うことが困難であった。また、上述した従来技術では、内的な状態の意味内容を表現するために、大容量コーパス等の事前知識が必要になっていた。 However, in the above-mentioned conventional technique, it is necessary to measure the brain activity for the new sensory information every time the internal state of the subject (estimation reference person) is estimated for the stimulus information which is the new stimulus, which is rapid. Moreover, it was difficult to easily estimate the internal state of the subject (estimation reference person) using brain information. Further, in the above-mentioned conventional technique, prior knowledge such as a large-capacity corpus is required in order to express the meaning and content of the internal state.

本発明は、上記問題を解決すべくなされたもので、その目的は、脳情報を利用した刺激情報に対する推定基準者の内的な状態の推定を、迅速、且つ簡便に行うことができる推定システム、及び推定方法を提供することにある。また、内的状態に対して大規模コーパス等の事前知識を利用せずに、脳内情報表現と直接的に紐付けられた内的状態の推定を達成する。 The present invention has been made to solve the above problems, and an object thereof is an estimation system capable of quickly and easily estimating the internal state of an estimation reference person for stimulation information using brain information. , And to provide an estimation method. In addition, the estimation of the internal state directly linked to the information expression in the brain is achieved without using prior knowledge such as a large-scale corpus for the internal state.

上記問題を解決するために、本発明の一態様は、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換部と、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換部によって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換部と、前記第2変換部によって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部とを備える推定システムである。 In order to solve the above problem, one aspect of the present invention includes a feature amount extraction unit that extracts a plurality of feature amounts related to a plurality of sensations from stimulus information to be estimated, each feature amount related to the plurality of sensations, and the above. Based on the first correspondence information indicating the correspondence relationship with the first brain information corresponding to each of the plurality of sensations, the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature quantity extraction unit can be obtained. The correspondence between the first conversion unit that converts a plurality of the first brain information corresponding to each, the first brain information, and at least one second brain information corresponding to the internal state of the estimation reference person. Based on the second correspondence information shown, the plurality of first brain information converted by the first conversion unit is converted into the second brain information by the second conversion unit and the second conversion unit. It is an estimation system including an estimation unit that estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information.

また、本発明の一態様は、上記の推定システムにおいて、前記第1脳情報は、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、前記第2脳情報は、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、前記第2変換部は、前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記第2脳情報が示す距離空間における位置に変換し、前記推定部は、前記第2脳情報が示す距離空間における位置情報を利用して、前記内的な状態を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance, and is the second. The brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance, and the second conversion unit is based on the second correspondence information. The position in the distance space indicated by the plurality of first brain information is converted into the position in the distance space indicated by the second brain information, and the estimation unit uses the position information in the distance space indicated by the second brain information. , The internal state may be estimated.

また、本発明の一態様は、上記の推定システムにおいて、学習用の刺激情報から抽出された前記複数の感覚に関する複数の特徴量と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚のそれぞれに対応する前記第1の対応情報を生成する第1生成部と、前記学習用の刺激情報に対応する前記内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と前記第2脳情報との対応関係を示す第3の対応情報を生成する第2生成部と、前記学習用の刺激情報に対応する前記複数の第1脳情報が示す距離空間における位置と、前記第3の対応情報に基づいて前記内的な状態を示す情報から生成された前記第2脳情報が示す距離空間における位置とに基づいて、前記第2の対応情報を生成する第3生成部とを備えるようにしてもよい。 Further, in one aspect of the present invention, in the above estimation system, a plurality of feature quantities relating to the plurality of sensations extracted from the stimulus information for learning and a stimulus by the stimulus information for learning are given to the estimation reference person. Based on the measurement result of the brain activity at the time, the first generation unit that generates the first correspondence information corresponding to each of the plurality of sensations, and the internal unit corresponding to the stimulus information for learning. Based on the information indicating the state and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning, the information indicating the internal state and the second brain information Based on the second generation unit that generates the third correspondence information indicating the correspondence relationship, the position in the distance space indicated by the plurality of first brain information corresponding to the stimulus information for learning, and the third correspondence information. A third generation unit that generates the second correspondence information may be provided based on the position in the distance space indicated by the second brain information generated from the information indicating the internal state. ..

また、本発明の一態様は、上記の推定システムにおいて、前記特徴量抽出部は、所定の単位時間ごとに、前記特徴量を抽出し、前記推定部は、前記所定の単位時間ごとの前記第2脳情報が示す距離空間における位置に基づいて、前記推定対象の刺激情報に対応する前記所定の単位時間ごとの前記内的な状態を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the feature amount extraction unit extracts the feature amount every predetermined unit time, and the estimation unit extracts the feature amount every predetermined unit time. 2. Based on the position in the distance space indicated by the brain information, the internal state may be estimated every predetermined unit time corresponding to the stimulus information of the estimation target.

また、本発明の一態様は、上記の推定システムにおいて、前記複数の感覚は、視覚と聴覚とであり、前記特徴量抽出部は、前記視覚に関する視覚特徴量と、前記聴覚に関する聴覚特徴量とを抽出し、前記第1変換部は、前記視覚に対応する前記第1の対応情報に基づいて、前記視覚特徴量を前記視覚に対応する前記第1脳情報が示す視覚空間における位置に変換し、前記聴覚に対応する前記第1の対応情報に基づいて、前記聴覚特徴量を前記聴覚に対応する前記第1脳情報が示す聴覚空間における位置に変換し、前記第2変換部は、前記第2の対応情報に基づいて、前記第1変換部によって変換された前記視覚空間における位置及び前記聴覚空間における位置を、前記第2脳情報が示す距離空間における位置に変換するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the plurality of sensations are visual and auditory, and the feature amount extracting unit includes the visual feature amount related to the visual sense and the auditory feature amount related to the auditory sense. Is extracted, and the first conversion unit converts the visual feature amount into a position in the visual space indicated by the first brain information corresponding to the vision, based on the first correspondence information corresponding to the vision. Based on the first corresponding information corresponding to the visual sense, the auditory feature amount is converted into a position in the auditory space indicated by the first brain information corresponding to the visual sense, and the second conversion unit performs the second conversion unit. Based on the corresponding information of 2, the position in the visual space and the position in the auditory space converted by the first conversion unit may be converted into the position in the distance space indicated by the second brain information.

また、本発明の一態様は、上記の推定システムにおいて、前記推定基準者の内的な状態には、前記推定基準者の感情が含まれ、前記第2変換部は、前記複数の第1脳情報が示す距離空間における位置と、前記感情に対応する前記第2脳情報が示す感情空間における位置との対応関係を示す前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記感情空間における位置に変換し、前記推定部は、複数の前記距離空間における位置から変換された前記感情空間における位置情報に基づいて、前記推定対象の刺激情報に対応する前記感情を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the internal state of the estimation reference person includes the emotion of the estimation reference person, and the second conversion unit is the plurality of first brains. The plurality of first brain information indicates based on the second correspondence information indicating the correspondence relationship between the position in the distance space indicated by the information and the position in the emotion space indicated by the second brain information corresponding to the emotion. The position in the distance space is converted into the position in the emotion space, and the estimation unit corresponds to the stimulus information of the estimation target based on the position information in the emotion space converted from the positions in the plurality of distance spaces. The emotion may be estimated.

また、本発明の一態様は、上記の推定システムにおいて、前記複数の感覚に関する特徴量、及び前記内的な状態を示す情報は、多次元の情報であり、前記内的な状態を示す情報は、前記複数の感覚に関する特徴量の次元数より少ない次元数の情報であってもよい。 Further, in one aspect of the present invention, in the estimation system, the feature quantities relating to the plurality of sensations and the information indicating the internal state are multidimensional information, and the information indicating the internal state is the information. , Information having a dimension number smaller than the dimension number of the feature quantity relating to the plurality of sensations may be used.

また、本発明の一態様は、学習用の刺激情報から抽出された複数の感覚に関する複数の特徴量と、推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚に関するそれぞれの特徴量と、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第1脳情報であって、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報を生成する第1生成部と、前記学習用の刺激情報に対応する前記推定基準者の内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第2脳情報であって、前記内的な状態に対応する第2脳情報との対応関係を示す第2の対応情報を生成する第2生成部と、前記第1の対応情報に基づいて前記複数の特徴量から生成された、前記学習用の刺激情報に対応する前記複数の第1脳情報と、前記第2の対応情報に基づいて前記内的な状態を示す情報から生成された第2脳情報との対応関係を示す第3の対応情報であり、当該第2脳情報に含まれる各要素を説明する際の前記複数の第1脳情報に含まれる各要素の貢献度を生成する第3生成部と、前記複数の特徴量と、前記内的な状態を示す情報と、前記各要素の貢献度とに基づいて、前記複数の特徴量から前記内的な状態を示す情報を推定する数理モデルを構築するモデル構築部と、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、前記モデル構築部によって構築された前記数理モデルに基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量から前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部とを備える推定システムである。 Further, one aspect of the present invention is a measurement result of a plurality of feature quantities relating to a plurality of sensations extracted from the stimulus information for learning and a brain activity when the estimation reference person is stimulated by the stimulus information for learning. Based on the above, the first brain information, which is information that defines the dissimilarity between each feature amount of the plurality of sensations and the information pattern of the brain activity caused by the sensations as a distance, is the plurality of pieces. The internal state of the estimation reference person corresponding to the stimulus information for learning and the first generation unit that generates the first correspondence information indicating the correspondence relationship with the first brain information corresponding to each of the sensations of. Based on the information shown and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning, the information indicating the internal state and the internal state are used as factors. The second brain information, which is information that defines the dissimilarity of the information pattern of the induced brain activity as a distance, and is the second correspondence information showing the correspondence with the second brain information corresponding to the internal state. The second generation unit, the plurality of first brain information corresponding to the stimulus information for learning generated from the plurality of feature quantities based on the first correspondence information, and the second It is the third correspondence information which shows the correspondence relation with the 2nd brain information generated from the information which shows the internal state based on the correspondence information, and when explaining each element included in the 2nd brain information. Based on the third generation unit that generates the contribution degree of each element included in the plurality of first brain information, the plurality of feature quantities, the information indicating the internal state, and the contribution degree of each element. A model building unit that builds a mathematical model that estimates information indicating the internal state from the plurality of feature quantities, and a feature quantity extraction unit that extracts a plurality of feature quantities related to a plurality of sensations from the stimulus information to be estimated. And, based on the mathematical model constructed by the model building unit, the above-mentioned items corresponding to the stimulus information of the estimation target from the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature amount extraction unit. It is an estimation system including an estimation unit that estimates a target state.

また、本発明の一態様は、特徴量抽出部が、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出ステップと、第1変換部が、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出ステップによって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換ステップと、第2変換部が、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換ステップによって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換ステップと、推定部が、前記第2変換ステップによって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定ステップとを含む推定方法である。 Further, in one aspect of the present invention, the feature amount extraction unit extracts a plurality of feature amounts related to a plurality of sensations from the stimulus information to be estimated, and the first conversion unit extracts the plurality of sensations. The feature amount extracted from the stimulus information of the estimation target by the feature amount extraction step based on the first correspondence information showing the correspondence relationship between the feature amount of the above and the first brain information corresponding to each of the plurality of sensations. The first conversion step of converting a plurality of feature quantities into a plurality of the first brain information corresponding to each, and the second conversion unit correspond to the first brain information and the internal state of the estimation reference person. A second that converts the plurality of first brain information converted by the first conversion step into the second brain information based on the second correspondence information indicating the correspondence relationship with at least one second brain information. An estimation including a conversion step and an estimation step in which the estimation unit estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion step. The method.

本発明によれば、刺激情報に対する被験者の内的な状態を、迅速、且つ簡便に推定することができる。 According to the present invention, the internal state of the subject with respect to the stimulus information can be quickly and easily estimated.

第1の実施形態による推定システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the estimation system by 1st Embodiment. 第1の実施形態による推定システムの学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of the estimation system by 1st Embodiment. 第1の実施形態における距離空間の構築処理の一例を説明する図である。It is a figure explaining an example of the metric space construction process in 1st Embodiment. 第1の実施形態における空間対応関係の構築処理の一例を説明する図である。It is a figure explaining an example of the construction process of the spatial correspondence relation in 1st Embodiment. 第1の実施形態による推定システムの推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the estimation process of the estimation system by 1st Embodiment. 第1の実施形態による推定システムの推定処理の一例を説明する図である。It is a figure explaining an example of the estimation process of the estimation system by 1st Embodiment. 第1の実施形態による推定システムの効果を説明する図である。It is a figure explaining the effect of the estimation system by 1st Embodiment. 第2の実施形態による推定システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the estimation system by 2nd Embodiment. 第2の実施形態による推定システムの学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of the estimation system by 2nd Embodiment. 第2の実施形態における感情評定を推定する回帰モデルの構築処理の一例を説明する図である。It is a figure explaining an example of the construction process of the regression model which estimates the emotion rating in 2nd Embodiment. 第2の実施形態による推定システムの推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the estimation process of the estimation system by 2nd Embodiment. 第2の実施形態による推定システムの推定処理の一例を説明する図である。It is a figure explaining an example of the estimation process of the estimation system by 2nd Embodiment.

以下、本発明の実施形態による推定システムについて、図面を参照して説明する。 Hereinafter, the estimation system according to the embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、第1の実施形態による推定システム1の一例を示す機能ブロック図である。
図1に示すように、推定システム1は、解析装置10と、表示装置21と、スピーカ22と、fMRI(functional Magnetic Resonance Imaging)30と、推定装置40とを備える。
[First Embodiment]
FIG. 1 is a functional block diagram showing an example of the estimation system 1 according to the first embodiment.
As shown in FIG. 1, the estimation system 1 includes an analysis device 10, a display device 21, a speaker 22, an fMRI (functional Magnetic Resonance Imaging) 30, and an estimation device 40.

表示装置21は、例えば、液晶ディスプレイなどであり、学習用の動画データ(学習用の刺激情報の一例、以下、学習用動画データという)に基づく学習用の画像を表示する。動画データには、画像データと音データとが含まれるものとする。
スピーカ22(放音装置の一例)は、学習用の動画データに基づく学習用の音を出力する。
The display device 21 is, for example, a liquid crystal display or the like, and displays a learning image based on learning moving image data (an example of learning stimulus information, hereinafter referred to as learning moving image data). It is assumed that the moving image data includes image data and sound data.
The speaker 22 (an example of a sound emitting device) outputs a learning sound based on the learning moving image data.

表示装置21及びスピーカ22は、学習用動画データに基づく画像及び音を出力し、推定基準者S1に視聴させる。推定基準者S1は、例えば、感情評定の推定において基準となる被験者である。 The display device 21 and the speaker 22 output an image and a sound based on the learning moving image data, and allow the estimation reference person S1 to view the image and the sound. The estimation reference person S1 is, for example, a subject who serves as a reference in the estimation of emotion rating.

fMRI30(脳活動計測部の一例)は、推定基準者S1に刺激を与えた際の推定基準者S1の脳活動を計測する。刺激は、例えば、表示装置21及びスピーカ22が出力する学習用動画データに基づく画像及び音である。fMRI30は、推定基準者S1の脳活動に関連した血流動態反応を視覚化するfMRI信号(脳活動信号)を出力する。fMRI30は、所定の単位時間ごと(例えば、2秒間隔など)で、推定基準者S1の脳活動を計測し、計測した計測結果をfMRI信号として解析装置10に出力する。 The fMRI30 (an example of the brain activity measurement unit) measures the brain activity of the estimation reference person S1 when the estimation reference person S1 is stimulated. The stimulus is, for example, an image and a sound based on learning moving image data output by the display device 21 and the speaker 22. The fMRI 30 outputs an fMRI signal (brain activity signal) that visualizes the blood flow dynamic response related to the brain activity of the estimation reference person S1. The fMRI 30 measures the brain activity of the estimation reference person S1 at predetermined unit times (for example, every 2 seconds), and outputs the measured measurement result to the analysis device 10 as an fMRI signal.

解析装置10は、記憶部11と、制御部12とを備える。記憶部11は、解析装置10の制御部12が利用する各種情報を記憶する。記憶部11が、fMRI30が計測した計測結果と、学習用動画データの特徴量と、学習用動画データの感情評定の各情報を記憶する。制御部12が、記憶部11が記憶した各情報に基づいて、例えば、機械学習による学習処理を実行し、学習用動画データの特徴量から感情評定を推定するために利用する各種情報を生成する。感情評定とは、推定基準者S1の内的な状態を表す一例であり、推定基準者S1の感情を示す情報である。 The analysis device 10 includes a storage unit 11 and a control unit 12. The storage unit 11 stores various information used by the control unit 12 of the analysis device 10. The storage unit 11 stores the measurement result measured by the fMRI 30, the feature amount of the learning moving image data, and each information of the emotion evaluation of the learning moving image data. Based on each information stored in the storage unit 11, the control unit 12 executes, for example, a learning process by machine learning, and generates various information used for estimating an emotion rating from the feature amount of the video data for learning. .. The emotion rating is an example showing the internal state of the estimation reference person S1, and is information indicating the emotion of the estimation reference person S1.

記憶部11は、例えば、動画記憶部111と、感情評定記憶部112と、特徴量記憶部113と、計測結果記憶部114と、構築結果記憶部115とを備える。
動画記憶部111は、学習用動画データを記憶する。
The storage unit 11 includes, for example, a moving image storage unit 111, an emotion rating storage unit 112, a feature amount storage unit 113, a measurement result storage unit 114, and a construction result storage unit 115.
The moving image storage unit 111 stores learning moving image data.

感情評定記憶部112は、学習用動画データに対応する感情評定を記憶する。感情評定は、例えば、推定基準者S1が学習用動画データに基づく動画を視聴した際の内的な状態を所定の時間間隔ごと(所定の単位時間ごと)に付与し、記憶する。感情評定とは、例えば、感情を数値により表すラベルである。感情評定記憶部112は、所定の時間間隔ごと(所定の単位時間ごと)の学習用動画データに対応する感情評定を、所定の時間間隔ごとに時系列に記憶する。 The emotion rating storage unit 112 stores the emotion rating corresponding to the learning moving image data. In the emotion evaluation, for example, the internal state when the estimation reference person S1 watches the moving image based on the learning moving image data is given and stored at predetermined time intervals (every predetermined unit time). The emotion rating is, for example, a label that numerically expresses emotions. The emotion rating storage unit 112 stores the emotion rating corresponding to the learning moving image data at predetermined time intervals (every predetermined unit time) in time series at predetermined time intervals.

特徴量記憶部113は、学習用動画データから抽出された感覚に関する特徴量を記憶する。特徴量は、制御部12により、所定の時間間隔ごと(所定の単位時間ごと)に学習用動画データから抽出される。感覚には、例えば、視覚と聴覚とが含まれる。学習用動画データのうち、画像データから視覚に関する特徴量である視覚特徴量が抽出され、音データから聴覚関する特徴量である聴覚特徴量が抽出される。例えば、特徴量記憶部113は、所定の時間間隔ごとに、視覚特徴量と聴覚特徴量とを対応付けて時系列に記憶する。 The feature amount storage unit 113 stores the feature amount related to the sensation extracted from the learning moving image data. The feature amount is extracted from the learning moving image data by the control unit 12 at predetermined time intervals (at predetermined unit times). Senses include, for example, vision and hearing. Of the moving image data for learning, the visual feature amount, which is a feature amount related to vision, is extracted from the image data, and the auditory feature amount, which is a feature amount related to hearing, is extracted from the sound data. For example, the feature amount storage unit 113 stores the visual feature amount and the auditory feature amount in a time series in association with each other at predetermined time intervals.

計測結果記憶部114は、fMRI30が計測した計測結果を記憶する。計測結果記憶部114は、学習用動画データに基づく動画を推定基準者S1に視聴させた際に、fMRI30によって計測された推定基準者S1の脳活動の計測結果を、所定の時間間隔ごとに時系列に記憶する。 The measurement result storage unit 114 stores the measurement result measured by the fMRI 30. When the measurement result storage unit 114 allows the estimation reference person S1 to watch a moving image based on the learning moving image data, the measurement result storage unit 114 obtains the measurement result of the brain activity of the estimation reference person S1 measured by the fMRI 30 at predetermined time intervals. Store in series.

構築結果記憶部115は、解析装置10の制御部12により学習処理がされた結果を記憶する。制御部12による学習処理では、複数の感覚について、感覚に関する特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感覚に応じた脳情報表現を距離空間に表した特徴空間を構築する。または、感情について、感情評定と、推定基準者S1に学習用動画データを視聴させた際の脳活動の計測結果とに基づいて、感情に応じた脳情報表現を距離空間に表した感情空間を構築する。特徴空間または感情空間の構築は、例えば、ある感覚またはある感情に応じた脳情報表現を、空間における位置により表すものであってもよい。 The construction result storage unit 115 stores the result of learning processing by the control unit 12 of the analysis device 10. In the learning process by the control unit 12, the brain according to the sensation is based on the feature amount related to the sensation and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning moving image data for a plurality of sensations. Build a feature space that expresses information expression in a distance space. Alternatively, for emotions, an emotional space in which the brain information expression according to the emotions is expressed in a distance space based on the emotional evaluation and the measurement result of the brain activity when the estimation reference person S1 is allowed to watch the learning video data. To construct. The construction of the feature space or the emotional space may, for example, represent a brain information expression corresponding to a certain sensation or a certain emotion by a position in the space.

構築結果記憶部115は、学習処理によって構築された各種構築結果と、構築した特徴空間と感情空間との対応情報とを記憶する。具体的には、構築結果記憶部115は、例えば、視覚特徴空間(視覚空間の一例)の構築結果(重み付け情報Wv)、聴覚特徴空間(聴覚空間の一例)の構築結果(重み付け情報Ws)、感情空間の構築結果(重み付け情報We)、及び、視覚特徴空間及び聴覚特徴空間(以下、視覚・聴覚空間という)と感情空間との対応情報(重み付け情報A)を記憶する。 The construction result storage unit 115 stores various construction results constructed by the learning process and the correspondence information between the constructed feature space and the emotional space. Specifically, the construction result storage unit 115 may include, for example, a construction result (weighted information Wv) of a visual feature space (an example of a visual space), a construction result (weighted information Ws) of an auditory feature space (an example of an auditory space), and the like. The construction result of the emotional space (weighting information We) and the correspondence information between the visual / auditory feature space (hereinafter referred to as visual / auditory space) and the emotional space (weighting information A) are stored.

視覚特徴空間の構築結果は、視覚特徴量と、視覚に応じた脳活動を表す視覚特徴空間(又は視覚特徴空間における位置)との対応関係を示す対応情報であり、聴覚特徴空間の構築結果は、聴覚特徴量と、聴覚に応じた脳活動を表す聴覚特徴空間(又は聴覚特徴空間における位置)との対応関係を示す対応情報である。感情空間の構築結果は、感情評定と、感情空間(又は感情空間における位置)との対応関係を示す対応情報である。
本実施形態において、視覚特徴空間の構築結果、及び聴覚特徴空間の構築結果は、第1の対応情報の一例であり、視覚・聴覚空間と感情空間との対応情報は、第2の対応情報の一例である。また、感情空間の構築結果は、第3の対応情報の一例である。
The construction result of the visual feature space is the correspondence information showing the correspondence between the visual feature amount and the visual feature space (or the position in the visual feature space) representing the brain activity according to the vision, and the construction result of the auditory feature space is. , Correspondence information showing the correspondence between the auditory feature amount and the auditory feature space (or the position in the auditory feature space) representing the brain activity corresponding to the auditory sense. The result of constructing the emotional space is correspondence information showing the correspondence between the emotional rating and the emotional space (or the position in the emotional space).
In the present embodiment, the construction result of the visual feature space and the construction result of the auditory feature space are examples of the first correspondence information, and the correspondence information between the visual / auditory space and the emotional space is the second correspondence information. This is just one example. Moreover, the construction result of the emotional space is an example of the third correspondence information.

制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、解析装置10を統括的に制御する。制御部12は、計測制御部121と、特徴量抽出部122と、特徴空間構築部123と、感情空間構築部124と、空間対応構築部125とを備える。 The control unit 12 is, for example, a processor including a CPU (Central Processing Unit) and the like, and controls the analysis device 10 in an integrated manner. The control unit 12 includes a measurement control unit 121, a feature amount extraction unit 122, a feature space construction unit 123, an emotion space construction unit 124, and a space correspondence construction unit 125.

計測制御部121は、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測を制御する。計測制御部121は、動画記憶部111が記憶する学習用動画データを表示装置21及びスピーカ22に出力させ、学習用動画データによる画像及び音を推定基準者S1に与えた際の脳活動を、fMRI30に計測させる。計測制御部121は、fMRI30から脳活動のfMRI信号を所定の時間間隔で取得し、計測結果として計測結果記憶部114に時系列に記憶させる。視覚特徴量の抽出には、種々の手法が提案されているが、例えば、AlexNet、VGG 19layerなどを用いることができる。抽出される特徴量は、例えばn次元(nは自然数)のベクトルで表され、n=4096やn=1000などが、想定されるがこれらの数字には限られない。また、聴覚特徴量の抽出についても、種々の手法が提案されているが、例えば、soundNetなどを用いることができる。抽出される特徴量は、例えば、m次元(mは自然数)のベクトルで表され、m=362、m=3133などが想定されるがこれらの数字に限定されない。
計測制御部121は、例えば、画像及び音を同時に推定基準者S1に与えた場合と、画像のみを推定基準者S1に与えた場合と、音のみを推定基準者S1に与えた場合とのそれぞれについて脳活動の計測結果を取得するようにしてもよい。
The measurement control unit 121 controls the measurement of the brain activity when the estimation reference person S1 is stimulated by the learning moving image data. The measurement control unit 121 outputs the learning moving image data stored in the moving image storage unit 111 to the display device 21 and the speaker 22, and gives the brain activity when the image and sound by the learning moving image data are given to the estimation reference person S1. Let fMRI30 measure. The measurement control unit 121 acquires the fMRI signal of the brain activity from the fMRI 30 at predetermined time intervals, and stores the measurement result in the measurement result storage unit 114 in time series as the measurement result. Various methods have been proposed for extracting visual features, and for example, AlexNet, VGG 19 layer, etc. can be used. The extracted feature amount is represented by, for example, an n-dimensional vector (n is a natural number), and n = 4096, n = 1000, etc. are assumed, but are not limited to these numbers. In addition, various methods have been proposed for extracting auditory features, and for example, soundNet can be used. The extracted feature amount is represented by, for example, an m-dimensional (m is a natural number) vector, and m = 362, m = 3133, etc. are assumed, but the feature amount is not limited to these numbers.
For example, the measurement control unit 121 may give an image and a sound to the estimation reference person S1 at the same time, a case where only an image is given to the estimation reference person S1, and a case where only a sound is given to the estimation reference person S1. The measurement result of the brain activity may be acquired.

特徴量抽出部122は、学習用動画データから感覚に関する特徴量を抽出する。特徴量抽出部122は、学習用動画データに含まれる画像データから視覚特徴量を、学習用動画データに含まれる音データから聴覚特徴量を、それぞれ所定の時間間隔ごとに抽出する。特徴量抽出部122は、抽出した所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を時系列に特徴量記憶部113に記憶させる。 The feature amount extraction unit 122 extracts the feature amount related to the sensation from the learning moving image data. The feature amount extraction unit 122 extracts the visual feature amount from the image data included in the learning moving image data and the auditory feature amount from the sound data included in the learning moving image data at predetermined time intervals. The feature amount extraction unit 122 stores the extracted visual feature amount and auditory feature amount for each predetermined time interval in the feature amount storage unit 113 in chronological order.

特徴空間構築部123(第1の生成部の一例)は、複数の感覚に関する複数の特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、複数の感覚のそれぞれに対応する第1の対応情報を生成する。例えば、特徴空間構築部123は、特徴量記憶部113が時系列に記憶する視覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、視覚特徴に関する脳情報表現の距離空間(意味空間)である視覚特徴空間を構築する。特徴空間構築部123は、例えば、線形回帰モデルによる下記の式(1)を用いて、視覚特徴空間のモデルを構築する。 The feature space construction unit 123 (an example of the first generation unit) is based on a plurality of feature quantities related to a plurality of sensations and measurement results of brain activity when the estimation reference person S1 is stimulated by learning video data. Therefore, the first correspondence information corresponding to each of the plurality of sensations is generated. For example, the feature space construction unit 123 is based on a plurality of sets of data of the visual feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement result storage unit 114 in time series. We construct a visual feature space, which is a distance space (semantic space) for expressing brain information about. The feature space construction unit 123 constructs a model of the visual feature space by using, for example, the following equation (1) based on a linear regression model.

Rv=Sv×Wv ・・・ (1) Rv = Sv × Wv ・ ・ ・ (1)

Svは、視覚特徴量を示し、Rvは、Svを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、視覚特徴空間における位置情報(第1脳情報)に対応する。Wvは、脳活動情報のパターンと視覚特徴量との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWvの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、視覚特徴空間における位置情報Rv、視覚特徴量Sv、及び係数情報Wvは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。一つの例として、視覚特徴量Svがn次元のベクトル、脳活動情報の推定値Rvがn次元のベクトルとしたとき、n次元の視覚特徴量によって定まるn次元空間上の位置ベクトルとしてとらえることができる。この例では、視覚特徴量Svの次元数と脳活動情報の推定値Rvの次元数は同じであるが、同じである必要はなく、全く異なる次元数であることもできる。 Sv indicates a visual feature amount, and Rv is an estimated value of brain activity information when Sv is used as an input. The estimated value of this brain activity information corresponds to the position information (first brain information) in the visual feature space. Wv is coefficient information (weighting information) when associating a pattern of brain activity information with a visual feature amount, and is acquired as a result of learning. For this Wv estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Rv, the visual feature amount Sv, and the coefficient information Wv in the visual feature space are multidimensional information, such as a vector, a matrix, and array data. As an example, when the visual feature amount Sv is an n-dimensional vector and the estimated value Rv of the brain activity information is an n-dimensional vector, it can be regarded as a position vector on the n-dimensional space determined by the n-dimensional visual feature amount. can. In this example, the number of dimensions of the visual feature amount Sv and the number of dimensions of the estimated value Rv of the brain activity information are the same, but they do not have to be the same and may be completely different numbers.

特徴空間構築部123は、視覚特徴量と脳活動の計測結果との複数の組データと、式(1)とに基づいて学習処理を実行し、係数情報Wvを構築結果(第1の対応情報)として生成する。視覚特徴空間を構築する際に用いる計測結果は、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、画像のみを推定基準者S1に与えた場合の計測結果である。また、特徴空間構築部123は、生成した係数情報Wvを構築結果記憶部115に記憶させる。 The feature space construction unit 123 executes learning processing based on a plurality of set data of visual feature quantities and measurement results of brain activity, and equation (1), and constructs coefficient information Wv (first correspondence information). ). The measurement result used when constructing the visual feature space is the measurement result when the image and the sound are given to the estimation reference person S1 at the same time, or the measurement result when only the image is given to the estimation reference person S1. Further, the feature space construction unit 123 stores the generated coefficient information Wv in the construction result storage unit 115.

また、例えば、特徴空間構築部123は、特徴量記憶部113が時系列に記憶する聴覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、聴覚特徴に関する脳情報表現の距離空間(意味空間)である聴覚特徴空間を構築する。特徴空間構築部123は、例えば、線形回帰モデルによる下記の式(2)を用いて、聴覚特徴空間のモデルを構築する。 Further, for example, the feature space construction unit 123 is based on a plurality of sets of data of the auditory feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement result storage unit 114 in time series. We construct an auditory feature space, which is a distance space (semantic space) for expressing brain information related to auditory features. The feature space construction unit 123 constructs a model of the auditory feature space by using, for example, the following equation (2) based on a linear regression model.

Rs=Ss×Ws ・・・ (2) Rs = Ss × Ws ・ ・ ・ (2)

Ssは、視覚特徴量を示し、Rsは、Ssを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、聴覚特徴空間における位置情報(第1脳情報)に対応する。Wsは、脳活動情報のパターンと聴覚特徴量との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWsの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、聴覚特徴空間における位置情報Rs、聴覚特徴量Ss、及び係数情報Wsは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。一つの例として、聴覚特徴量Ssがm次元のベクトル、脳活動情報の推定値Rsがm次元のベクトルとしたとき、m次元の聴覚特徴量によって定まるm次元空間上の位置ベクトルとしてとらえることができる。この例では、聴覚特徴量Ssの次元数と脳活動情報の推定値Rsの次元数は同じであるが、同じである必要はなく、全く異なる次元数であることもできる。 Ss indicates a visual feature amount, and Rs is an estimated value of brain activity information when Ss is used as an input. The estimated value of this brain activity information corresponds to the position information (first brain information) in the auditory feature space. Ws is coefficient information (weighting information) when associating a pattern of brain activity information with an auditory feature amount, and is acquired as a result of learning. For this Ws estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Rs, the auditory feature amount Ss, and the coefficient information Ws in the auditory feature space are multidimensional information, for example, a vector, a matrix, an array data, or the like. As an example, when the auditory feature Ss is an m-dimensional vector and the estimated value Rs of the brain activity information is an m-dimensional vector, it can be regarded as a position vector in the m-dimensional space determined by the m-dimensional auditory feature. can. In this example, the number of dimensions of the auditory feature Ss and the number of dimensions of the estimated value Rs of the brain activity information are the same, but they do not have to be the same and may be completely different numbers.

特徴空間構築部123は、聴覚特徴量と脳活動の計測結果との複数の組データと、式(2)とに基づいて学習処理を実行し、係数情報Wsを構築結果(第1の対応情報)として生成する。聴覚特徴空間を構築する際に用いる計測結果は、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、音のみを推定基準者S1に与えた場合の計測結果である。また、特徴空間構築部123は、生成した係数情報Wsを構築結果記憶部115に記憶させる。 The feature space construction unit 123 executes a learning process based on a plurality of set data of the auditory feature amount and the measurement result of the brain activity and the equation (2), and constructs the coefficient information Ws (first correspondence information). ). The measurement result used when constructing the auditory feature space is the measurement result when the image and the sound are given to the estimation reference person S1 at the same time, or the measurement result when only the sound is given to the estimation reference person S1. Further, the feature space construction unit 123 stores the generated coefficient information Ws in the construction result storage unit 115.

感情空間構築部124(第2生成部の一例)は、学習用動画データに対応する感情評定と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感情評定と感情空間における位置情報(第2脳情報)との対応関係を示す第3の対応情報を生成する。感情評定としては、「快」「不快」「楽しい」「恐怖」というような感情や情動を表す複数、例えば、i個(iは自然数であり、例えば、数十から100程度が想定できるが、この数に限るものではない)の単語と、それぞれの単語についての程度を表す数字(例えば1から5)の組み合わせ(例:(恐怖、3)、(楽しい、5)等)を用いることができる。そして、この感情評定は、学習用動画データをあらかじめ視聴した被験者によって、取得されたものを利用することができるが、推定基準者S1自身で、取得することも可能である。感情評定について、この例を利用する場合、i次元のベクトルと考えることができる。
例えば、感情空間構築部124は、感情評定記憶部112が時系列に予め記憶されている感情評定と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、感情に関する脳情報表現の距離空間(意味空間)である感情空間を構築する。感情空間構築部124は、例えば、線形回帰モデルによる下記の式(3)を用いて、感情空間のモデルを構築する。
The emotion space construction unit 124 (an example of the second generation unit) is based on the emotion rating corresponding to the learning video data and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning video data. Therefore, a third correspondence information showing the correspondence between the emotion rating and the position information (second brain information) in the emotion space is generated. As an emotional rating, a plurality of emotions and emotions such as "pleasant", "unpleasant", "fun", and "fear", for example, i (i is a natural number, and for example, several tens to 100 can be assumed). A combination of words (not limited to this number) and numbers (eg 1 to 5) representing the degree of each word (eg (fear, 3), (fun, 5), etc.) can be used. .. Then, this emotional evaluation can be obtained by the subject who has viewed the learning moving image data in advance, but it can also be acquired by the estimation reference person S1 himself. When using this example for emotion rating, it can be thought of as an i-dimensional vector.
For example, the emotion space construction unit 124 is based on a plurality of sets of data of an emotion rating stored in advance in the emotion rating storage unit 112 in time series and a measurement result stored in the measurement result storage unit 114 in time series. Build an emotional space, which is a distance space (semantic space) for expressing brain information about emotions. The emotional space construction unit 124 constructs a model of the emotional space by using, for example, the following equation (3) based on a linear regression model.

Re=Se×We ・・・ (3) Re = Se × We ・ ・ ・ (3)

Seは、感情評定を示し、Reは、Seを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、推定される感情空間における位置情報(第2脳情報)に対応する。Weは、脳活動情報のパターンと感情評定との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWeの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、感情空間における位置情報Re、感情評定Se、及び係数情報Weは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。感情評定をi次元のベクトル、第2脳情報Reをi次元のベクトルとした時、i次元の感情評定により定まるi次元空間の位置ベクトルとしてとらえることができる。この例では、感情評定の次元数と第2脳情報の次元数は同じであるが、同じである必要はなく、全く異なる次元数であってもよい。感情評定は、一例としては、複数の感覚に関する特徴量(例えば、視覚特徴量Svと聴覚特徴量Ssとの合算特徴量)の次元数より少ない次元数の情報である。 Se indicates an emotional rating, and Re is an estimated value of brain activity information when Se is used as an input. The estimated value of this brain activity information corresponds to the position information (second brain information) in the estimated emotional space. We is coefficient information (weighting information) when associating a pattern of brain activity information with an emotional rating, and is acquired as a result of learning. For this We estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Re, the emotion rating Se, and the coefficient information We in the emotion space are multidimensional information, for example, a vector, a matrix, an array data, or the like. When the emotion rating is an i-dimensional vector and the second brain information Re is an i-dimensional vector, it can be regarded as a position vector in the i-dimensional space determined by the i-dimensional emotion rating. In this example, the number of dimensions of the emotion rating and the number of dimensions of the second brain information are the same, but they do not have to be the same and may be completely different numbers. The emotion rating is, for example, information having a dimension number smaller than the dimension number of the feature amount relating to a plurality of sensations (for example, the total feature amount of the visual feature amount Sv and the auditory feature amount Ss).

感情空間構築部124は、感情評定と脳活動の計測結果との複数の組データと、式(3)とに基づいて学習処理を実行し、係数情報Weを構築結果(第3の対応情報)として生成する。感情空間を構築する際に用いる計測結果は、例えば、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、画像のみを推定基準者S1に与えた場合の計測結果、又は、音のみを推定基準者S1に与えた場合の計測結果である。また、感情空間構築部124は、生成した係数情報Weを構築結果記憶部115に記憶させる。 The emotion space construction unit 124 executes a learning process based on a plurality of set data of emotion evaluation and measurement results of brain activity, and equation (3), and constructs coefficient information We (third correspondence information). Generate as. The measurement result used when constructing the emotional space is, for example, the measurement result when the image and the sound are given to the estimation reference person S1 at the same time, or the measurement result when only the image is given to the estimation reference person S1. This is a measurement result when only sound is given to the estimation reference person S1. Further, the emotional space construction unit 124 stores the generated coefficient information We in the construction result storage unit 115.

空間対応構築部125(第3生成部の一例)は、学習用動画データに対応する複数の第1脳情報(視覚・聴覚空間における位置情報)が示す距離空間における位置と、第2脳情報(感情空間における位置情報)が示す距離空間における位置とに基づいて、視覚・聴覚空間と感情空間との対応情報である第2の対応情報を生成する。複数の第1脳情報は、例えば、上述した係数情報Wv及び係数情報Wsに基づいて、学習用動画データに対応する視覚特徴量及び聴覚特徴量から生成された視覚・聴覚空間における位置情報である。また、第2脳情報は、上述した係数情報Weに基づいて、学習用動画データに対応する感情評定から生成された感情空間における位置情報である。 The spatial correspondence construction unit 125 (an example of the third generation unit) has a position in a distance space indicated by a plurality of first brain information (position information in the visual / auditory space) corresponding to the video data for learning, and a second brain information (an example). Based on the position in the distance space indicated by the position information in the emotional space), the second correspondence information which is the correspondence information between the visual / auditory space and the emotional space is generated. The plurality of first brain information is, for example, position information in the visual / auditory space generated from the visual feature amount and the auditory feature amount corresponding to the learning moving image data based on the above-mentioned coefficient information Wv and coefficient information Ws. .. Further, the second brain information is position information in the emotion space generated from the emotion rating corresponding to the learning moving image data based on the above-mentioned coefficient information We.

空間対応構築部125は、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、例えば、線形回帰モデルによる下記の式(4)を用いて、視覚・聴覚空間と感情空間との対応関係を学習する。 The space correspondence construction unit 125 uses the following equation (4) by a linear regression model from the set data of the position information in the visual / auditory space and the position information in the emotional space, for example, to use the following equation (4) in the visual / auditory space and the emotional space. Learn the correspondence with.

Re=[Rv,Rs]×A・・・ (4) Re = [Rv, Rs] × A ... (4)

Reは、推定される感情空間における位置情報(第2脳情報)を示し、[Rv,Rs]は、視覚及び聴覚空間における位置情報を結合した結果を意味する。また、Aは、係数情報(重み付け情報)であり、視覚・聴覚空間と感情空間との対応関係を示す第2の対応情報(学習結果)に対応する。そして、Reは、例えば、i次元空間における位置ベクトルで表すことができ、また、[Rv、Rs]は、視覚と聴覚を組み合わせた、例えば、(n+m)次元空間における位置ベクトルで表すことができる。これにより、この二つの位置ベクトルの関係を、脳活動の計測結果を介して、関連付けることができ、この関連付けが、第2の対応情報となる。また、Aを推定する際には、L2ノルムを考慮したリッジ回帰を用いてもよい。
このように、空間対応構築部125は、視覚・聴覚空間における位置情報と感情空間における位置情報とを対応付け、第2の対応情報を生成する。空間対応構築部125は、生成した第2の対応情報を、構築結果記憶部115に記憶させる。
Re indicates the estimated position information in the emotional space (second brain information), and [Rv, Rs] means the result of combining the position information in the visual and auditory spaces. Further, A is coefficient information (weighting information), and corresponds to the second correspondence information (learning result) showing the correspondence between the visual / auditory space and the emotional space. Then, Re can be represented by, for example, a position vector in i-dimensional space, and [Rv, Rs] can be represented by, for example, a position vector in a (n + m) dimensional space that combines visual and auditory senses. .. As a result, the relationship between the two position vectors can be related via the measurement result of the brain activity, and this relationship becomes the second correspondence information. Further, when estimating A, ridge regression considering the L2 norm may be used.
In this way, the spatial correspondence construction unit 125 associates the positional information in the visual / auditory space with the positional information in the emotional space, and generates the second correspondence information. The spatial correspondence construction unit 125 stores the generated second correspondence information in the construction result storage unit 115.

推定装置40は、解析装置10が学習処理により構築した各種構築結果と、それらの対応情報と用いて、推定対象の動画データから感情評定を推定する推定処理を実行する。推定装置40は、記憶部41と、制御部42とを備える。 The estimation device 40 executes an estimation process of estimating an emotion rating from the moving image data to be estimated by using various construction results constructed by the analysis device 10 by the learning process and the corresponding information thereof. The estimation device 40 includes a storage unit 41 and a control unit 42.

記憶部41は、例えば、特徴量記憶部411と、投射結果記憶部412と、感情情報記憶部413と、推定結果記憶部414とを備える。
特徴量記憶部411は、推定対象の動画データから抽出された視覚特徴量と、聴覚特徴量とを記憶する。具体的には、特徴量記憶部411は、特徴量抽出部421により所定の時間間隔ごと(所定の単位時間ごと)に推定対象の動画データから抽出された視覚特徴量及び聴覚特徴量を、時系列に記憶する。
The storage unit 41 includes, for example, a feature amount storage unit 411, a projection result storage unit 412, an emotion information storage unit 413, and an estimation result storage unit 414.
The feature amount storage unit 411 stores the visual feature amount extracted from the moving image data to be estimated and the auditory feature amount. Specifically, the feature amount storage unit 411 stores the visual feature amount and the auditory feature amount extracted from the moving image data to be estimated at predetermined time intervals (at predetermined unit time) by the feature amount extraction unit 421. Store in the series.

投射結果記憶部412は、感情評定の推定処理における中間情報である各種投射結果を記憶する。投射結果記憶部412は、例えば、視覚特徴量から視覚特徴空間に投射した投射結果、聴覚特徴量から聴覚特徴空間に投射した投射結果、及び視覚・聴覚空間から感情空間に投射した投射結果を記憶する。また、投射結果記憶部412は、例えば、所定の時間間隔ごとに各種投射結果を時系列に記憶する。 The projection result storage unit 412 stores various projection results which are intermediate information in the estimation process of emotion evaluation. The projection result storage unit 412 stores, for example, a projection result projected from the visual feature amount to the visual feature space, a projection result projected from the auditory feature amount to the auditory feature space, and a projection result projected from the visual / auditory space to the emotional space. do. Further, the projection result storage unit 412 stores various projection results in time series, for example, at predetermined time intervals.

感情情報記憶部413は、動画・画像または音などの刺激に対して所定の時間間隔ごとに紐づけられた感情評定と、例えば、“悲しい”、“恐怖”などの複数種別のうちいずれかの感情の名称(ラベル情報)とを対応付けて記憶する。
推定結果記憶部414は、推定装置40により推定された、推定対象の動画データに対応する感情評定の推定結果を記憶する。推定結果記憶部414は、例えば、所定の時間間隔ごとに、感情評定の推定結果を時系列に記憶する。
The emotion information storage unit 413 has an emotion rating associated with a stimulus such as a moving image, an image, or a sound at predetermined time intervals, and one of a plurality of types such as "sad" and "fear". It is stored in association with the emotional name (label information).
The estimation result storage unit 414 stores the estimation result of the emotion rating corresponding to the moving image data to be estimated, which is estimated by the estimation device 40. The estimation result storage unit 414 stores, for example, the estimation result of the emotion evaluation in a time series at predetermined time intervals.

制御部42は、例えば、CPUなどを含むプロセッサであり、推定装置40を統括的に制御する。制御部42は、特徴量抽出部421と、特徴空間投射部422と、感情空間投射部423と、推定処理部424とを備える。 The control unit 42 is a processor including, for example, a CPU, and controls the estimation device 40 in an integrated manner. The control unit 42 includes a feature amount extraction unit 421, a feature space projection unit 422, an emotion space projection unit 423, and an estimation processing unit 424.

特徴量抽出部421は、推定対象の動画データを取得して、当該推定対象の動画データから複数の感覚に関する複数の特徴量を抽出する。推定対象の動画データには、画像データと音データとが含まれる。特徴量抽出部421は、例えば、推定対象の動画データの画像データから所定の時間間隔ごとの視覚特徴量を抽出し、音データから所定の時間間隔ごとの聴覚特徴量を抽出する。特徴量抽出部421は、推定対象の動画データから抽出した所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を時系列に特徴量記憶部411に記憶させる。 The feature amount extraction unit 421 acquires the moving image data of the estimation target, and extracts a plurality of feature amounts related to a plurality of sensations from the moving image data of the estimation target. The moving image data to be estimated includes image data and sound data. For example, the feature amount extraction unit 421 extracts the visual feature amount for each predetermined time interval from the image data of the moving image data to be estimated, and extracts the auditory feature amount for each predetermined time interval from the sound data. The feature amount extraction unit 421 stores the visual feature amount and the auditory feature amount for each predetermined time interval extracted from the moving image data to be estimated in the feature amount storage unit 411 in chronological order.

特徴空間投射部422(第1変換部の一例)は、上述した第1の対応情報に基づいて、特徴量抽出部421によって推定対象の動画データから抽出された複数の特徴量を、それぞれに対応する複数の第1脳情報に変換する。特徴空間投射部422は、まず、解析装置10の構築結果記憶部115が記憶する構築結果(係数情報Wv及び係数情報Ws)を取得する。特徴空間投射部422は、特徴量記憶部411が記憶する視覚特徴量Svを、取得した係数情報Wvを用いて、視覚特徴空間に投射し、視覚特徴空間における位置情報Rvに変換する。特徴空間投射部422は、特徴量記憶部411が記憶する聴覚特徴量Ssを、取得した係数情報Wsを用いて、聴覚特徴空間に投射し、視覚特徴空間における位置情報Rsに変換する。特徴空間投射部422は、これらの投射処理を、所定の時間間隔ごとの特徴量(Sv、Ss)に対して実行し、投射結果(Rv、Rs)を投射結果記憶部412に時系列に記憶させる。 The feature space projection unit 422 (an example of the first conversion unit) corresponds to each of a plurality of feature quantities extracted from the moving image data to be estimated by the feature quantity extraction unit 421 based on the above-mentioned first correspondence information. Convert to multiple first brain information. The feature space projection unit 422 first acquires the construction results (coefficient information Wv and coefficient information Ws) stored in the construction result storage unit 115 of the analysis device 10. The feature space projection unit 422 projects the visual feature amount Sv stored in the feature amount storage unit 411 onto the visual feature space using the acquired coefficient information Wv, and converts it into position information Rv in the visual feature space. The feature space projection unit 422 projects the auditory feature amount Ss stored in the feature amount storage unit 411 onto the auditory feature space using the acquired coefficient information Ws, and converts it into position information Rs in the visual feature space. The feature space projection unit 422 executes these projection processes for the feature quantities (Sv, Ss) at predetermined time intervals, and stores the projection results (Rv, Rs) in the projection result storage unit 412 in chronological order. Let me.

感情空間投射部423(第2変換部の一例)は、上述した第2の対応情報に基づいて、特徴空間投射部422によって変換された複数の第1脳情報を、第2脳情報に変換する。具体的には、感情空間投射部423は、まず、解析装置10の構築結果記憶部115が記憶する構築結果(係数情報A)を取得する。感情空間投射部423は、投射結果記憶部412が記憶する投射結果(Rv、Rs)を取得し、例えば、視覚特徴空間における位置情報Rvと聴覚特徴空間における位置情報Rsとを結合して、視覚・聴覚空間における位置情報Rv及びRsを生成する。感情空間投射部423は、取得した係数情報Aを用いて、視覚・聴覚空間における位置情報Rv及びRsを感情空間に投射し、感情空間における位置情報Reに変換する。感情空間投射部423は、これらの投射し、変換する処理を、所定の時間間隔ごとの視覚・聴覚空間における位置情報Rv及びRsに対して実行し、変換した結果(Re)を投射結果記憶部412に時系列に記憶させる。 The emotion space projection unit 423 (an example of the second conversion unit) converts a plurality of first brain information converted by the feature space projection unit 422 into second brain information based on the above-mentioned second correspondence information. .. Specifically, the emotion space projection unit 423 first acquires the construction result (coefficient information A) stored in the construction result storage unit 115 of the analysis device 10. The emotional space projection unit 423 acquires the projection results (Rv, Rs) stored in the projection result storage unit 412, and for example, the position information Rv in the visual feature space and the position information Rs in the auditory feature space are combined to provide visual perception. -Generate position information Rv and Rs in the auditory space. The emotion space projection unit 423 projects the position information Rv and Rs in the visual / auditory space to the emotion space using the acquired coefficient information A, and converts it into the position information Re in the emotion space. The emotion space projection unit 423 executes these projection and conversion processes on the position information Rv and Rs in the visual / auditory space at predetermined time intervals, and stores the converted result (Re) in the projection result storage unit. Store in 412 in chronological order.

推定処理部424(推定部の一例)は、感情空間投射部423によって変換された第2脳情報(感情空間における位置情報Re)に基づいて、推定対象の動画データに対応する感情評定を推定する。推定処理部424は、例えば、解析装置10の構築結果記憶部115が記憶する係数情報We(第3の対応情報)など利用して、感情空間における位置情報Reを逆変換して、感情評定を推定してもよいし、予め判明している感情評定に対応する感情空間における位置との距離に基づいて、感情評定を推定してもよい。推定処理部424は、感情評定の推定結果を推定結果記憶部414に記憶させる。 The estimation processing unit 424 (an example of the estimation unit) estimates the emotion rating corresponding to the moving image data to be estimated based on the second brain information (position information Re in the emotion space) converted by the emotion space projection unit 423. .. The estimation processing unit 424 uses, for example, the coefficient information We (third correspondence information) stored in the construction result storage unit 115 of the analysis device 10 to reversely convert the position information Re in the emotion space to perform emotion evaluation. It may be estimated, or the emotion rating may be estimated based on the distance from the position in the emotion space corresponding to the emotion rating known in advance. The estimation processing unit 424 stores the estimation result of the emotion evaluation in the estimation result storage unit 414.

推定処理部424は、感情評定の推定結果を推定装置40に外部に出力する。推定処理部424は、例えば、感情評定の推定結果を外部に出力する際に、感情情報記憶部413が記憶する情報を用いて、感情の名称に変換して出力してもよい。 The estimation processing unit 424 outputs the estimation result of the emotion evaluation to the estimation device 40 to the outside. For example, when the estimation processing unit 424 outputs the estimation result of the emotion rating to the outside, the estimation processing unit 424 may convert the information stored in the emotion information storage unit 413 into an emotion name and output it.

次に、図面を参照して、本実施形態による推定システム1の動作についての一例を説明する。
図2は、本実施形態による推定システム1の学習処理の一例を示すフローチャートである。また、図3は、本実施形態における距離空間の構築処理の一例を説明する図である。また、図4は、本実施形態における空間対応関係の構築処理の一例を説明する図である。
Next, an example of the operation of the estimation system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 2 is a flowchart showing an example of the learning process of the estimation system 1 according to the present embodiment. Further, FIG. 3 is a diagram illustrating an example of the metric space construction process in the present embodiment. Further, FIG. 4 is a diagram illustrating an example of the spatial correspondence relationship construction process in the present embodiment.

図2に示すように、推定システム1の解析装置10は、学習用の動画による視覚刺激及び聴覚刺激に対する脳活動を計測する(ステップS101)。解析装置10の計測制御部121は、動画記憶部111が記憶する動画データを表示装置21及びスピーカ22に出力させ、当該動画データによる画像及び音を刺激として推定基準者S1に与えた際の脳活動を、fMRI30に計測させる。計測制御部121は、fMRI30が計測した脳活動の計測結果(fMRI信号)を所定の時間間隔で取得し、当該計測結果を計測結果記憶部114に時系列に記憶させる。 As shown in FIG. 2, the analysis device 10 of the estimation system 1 measures the brain activity in response to the visual stimulus and the auditory stimulus by the moving image for learning (step S101). The measurement control unit 121 of the analysis device 10 outputs the moving image data stored in the moving image storage unit 111 to the display device 21 and the speaker 22, and gives the image and sound of the moving image data to the estimation reference person S1 as a stimulus. The activity is measured by fMRI30. The measurement control unit 121 acquires the measurement result (fMRI signal) of the brain activity measured by the fMRI 30 at a predetermined time interval, and stores the measurement result in the measurement result storage unit 114 in time series.

次に、解析装置10の特徴量抽出部122は、学習用動画データから視覚特徴量及び聴覚特徴量を抽出する(ステップS102、図3参照)。特徴量抽出部122は、所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を抽出し、時系列に特徴量記憶部113に記憶させる。 Next, the feature amount extraction unit 122 of the analysis device 10 extracts the visual feature amount and the auditory feature amount from the learning moving image data (step S102, see FIG. 3). The feature amount extraction unit 122 extracts the visual feature amount and the auditory feature amount at predetermined time intervals and stores them in the feature amount storage unit 113 in chronological order.

次に、解析装置10の特徴空間構築部123は、視覚特徴量と脳活動の計測結果とから視覚特徴空間を構築する(ステップS103、図3参照)。特徴空間構築部123は、特徴量記憶部113が時系列に記憶する視覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(1)を用いて学習処理して、視覚特徴空間のモデルを構築する。特徴空間構築部123は、学習結果として、係数情報Wvを生成し、生成した係数情報Wvを構築結果記憶部115に記憶させる。 Next, the feature space construction unit 123 of the analysis device 10 constructs a visual feature space from the visual feature amount and the measurement result of the brain activity (see step S103, FIG. 3). The feature space construction unit 123 describes a plurality of sets of data of the visual feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement result storage unit 114 in time series by the above-mentioned equation (1). To build a model of the visual feature space by learning processing using. The feature space construction unit 123 generates coefficient information Wv as a learning result, and stores the generated coefficient information Wv in the construction result storage unit 115.

次に、特徴空間構築部123は、聴覚特徴量と脳活動の計測結果とから聴覚特徴空間を構築する(ステップS104、図3参照)。特徴空間構築部123は、特徴量記憶部113が時系列に記憶する聴覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(2)を用いて学習処理して、聴覚特徴空間のモデルを構築する。特徴空間構築部123は、学習結果として、係数情報Wsを生成し、生成した係数情報Wsを構築結果記憶部115に記憶させる。 Next, the feature space construction unit 123 constructs an auditory feature space from the auditory feature amount and the measurement result of the brain activity (step S104, see FIG. 3). The feature space construction unit 123 describes a plurality of sets of data of the auditory feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement result storage unit 114 in time series by the above-mentioned equation (2). A model of the auditory feature space is constructed by learning processing using. The feature space construction unit 123 generates coefficient information Ws as a learning result, and stores the generated coefficient information Ws in the construction result storage unit 115.

次に、解析装置10の感情空間構築部124は、感情評定と脳活動の計測結果とから感情空間を構築する(ステップS105、図3参照)。感情空間構築部124は、感情評定記憶部112が時系列に予め記憶されている感情評定と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(3)を用いて学習処理して、感情空間のモデルを構築する。感情空間構築部124は、学習結果として、係数情報Weを生成し、生成した係数情報Weを構築結果記憶部115に記憶させる。 Next, the emotional space construction unit 124 of the analysis device 10 constructs an emotional space from the emotional evaluation and the measurement result of the brain activity (step S105, see FIG. 3). The emotion space construction unit 124 describes a plurality of set data of the emotion rating stored in advance in the emotion rating storage unit 112 in time series and the measurement result stored in the measurement result storage unit 114 in time series by the above-mentioned formula ( A model of the emotional space is constructed by learning processing using 3). The emotional space construction unit 124 generates the coefficient information We as a learning result, and stores the generated coefficient information We in the construction result storage unit 115.

次に、解析装置10の空間対応構築部125は、視覚特徴空間及び聴覚特徴空間と、感情空間との対応関係を学習する(ステップS106、図4参照)。空間対応構築部125は、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、上述した式(4)を用いて、視覚・聴覚空間と感情空間との対応関係を学習する。空間対応構築部125は、学習結果として、係数情報Aを生成し、生成した係数情報Aを構築結果記憶部115に記憶させる。ステップS106の処理後に、空間対応構築部125は、学習処理を終了する。 Next, the spatial correspondence construction unit 125 of the analysis device 10 learns the correspondence relationship between the visual feature space and the auditory feature space and the emotional space (see step S106, FIG. 4). The spatial correspondence construction unit 125 learns the correspondence relationship between the visual / auditory space and the emotional space by using the above-mentioned equation (4) from the set data of the positional information in the visual / auditory space and the positional information in the emotional space. do. The spatial correspondence construction unit 125 generates coefficient information A as a learning result, and stores the generated coefficient information A in the construction result storage unit 115. After the process of step S106, the spatial correspondence construction unit 125 ends the learning process.

上述したステップS102からステップS105までの処理は、図3に示す距離空間の構築処理に対応する。図3に示すように、解析装置10は、学習用動画データから視覚特徴量及び聴覚特徴量を抽出するとともに、学習用動画データに対応する感情評定を取得する。そして、解析装置10は、脳活動の計測結果に基づいて、視覚特徴量から視覚特徴空間を構築して係数情報Wv(第1の対応情報)を生成し、聴覚特徴量から聴覚特徴空間を構築して係数情報Ws(第1の対応情報)を生成する。また、解析装置10は、脳活動の計測結果に基づいて、感情評定から感情空間を構築して係数情報Weを生成する。 The process from step S102 to step S105 described above corresponds to the metric space construction process shown in FIG. As shown in FIG. 3, the analysis device 10 extracts the visual feature amount and the auditory feature amount from the learning moving image data, and acquires the emotion rating corresponding to the learning moving image data. Then, the analysis device 10 constructs a visual feature space from the visual feature amount based on the measurement result of the brain activity, generates coefficient information Wv (first correspondence information), and constructs the auditory feature space from the auditory feature amount. And generate coefficient information Ws (first correspondence information). Further, the analysis device 10 constructs an emotional space from the emotional evaluation based on the measurement result of the brain activity, and generates the coefficient information We.

また、上述したステップS106の処理は、図4に示す空間対応関係の構築処理に対応する。図4に示すように、解析装置10は、上述した距離空間の構築処理にて構築した視覚特徴空間及び聴覚特徴空間(視覚・聴覚空間)と、感情空間との対応関係を、例えば、線形回帰モデルを用いて、学習する。 Further, the process of step S106 described above corresponds to the process of constructing the spatial correspondence relationship shown in FIG. As shown in FIG. 4, the analysis device 10 describes, for example, a linear regression of the correspondence between the visual feature space and the auditory feature space (visual / auditory space) constructed by the above-mentioned distance space construction process and the emotional space. Learn using a model.

次に、図面を参照して、本実施形態による推定システム1の推定処理について説明する。
図5は、本実施形態による推定システム1の推定処理の一例を示すフローチャートである。また、図6は、本実施形態による推定システム1の推定処理の一例の概要を説明する図である。
Next, the estimation process of the estimation system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 5 is a flowchart showing an example of the estimation process of the estimation system 1 according to the present embodiment. Further, FIG. 6 is a diagram illustrating an outline of an example of the estimation process of the estimation system 1 according to the present embodiment.

図5に示すように、推定装置40の特徴量抽出部421は、まず、推定対象の動画データを取得する(ステップS201)。
次に、特徴量抽出部421は、推定対象の動画データから視覚特徴量及び聴覚特徴量を抽出する(ステップS202、図6参照)。特徴量抽出部421は、例えば、推定対象の動画データに含まれる画像データから視覚特徴量Svを抽出する。また、特徴量抽出部421は、例えば、推定対象の動画データに含まれる音データから聴覚特徴量Ssを抽出する。特徴量抽出部421は、抽出した視覚特徴量Sv及び聴覚特徴量Ssを特徴量記憶部411に記憶させる。
As shown in FIG. 5, the feature amount extraction unit 421 of the estimation device 40 first acquires the moving image data to be estimated (step S201).
Next, the feature amount extraction unit 421 extracts the visual feature amount and the auditory feature amount from the moving image data to be estimated (step S202, see FIG. 6). The feature amount extraction unit 421 extracts the visual feature amount Sv from the image data included in the moving image data to be estimated, for example. Further, the feature amount extraction unit 421 extracts the auditory feature amount Ss from the sound data included in the moving image data to be estimated, for example. The feature amount extraction unit 421 stores the extracted visual feature amount Sv and auditory feature amount Ss in the feature amount storage unit 411.

次に、推定装置40の特徴空間投射部422は、視覚特徴量を視覚特徴空間に投射する(ステップS203、図6参照)。特徴空間投射部422は、特徴量記憶部411が記憶する視覚特徴量Svを、解析装置10が生成した係数情報Wvを用いて、視覚特徴空間に投射し、視覚特徴空間における位置情報Rvに変換する。特徴空間投射部422は、視覚特徴空間における位置情報Rvを投射結果記憶部412に記憶させる。 Next, the feature space projection unit 422 of the estimation device 40 projects the visual feature amount onto the visual feature space (step S203, see FIG. 6). The feature space projection unit 422 projects the visual feature amount Sv stored in the feature amount storage unit 411 onto the visual feature space using the coefficient information Wv generated by the analyzer 10 and converts it into the position information Rv in the visual feature space. do. The feature space projection unit 422 stores the position information Rv in the visual feature space in the projection result storage unit 412.

次に、特徴空間投射部422は、聴覚特徴量を聴覚特徴空間に投射する(ステップS204、図6参照)。特徴空間投射部422は、特徴量記憶部411が記憶する聴覚特徴量Ssを、解析装置10が生成した係数情報Wsを用いて、聴覚特徴空間に投射し、聴覚特徴空間における位置情報Rsに変換する。特徴空間投射部422は、聴覚特徴空間における位置情報Rsを投射結果記憶部412に記憶させる。 Next, the feature space projection unit 422 projects the auditory feature amount onto the auditory feature space (step S204, see FIG. 6). The feature space projection unit 422 projects the auditory feature amount Ss stored in the feature amount storage unit 411 onto the auditory feature space using the coefficient information Ws generated by the analyzer 10 and converts it into position information Rs in the auditory feature space. do. The feature space projection unit 422 stores the position information Rs in the auditory feature space in the projection result storage unit 412.

次に、推定装置40の感情空間投射部423は、視覚特徴空間及び聴覚特徴空間の位置から感情空間の位置を推定する(ステップS205、図6参照)。感情空間投射部423は、視覚特徴空間における位置情報Rvと聴覚特徴空間における位置情報Rsとを結合して、視覚・聴覚空間における位置情報Rv及びRsを生成する。感情空間投射部423は、解析装置10が生成した係数情報Aを用いて、視覚・聴覚空間における位置情報Rv及びRsを感情空間に投射し、感情空間における位置情報Reに変換する。 Next, the emotion space projection unit 423 of the estimation device 40 estimates the position of the emotion space from the positions of the visual feature space and the auditory feature space (see step S205, FIG. 6). The emotion space projection unit 423 combines the position information Rv in the visual feature space and the position information Rs in the auditory feature space to generate the position information Rv and Rs in the visual / auditory space. The emotion space projection unit 423 projects the position information Rv and Rs in the visual / auditory space to the emotion space using the coefficient information A generated by the analysis device 10, and converts the position information Rv and Rs into the emotion space Re.

次に、推定装置40の推定処理部424は、感情空間の位置から感情評定を逆投射する(ステップS206、図6参照)。推定処理部424は、感情空間における位置情報Reを、解析装置10が生成した係数情報Weを利用して、感情評定に逆投射し、感情評定を推定する。
次に、推定処理部424は、推定した感情評定を出力する(ステップS207)。
推定装置40は、推定対象の動画データに対して、上述したステップS201からS207の処理を、所定の時間間隔ごとに繰り返し実行する。
Next, the estimation processing unit 424 of the estimation device 40 back-projects the emotion rating from the position of the emotion space (step S206, see FIG. 6). The estimation processing unit 424 back-projects the position information Re in the emotion space to the emotion rating using the coefficient information We generated by the analysis device 10, and estimates the emotion rating.
Next, the estimation processing unit 424 outputs the estimated emotion rating (step S207).
The estimation device 40 repeatedly executes the processes of steps S201 to S207 described above for the moving image data to be estimated at predetermined time intervals.

以上説明したように、本実施形態による推定システム1は、特徴量抽出部421と、特徴空間投射部422(第1変換部)と、感情空間投射部423(第2変換部)と、推定処理部424(推定部)とを備える。特徴量抽出部421は、推定対象の刺激情報(例えば、動画データ)から複数の感覚に関する複数の特徴量(例えば、視覚特徴量及び聴覚特徴量)を抽出する。特徴空間投射部422は、第1の対応情報に基づいて、特徴量抽出部421によって推定対象の刺激情報から抽出された感覚に関する複数の特徴量を、それぞれに対応する複数の第1脳情報(例えば、視覚特徴空間における位置情報及び聴覚特徴空間における位置情報)に変換する。第1の対応情報は、複数の感覚に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す情報である。感情空間投射部423は、第2の対応情報に基づいて、特徴空間投射部422によって変換された複数の第1脳情報を、第2脳情報(例えば、感情空間における位置情報)に変換する。第2の対応情報は、第1脳情報と、推定基準者S1の内的な状態(例えば、感情)に対応する少なくとも1つの第2脳情報との対応関係を示す情報である。推定処理部424は、感情空間投射部423によって変換された第2脳情報に基づいて、推定対象の刺激情報に対応する内的な状態を推定する。ここで、第1脳情報と第2脳情報は、独立して取り扱われており、仮に、脳内においてこれらが独立に表現されていたとしても、感覚特徴量から感情空間への推定を有効に行うことができる。 As described above, the estimation system 1 according to the present embodiment includes a feature amount extraction unit 421, a feature space projection unit 422 (first conversion unit), an emotion space projection unit 423 (second conversion unit), and estimation processing. A unit 424 (estimation unit) is provided. The feature amount extraction unit 421 extracts a plurality of feature amounts (for example, visual feature amount and auditory feature amount) related to a plurality of sensations from the stimulus information (for example, moving image data) to be estimated. The feature space projection unit 422 uses a plurality of first brain information (corresponding to each of the plurality of features related to the sensation extracted from the stimulus information to be estimated by the feature quantity extraction unit 421 based on the first correspondence information. For example, it is converted into position information in the visual feature space and position information in the auditory feature space). The first correspondence information is information showing the correspondence relationship between each feature amount related to a plurality of sensations and the first brain information corresponding to each of the plurality of sensations. The emotional space projection unit 423 converts a plurality of first brain information converted by the feature space projection unit 422 into second brain information (for example, position information in the emotional space) based on the second correspondence information. The second correspondence information is information showing a correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state (for example, emotion) of the estimation reference person S1. The estimation processing unit 424 estimates the internal state corresponding to the stimulus information to be estimated based on the second brain information converted by the emotion space projection unit 423. Here, the first brain information and the second brain information are treated independently, and even if they are expressed independently in the brain, the estimation from the sensory features to the emotional space is effective. It can be carried out.

これにより、本実施形態による推定システム1は、第1の対応情報と、第2の対応情報とを使用して、感情などの推定基準者S1の内的な状態を推定するため、内的な状態を推定する度に、fMRI30による脳活動の計測を行う必要がない。そのため、本実施形態による推定システム1は、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。例えば、本実施形態による推定システム1は、映画やドラマ、ホームビデオなどの映像・音声コンテンツが視聴者(例えば、推定基準者S1)に与える感情の効果を、実際に視聴させずに画像や音声から評価することができる。 As a result, the estimation system 1 according to the present embodiment uses the first correspondence information and the second correspondence information to estimate the internal state of the estimation reference person S1 such as emotions, so that it is internal. It is not necessary to measure the brain activity by fMRI30 every time the state is estimated. Therefore, the estimation system 1 according to the present embodiment can quickly and easily estimate the internal state of the estimation reference person S1 with respect to the stimulus information. For example, the estimation system 1 according to the present embodiment has an image or audio without actually viewing the emotional effect of the video / audio content such as a movie, drama, or home video on the viewer (for example, the estimation reference person S1). It can be evaluated from.

また、図7は、本実施形態による推定システム1の効果の一例を説明する図である。
この図において、グラフの横軸は、本実施形態の推定システム1における推定された感情評定(推定値)と実際の感情評定(真の値)との相関係数の一例を示している。ここでの本実施形態における相関係数は、脳情報に関する知見を利用して感情評定を推定した場合を示している。また、グラフの縦軸は、脳情報を介さずに、単純に視覚特徴量及び聴覚特徴量から感情評定を推定した場合の推定された感情評定と実際の感情評定との相関係数を示している。
Further, FIG. 7 is a diagram illustrating an example of the effect of the estimation system 1 according to the present embodiment.
In this figure, the horizontal axis of the graph shows an example of the correlation coefficient between the estimated emotion rating (estimated value) and the actual emotion rating (true value) in the estimation system 1 of the present embodiment. Here, the correlation coefficient in the present embodiment shows the case where the emotion rating is estimated by using the knowledge about the brain information. In addition, the vertical axis of the graph shows the correlation coefficient between the estimated emotion rating and the actual emotion rating when the emotion rating is simply estimated from the visual features and the auditory features without using brain information. There is.

脳(脳情報)を介さずとは、図4に示すような視覚・聴覚特徴量から視覚・聴覚空間及び感情空間を介して感情評定を推定する本実施形態の方法に対し、視覚・聴覚特徴量から直接的に感情評定を推定する方法である。より具体的には、脳情報を介さずとは、視覚・聴覚特徴量から感情評定を説明するような線形回帰モデルを示す。また、各丸印は、感情評定の項目(名称、又はラベル情報)に対応している。また、この結果は、ある条件の学習用動画データを用いて学習処理を行い(一例として、「ワクワクする」に関連する時間帯から取得した視覚・聴覚特徴量及び感情評定を学習処理した例)、構築した従来の推定システムを用いて示されたものである。 The term “without going through the brain (brain information)” refers to the visual / auditory features as opposed to the method of the present embodiment in which the emotional rating is estimated from the visual / auditory features as shown in FIG. 4 via the visual / auditory space and the emotional space. It is a method of estimating the emotional rating directly from the quantity. More specifically, without using brain information, we show a linear regression model that explains emotional evaluation from visual and auditory features. In addition, each circle corresponds to an emotion rating item (name or label information). In addition, this result is subjected to learning processing using learning video data under certain conditions (as an example, an example of learning processing of visual / auditory features and emotional ratings acquired from a time zone related to "excitement"). , Shown using the conventional estimation system constructed.

図7において、黒丸印は、fMRI30により脳活動を計測せず、脳情報を介さずに推定した場合に比べて、本実施形態における相関係数が高く、推定精度の良い感情評定の項目を示している。縦縞の丸印は、本実施形態における相関係数が0.2以上であるが、脳情報を介さずに推定した場合に比べて、推定精度の悪い感情評定の項目を示している。白丸印は、脳情報を介する、及び脳情報を介さない場合のいずれにおいても相関係数が0.2以下であり、推定精度が低い感情評定の項目を示している。 In FIG. 7, the black circle indicates an emotion rating item having a high correlation coefficient and good estimation accuracy in the present embodiment as compared with the case where the brain activity is not measured by fMRI30 and is estimated without using brain information. ing. The circles with vertical stripes have a correlation coefficient of 0.2 or more in the present embodiment, but indicate an emotion rating item with poor estimation accuracy as compared with the case of estimation without using brain information. The white circles indicate emotion rating items with a correlation coefficient of 0.2 or less, both with and without brain information, and with low estimation accuracy.

図7に示すように、黒丸印の数が、縦縞の丸印の数よりも多く、本実施形態による推定システム1は、脳活動を介さずに推定した場合に比べて、推定精度が高い傾向にあることを示している。このように、この条件において、本実施形態による推定システム1が、単純に感覚に関する特徴量から推定基準者S1の内的な状態を推定する場合に比べて、高い推定精度を持つことが示されている。サインランク検定(p<0.01)により、脳情報を介さずに推定した場合に比べて、本実施形態による推定システム1の方が、有意に相関係数が高い結果となった。 As shown in FIG. 7, the number of black circles is larger than the number of vertical stripes, and the estimation system 1 according to the present embodiment tends to have higher estimation accuracy than the case of estimation without intervention of brain activity. It shows that it is in. As described above, under this condition, it is shown that the estimation system 1 according to the present embodiment has higher estimation accuracy than the case where the internal state of the estimation reference person S1 is simply estimated from the feature amount related to the senses. ing. The correlation coefficient of the estimation system 1 according to the present embodiment was significantly higher than that of the case of estimation without using brain information by the sine rank test (p <0.01).

また、本実施形態では、第1脳情報は、感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報(例えば、感覚に対応する距離空間における位置情報)である。第2脳情報は、内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報(例えば、内的な状態に対応する距離空間における位置情報)である。感情空間投射部423は、第2の対応情報に基づいて、複数の第1脳情報が示す距離空間における位置を、第2脳情報が示す距離空間における位置に変換する。推定処理部424は、第2脳情報が示す距離空間における位置に基づいて、内的な状態を推定する。
この脳活動の情報パターンの距離に関する情報は、本実施形態による推定システム1により推定値として得られるものである。このため、本実施形態による推定システム1は、推定対象の動画データについて、その動画データを推定基準者S1が視聴した際の脳活動をfMRI30により新しく計測しない場合でも、推定した距離空間を利用して、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。
Further, in the present embodiment, the first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as the distance (for example, the position information in the metric space corresponding to the sensation). The second brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance (for example, the position information in the metric space corresponding to the internal state). The emotional space projection unit 423 converts the position in the metric space indicated by the plurality of first brain information into the position in the metric space indicated by the second brain information based on the second correspondence information. The estimation processing unit 424 estimates the internal state based on the position in the metric space indicated by the second brain information.
The information regarding the distance of the information pattern of the brain activity is obtained as an estimated value by the estimation system 1 according to the present embodiment. Therefore, the estimation system 1 according to the present embodiment uses the estimated distance space for the video data to be estimated even when the brain activity when the video data is viewed by the estimation reference person S1 is not newly measured by the fMRI30. Therefore, the internal state of the estimation reference person S1 with respect to the stimulus information can be estimated quickly and easily.

また、本実施形態による推定システム1は、特徴空間構築部123(第1生成部)と、感情空間構築部124(第2生成部)と、空間対応構築部125(第3生成部)とを備える。特徴空間構築部123は、学習用動画データから抽出された視覚特徴量及び聴覚特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、視覚及び聴覚のそれぞれに対応する第1の対応情報を生成する。感情空間構築部124は、学習用動画データに対応する感情を示す情報(感情評定)と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、第3の対応情報を生成する。第3の対応情報は、感情評定と第2脳情報との対応関係を示す。空間対応構築部125は、学習用動画データに対応する複数の感覚についての第1脳情報が示す距離空間(視覚・聴覚空間)における位置と、第3の対応情報に基づいて感情評定から生成された第2脳情報が示す距離空間(感情空間)における位置とに基づいて、第2の対応情報を生成する。
これにより、本実施形態による推定システム1は、感情(内的な状態)を推定するための第1の対応情報及び第2の対応情報を生成することができ、推定対象の動画データに対応する推定基準者S1の感情(内的な状態)を、迅速、且つ簡便に推定することができる。
Further, the estimation system 1 according to the present embodiment includes a feature space construction unit 123 (first generation unit), an emotion space construction unit 124 (second generation unit), and a space correspondence construction unit 125 (third generation unit). Be prepared. The feature space construction unit 123 is based on the visual feature amount and the auditory feature amount extracted from the learning video data and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning video data. Generate a first correspondence information corresponding to each of visual and auditory. The emotion space construction unit 124 is based on the information indicating the emotion corresponding to the learning video data (emotion rating) and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning video data. Generate a third correspondence information. The third correspondence information shows the correspondence between the emotion rating and the second brain information. The spatial correspondence construction unit 125 is generated from the emotion rating based on the position in the distance space (visual / auditory space) indicated by the first brain information about a plurality of sensations corresponding to the learning video data and the third correspondence information. The second correspondence information is generated based on the position in the distance space (sensory space) indicated by the second brain information.
Thereby, the estimation system 1 according to the present embodiment can generate the first correspondence information and the second correspondence information for estimating the emotion (internal state), and corresponds to the moving image data to be estimated. The emotion (internal state) of the estimation reference person S1 can be estimated quickly and easily.

本実施形態では、特徴量抽出部421は、所定の単位時間ごとに、特徴量を抽出する。推定処理部424は、所定の単位時間ごとの第2脳情報が示す距離空間における位置(感情空間における位置)に基づいて、推定対象の動画データに対応する所定の単位時間ごとの感情を推定する。
これにより、本実施形態による推定システム1は、例えば、感情(内的な状態)の時間変化を推定することができる。
In the present embodiment, the feature amount extraction unit 421 extracts the feature amount at predetermined unit times. The estimation processing unit 424 estimates the emotion for each predetermined unit time corresponding to the video data to be estimated based on the position in the metric space (position in the emotion space) indicated by the second brain information for each predetermined unit time. ..
Thereby, the estimation system 1 according to the present embodiment can estimate, for example, the time change of emotion (internal state).

本実施形態では、複数の感覚は、視覚と聴覚とである。特徴量抽出部421は、視覚に関する視覚特徴量と、聴覚に関する聴覚特徴量とを抽出する。特徴空間投射部422は、視覚に対応する第1の対応情報に基づいて、視覚特徴量を視覚に対応する第1脳情報が示す視覚特徴空間における位置に変換し、聴覚に対応する第1の対応情報に基づいて、聴覚特徴量を聴覚に対応する第1脳情報が示す聴覚特徴空間における位置に変換する。感情空間投射部423は、第2の対応情報に基づいて、特徴空間投射部422によって変換された視覚特徴空間における位置及び聴覚特徴空間における位置を、第2脳情報が示す距離空間(感情空間)における位置に変換する。
これにより、本実施形態による推定システム1は、視覚と聴覚とによる推定対象の動画データから推定基準者S1の内的な状態を、適切に推定することができる。
In this embodiment, the plurality of sensations are visual and auditory. The feature amount extraction unit 421 extracts a visual feature amount related to vision and an auditory feature amount related to hearing. The feature space projection unit 422 converts the visual feature amount into a position in the visual feature space indicated by the first brain information corresponding to the visual sense based on the first corresponding information corresponding to the visual sense, and the first corresponding information corresponding to the auditory sense. Based on the corresponding information, the auditory feature amount is converted into the position in the auditory feature space indicated by the first brain information corresponding to the auditory sense. The emotional space projection unit 423 indicates the position in the visual feature space and the position in the auditory feature space converted by the feature space projection unit 422 based on the second correspondence information, in the distance space (emotion space) indicated by the second brain information. Convert to the position in.
Thereby, the estimation system 1 according to the present embodiment can appropriately estimate the internal state of the estimation reference person S1 from the moving image data of the estimation target by the visual sense and the auditory sense.

本実施形態では、推定基準者S1の内的な状態には、推定基準者S1の感情が含まれる。感情空間投射部423は、複数の第1脳情報が示す距離空間における位置と、感情に対応する第2脳情報が示す感情空間における位置との対応関係を示す第2の対応情報に基づいて、複数の第1脳情報が示す距離空間における位置を、感情空間における位置に変換する。推定処理部424は、感情空間における位置に基づいて、推定対象の動画データに対応する感情を推定する。
これにより、本実施形態による推定システム1は、例えば、推定対象の動画データから適切に感情を推定することができる。
In the present embodiment, the internal state of the estimation reference person S1 includes the emotion of the estimation reference person S1. The emotion space projection unit 423 is based on the second correspondence information showing the correspondence relationship between the position in the distance space indicated by the plurality of first brain information and the position in the emotion space indicated by the second brain information corresponding to the emotion. The position in the distance space indicated by the plurality of first brain information is converted into the position in the emotional space. The estimation processing unit 424 estimates the emotion corresponding to the moving image data to be estimated based on the position in the emotion space.
As a result, the estimation system 1 according to the present embodiment can appropriately estimate emotions from, for example, moving image data to be estimated.

また、本実施形態では、複数の感覚に関する特徴量(例えば、視覚特徴量及び聴覚特徴量)、及び内的な状態を示す情報(例えば、感情評定)は、多次元の情報であり、内的な状態を示す情報は、複数の感覚に関する特徴量の次元数より少ない次元数の情報である、
これにより、本実施形態による推定システム1は、多次元の特徴量(例えば、視覚特徴量及び聴覚特徴量)より次元数の少ない状態を示す情報(例えば、感情評定)を推定するため、多次元の特徴と同等かそれ以上の次元数の情報を推定する場合と比べて、より精度よく推定基準者S1の内的な状態を推定することが期待できる。
Further, in the present embodiment, the feature amounts related to a plurality of sensations (for example, visual feature amount and auditory feature amount) and the information indicating the internal state (for example, emotion rating) are multidimensional information and are internal. The information indicating the state is information having a dimension number smaller than the dimension number of the feature quantity relating to a plurality of sensations.
As a result, the estimation system 1 according to the present embodiment estimates information (for example, emotion rating) indicating a state having a smaller number of dimensions than the multidimensional feature amount (for example, visual feature amount and auditory feature amount). It can be expected that the internal state of the estimation reference person S1 can be estimated more accurately than the case of estimating the information of the dimension number equal to or more than the feature of.

また、本実施形態では、推定処理部424は、感情空間における位置から第3の対応情報に基づいて、推定対象の動画データに対応する感情を推定する。すなわち、推定処理部424は、第3の対応情報を利用した逆投射(逆変換)により感情空間における位置から感情を推定する。
これにより、本実施形態による推定システム1は、逆投射(逆変換)という簡易な手法により、感情空間における位置から感情を適切に推定することができる。
Further, in the present embodiment, the estimation processing unit 424 estimates the emotion corresponding to the moving image data to be estimated based on the third correspondence information from the position in the emotion space. That is, the estimation processing unit 424 estimates the emotion from the position in the emotion space by the back projection (reverse transformation) using the third correspondence information.
As a result, the estimation system 1 according to the present embodiment can appropriately estimate emotions from a position in the emotional space by a simple method called back projection (reverse transformation).

また、本実施形態による推定方法は、特徴量抽出ステップと、第1変換ステップと、第2変換ステップと、推定ステップとを含む。特徴量抽出ステップにおいて、特徴量抽出部421が、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する。第1変換ステップにおいて、特徴空間投射部422が、複数の感覚に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、特徴量抽出ステップによって推定対象の刺激情報から抽出された複数の特徴量を、それぞれに対応する複数の第1脳情報に変換する。第2変換ステップにおいて、感情空間投射部423が、第1脳情報と、推定基準者S1の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、第1変換ステップによって変換された複数の第1脳情報を、第2脳情報に変換する。推定ステップにおいて、推定処理部424が、第2変換ステップによって変換された第2脳情報に基づいて、推定対象の刺激情報に対応する内的な状態を推定する。
これにより、本実施形態による推定方法は、上述した推定システム1と同様の効果を奏し、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。
Further, the estimation method according to the present embodiment includes a feature amount extraction step, a first conversion step, a second conversion step, and an estimation step. In the feature amount extraction step, the feature amount extraction unit 421 extracts a plurality of feature amounts related to a plurality of sensations from the stimulus information of the estimation target. In the first conversion step, the feature space projection unit 422 is based on the first correspondence information showing the correspondence relationship between the feature quantities relating to the plurality of sensations and the first brain information corresponding to each of the plurality of sensations. A plurality of feature quantities extracted from the stimulus information to be estimated by the feature quantity extraction step are converted into a plurality of first brain information corresponding to each. In the second conversion step, the emotional space projection unit 423 becomes the second correspondence information showing the correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state of the estimation reference person S1. Based on this, the plurality of first brain information converted by the first conversion step is converted into the second brain information. In the estimation step, the estimation processing unit 424 estimates the internal state corresponding to the stimulus information to be estimated based on the second brain information converted by the second conversion step.
Thereby, the estimation method according to the present embodiment has the same effect as the estimation system 1 described above, and can quickly and easily estimate the internal state of the estimation reference person S1 with respect to the stimulus information.

[第2の実施形態]
次に、図面を参照して、第2の実施形態による推定システム1aについて説明する。
上述した第1の実施形態では、動画データから抽出した視覚特徴量及び聴覚特徴量から、第1変換ステップと第2変換ステップとの2段階の変換により、感情を推定する例を説明したが、本実施形態では、数理モデルを利用して、1段の変換により、視覚特徴量及び聴覚特徴量から感情を推定する一例について説明する。
[Second Embodiment]
Next, the estimation system 1a according to the second embodiment will be described with reference to the drawings.
In the first embodiment described above, an example of estimating emotions from visual features and auditory features extracted from moving image data by two-step conversion between a first conversion step and a second conversion step has been described. In this embodiment, an example of estimating emotions from visual features and auditory features by one-step conversion using a mathematical model will be described.

図8は、第2の実施形態による推定システム1aの一例を示す機能ブロック図である。
図8に示すように、推定システム1aは、解析装置10aと、表示装置21と、スピーカ22と、fMRI30と、推定装置40aとを備える。
この図において、上述した図1と同一の構成には同一の符号を付与してその説明を省略する。
FIG. 8 is a functional block diagram showing an example of the estimation system 1a according to the second embodiment.
As shown in FIG. 8, the estimation system 1a includes an analysis device 10a, a display device 21, a speaker 22, an fMRI 30, and an estimation device 40a.
In this figure, the same reference numerals are given to the same configurations as those in FIG. 1 described above, and the description thereof will be omitted.

解析装置10aは、記憶部11aと、制御部12aとを備える。また、記憶部11aは、解析装置10aが利用する各種情報を記憶する。記憶部11aは、例えば、動画記憶部111と、感情評定記憶部112と、特徴量記憶部113と、計測結果記憶部114と、構築結果記憶部115aとを備える。 The analysis device 10a includes a storage unit 11a and a control unit 12a. Further, the storage unit 11a stores various information used by the analysis device 10a. The storage unit 11a includes, for example, a moving image storage unit 111, an emotion rating storage unit 112, a feature amount storage unit 113, a measurement result storage unit 114, and a construction result storage unit 115a.

構築結果記憶部115aは、解析装置10aの学習処理によって構築された各種構築結果を記憶する。構築結果記憶部115aは、例えば、視覚特徴空間(視覚空間の一例)の構築結果(重み付け情報Wv)、聴覚特徴空間(聴覚空間の一例)の構築結果(重み付け情報Ws)、感情空間の構築結果(重み付け情報We)、及び、視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルのモデルパラメータ(重み付け情報A)を記憶する。モデルパラメータ(重み付け情報A)の詳細については、後述する。 The construction result storage unit 115a stores various construction results constructed by the learning process of the analysis device 10a. The construction result storage unit 115a is, for example, a construction result (weighted information Wv) of a visual feature space (an example of a visual space), a construction result (weighted information Ws) of an auditory feature space (an example of an auditory space), and a construction result of an emotional space. (Weighting information We) and the model parameters (weighting information A) of the regression model for estimating the emotion rating from the visual feature amount and the auditory feature amount are stored. Details of the model parameters (weighting information A) will be described later.

制御部12aは、例えば、CPUなどを含むプロセッサであり、解析装置10aを統括的に制御する。制御部12aは、計測制御部121と、特徴量抽出部122と、特徴空間構築部123と、感情空間構築部124と、空間対応構築部125aと、モデル構築部126とを備える。 The control unit 12a is a processor including, for example, a CPU, and controls the analysis device 10a in an integrated manner. The control unit 12a includes a measurement control unit 121, a feature amount extraction unit 122, a feature space construction unit 123, an emotion space construction unit 124, a space correspondence construction unit 125a, and a model construction unit 126.

空間対応構築部125a(第3生成部の一例)は、第1の実施形態と同様に、第3の対応情報(第1の実施形態の第2の対応情報)を生成する。なお、本実施形態において、説明の都合上、第1の実施形態の第2の対応情報を第3の対応情報とし、第1の実施形態の第3の対応情報を第2の対応情報として説明する。
また、空間対応構築部125aは、第3の対応情報を生成する際の視覚・聴覚空間の座標次元ごとの、感情空間の座標位置を説明する際の貢献度を算出する。すなわち、空間対応構築部125aは、第3の対応情報を生成する際の複数の第1脳情報(視覚・聴覚空間における位置情報)に含まれる要素(各次元)ごとの、第2脳情報における各感情の位置情報を説明する際の貢献度を生成する。
The spatial correspondence construction unit 125a (an example of the third generation unit) generates the third correspondence information (the second correspondence information of the first embodiment) as in the first embodiment. In this embodiment, for convenience of explanation, the second correspondence information of the first embodiment is described as the third correspondence information, and the third correspondence information of the first embodiment is described as the second correspondence information. do.
In addition, the spatial correspondence construction unit 125a calculates the degree of contribution in explaining the coordinate position of the emotional space for each coordinate dimension of the visual / auditory space when generating the third correspondence information. That is, the spatial correspondence construction unit 125a is in the second brain information for each element (each dimension) included in the plurality of first brain information (position information in the visual / auditory space) when generating the third correspondence information. Generate a contribution in explaining the position information of each emotion.

この処理が必要なのは、視覚特徴空間及び聴覚特徴空間と感情空間の上では、視聴覚特徴量と感情評定の各要素間(各次元間)の相関が、視覚特徴空間及び聴覚特徴空間と感情空間に位置付ける前の視覚特徴量・聴覚特徴量と感情評定の各要素間(各次元間)の相関と比べて、異なっている可能性があるためである。言い換えれば、視覚特徴空間及び聴覚特徴空間と感情空間の上における、感情評定のある要素(次元)と強い相関のある視聴覚特徴量のある要素(次元)、または、相関のない他の要素(次元)を定量化するということである。この各要素間の相関、すなわち貢献度を考慮する例として、相関の強い視聴覚特徴量を優先的に利用することが挙げられるが、これにより正確な推定を行うことが期待できる。 This processing is necessary for the visual feature space, the auditory feature space, and the emotional space, and the correlation between the audiovisual feature amount and each element of the emotion rating (between each dimension) is applied to the visual feature space, the auditory feature space, and the emotional space. This is because there is a possibility that the correlation between the visual and auditory features before positioning and each element of the emotion rating (between each dimension) is different. In other words, above the visual and auditory feature spaces and the emotional space, there is an element (dimension) with audiovisual features that is strongly correlated with the element (dimension) with emotion rating, or another element (dimension) that is not correlated. ) Is to be quantified. As an example of considering the correlation between these elements, that is, the degree of contribution, preferentially using the audiovisual features with strong correlation can be expected, and accurate estimation can be expected from this.

モデル構築部126は、複数の特徴量と、内的な状態を示す情報と、各要素の貢献度とに基づいて、複数の特徴量から内的な状態を示す情報を推定する数理モデルを構築する。モデル構築部126は、例えば、視覚特徴量及び聴覚特徴量と、感情評定と、空間対応構築部125aが生成した各要素(各次元)の貢献度とに基づいて、線形回帰モデルによる下記の式(5)を用いて、視覚特徴量及び聴覚特徴量から感情評定を推定する学習処理を実行する。 The model building unit 126 constructs a mathematical model that estimates information indicating an internal state from a plurality of features based on a plurality of features, information indicating an internal state, and the degree of contribution of each element. do. The model construction unit 126 uses the following equation based on a linear regression model, for example, based on the visual and auditory features, the emotion rating, and the contribution of each element (each dimension) generated by the spatial correspondence construction unit 125a. Using (5), a learning process for estimating an emotional rating from visual features and auditory features is executed.

Se^=Svs×A ・・・ (5)
L=(Se-Svs×A)(Se-Svs×A)-2λ(RA-r) ・・・ (6)
Se ^ = Svs × A ... (5)
L = (Se-Svs × A) T (Se-Svs × A) -2λ (RA-r) ・ ・ ・ (6)

Se^は、推定される感情評定を示し、Seは、感情評定を示し、Svsは、視覚特徴量と聴覚特徴量との結合の結果を示す。また、Aは、式(6)のLを最小化するように推定される係数情報(重み付け情報、モデルパラメータ)であり、本実施形態における学習結果(構築結果)に対応する。また、2λ(RA-r)は、視覚・聴覚特徴量の各要素の貢献度と係数情報Aとの関係についての制約に関する項であり、これにより係数情報Aの範囲が限定される。制約条件は、例えば、ある感情評定との共起関係が弱い視覚・聴覚特徴の要素パターンとなるべく直交するように、その感情に対応する係数情報Aの要素パターンを推定する、といったものである。このとき、Rとrは、その条件を満たすように決定される。 Se ^ indicates the estimated emotional rating, Se indicates the emotional rating, and Svs indicates the result of the combination of the visual feature amount and the auditory feature amount. Further, A is coefficient information (weighting information, model parameter) estimated so as to minimize L in the equation (6), and corresponds to a learning result (construction result) in the present embodiment. Further, 2λ (RA-r) is a term relating to a constraint on the relationship between the contribution degree of each element of the visual / auditory feature amount and the coefficient information A, thereby limiting the range of the coefficient information A. The constraint condition is, for example, to estimate the element pattern of the coefficient information A corresponding to the emotion so as to be orthogonal to the element pattern of the visual / auditory feature having a weak co-occurrence relationship with a certain emotion rating. At this time, R and r are determined so as to satisfy the conditions.

式(6)について、さらに詳しく説明する。式(6)において、第1項は、実際の感情評定Seと推定された感情評定の差異についてのコサイン距離(内積)を表し、通常はこの値が最小となるようにパラメータAの設定が行われる。第2項は、回帰モデルを解く場合における正則化項である。例えば、視聴覚特徴量Svsと実際の感情評定Seとの共分散行列において、各感情評定次元に対応するベクトルと直交するベクトルを算出できるが、この直交するベクトルを感情評定次元分、組み合わせたものを行列Rとする。これによりRはSeを説明するときの、Svの各要素の貢献度を表現する行列となり、式(6)のLを最小化する過程で、パラメータAをRと直交する(RA=0)ように推定が行われ、視聴覚特徴量の貢献度が反映されることとなる。
このように、モデル構築部126は、回帰モデルにより、視覚特徴量及び聴覚特徴量から感情評定を推定するモデルパラメータである重み付け情報Aを生成する。モデル構築部126は、生成した重み付け情報Aを、構築結果記憶部115aに記憶させる。
Equation (6) will be described in more detail. In the equation (6), the first term represents the cosine distance (inner product) for the difference between the actual emotion rating Se and the estimated emotion rating, and the parameter A is usually set so that this value is minimized. Will be. The second term is a regularization term when solving a regression model. For example, in the covariance matrix of the audiovisual feature amount Svs and the actual emotion rating Se, a vector orthogonal to the vector corresponding to each emotion rating dimension can be calculated, and a combination of these orthogonal vectors for the emotion rating dimension is used. Let it be a matrix R. As a result, R becomes a matrix expressing the contribution of each element of Sv when explaining Se, and in the process of minimizing L in the equation (6), the parameter A is orthogonal to R (RA = 0). Is estimated, and the contribution of audiovisual features will be reflected.
As described above, the model construction unit 126 generates the weighting information A, which is a model parameter for estimating the emotion rating from the visual features and the auditory features, by the regression model. The model construction unit 126 stores the generated weighting information A in the construction result storage unit 115a.

推定装置40aは、解析装置10aが学習処理により学習した学習結果を用いて、推定対象の動画データから感情評定を推定する推定処理を実行する。推定装置40aは、記憶部41aと、制御部42aとを備える。
記憶部41aは、推定装置40aが利用する各種情報を記憶する。記憶部41aは、例えば、特徴量記憶部411と、感情情報記憶部413と、推定結果記憶部414とを備える。
The estimation device 40a executes an estimation process of estimating an emotion rating from the moving image data to be estimated by using the learning result learned by the analysis device 10a by the learning process. The estimation device 40a includes a storage unit 41a and a control unit 42a.
The storage unit 41a stores various information used by the estimation device 40a. The storage unit 41a includes, for example, a feature quantity storage unit 411, an emotion information storage unit 413, and an estimation result storage unit 414.

制御部42aは、例えば、CPUなどを含むプロセッサであり、推定装置40aを統括的に制御する。制御部42aは、特徴量抽出部421と、推定処理部424aとを備える。 The control unit 42a is a processor including, for example, a CPU, and controls the estimation device 40a in an integrated manner. The control unit 42a includes a feature amount extraction unit 421 and an estimation processing unit 424a.

推定処理部424aは、モデル構築部126によって構築された数理モデルに基づいて、特徴量抽出部421によって推定対象の刺激情報から抽出された複数の特徴量から内的な状態を示す情報を考慮して推定した重み付け情報Aを利用して、推定対象の刺激情報に対応する内的な状態を推定する。すなわち、推定処理部424aは、まず、解析装置10の構築結果記憶部115aが記憶する重み付け情報Aを取得する。推定処理部424aは、特徴量記憶部411が記憶する視覚特徴量及び聴覚特徴量(Svs)を、重み付け情報Aを用いて、上述した式(5)により、感情評定を推定する。推定処理部424aは、推定した感情評定を推定結果として推定結果記憶部414に記憶させる。 The estimation processing unit 424a considers information indicating an internal state from a plurality of feature quantities extracted from the stimulus information to be estimated by the feature quantity extraction unit 421 based on the mathematical model constructed by the model construction unit 126. Using the weighted information A estimated in the above, the internal state corresponding to the stimulus information to be estimated is estimated. That is, the estimation processing unit 424a first acquires the weighting information A stored in the construction result storage unit 115a of the analysis device 10. The estimation processing unit 424a estimates the emotion rating of the visual feature amount and the auditory feature amount (Svs) stored in the feature amount storage unit 411 by the above-mentioned equation (5) using the weighting information A. The estimation processing unit 424a stores the estimated emotion rating as an estimation result in the estimation result storage unit 414.

次に、図面を参照して、本実施形態による推定システム1aの動作について説明する。
図9は、本実施形態による推定システム1aの学習処理の一例を示すフローチャートである。また、図10は、本実施形態における感情評定を推定する回帰モデルの構築処理の一例を説明する図である。
Next, the operation of the estimation system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 9 is a flowchart showing an example of the learning process of the estimation system 1a according to the present embodiment. Further, FIG. 10 is a diagram illustrating an example of a regression model construction process for estimating an emotion rating in the present embodiment.

図9に示すステップS301からステップS305までの処理は、上述した図2に示すステップS101からステップS105までの処理と同様であるためここではその説明を省略する。
ステップS305の処理において、感情空間構築部124は、本実施形態における第2の対応情報として、係数情報Weを生成する。
Since the process from step S301 to step S305 shown in FIG. 9 is the same as the process from step S101 to step S105 shown in FIG. 2 described above, the description thereof will be omitted here.
In the process of step S305, the emotional space construction unit 124 generates the coefficient information We as the second correspondence information in the present embodiment.

ステップS306において、解析装置10aの空間対応構築部125aは、視覚特徴空間及び聴覚特徴空間と、感情空間との対応関係を学習し、視覚・聴覚特徴に関する次元ごとの、各感情を説明する際の貢献度を算出する(ステップS306、図10参照)。空間対応構築部125aは、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、第3の対応情報である、視覚・聴覚空間の座標次元ごとに感情空間の座標次元を説明する際の貢献度を算出する。 In step S306, the spatial correspondence construction unit 125a of the analysis device 10a learns the correspondence relationship between the visual feature space and the auditory feature space and the emotional space, and explains each emotion for each dimension related to the visual / auditory feature. The degree of contribution is calculated (step S306, see FIG. 10). The space correspondence construction unit 125a obtains the coordinate dimension of the emotional space for each coordinate dimension of the visual / auditory space, which is the third correspondence information, from the set data of the position information in the visual / auditory space and the position information in the emotional space. Calculate the degree of contribution when explaining.

次に、モデル構築部126は、各次元の貢献度を制約条件として視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルを構築する(ステップS307、図10参照)。モデル構築部126は、特徴量記憶部113が記憶する視覚特徴量及び聴覚特徴量と、感情評定記憶部112が記憶する感情評定との複数の組データを、視覚・聴覚空間の座標次元ごとの貢献度に関する知識を重み付け調整の制約条件として、上述した式(6)のLを最小化するように学習処理して、視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルを構築する。ここで、貢献度に関する知識とは、例えば、脳内情報表現における視聴覚特徴の各次元と感情評定との共起関係を表す情報(値)である。モデル構築部126は、学習結果として、視覚特徴量及び聴覚特徴量から感情評定を推定するモデルパラメータである重み付け情報Aを生成し、生成した重み付け情報Aを構築結果記憶部115aに記憶させる。ステップS307の処理後に、モデル構築部126は、学習処理を終了する。 Next, the model building unit 126 builds a regression model that estimates the emotion rating from the visual features and the auditory features with the contribution of each dimension as a constraint (see step S307, FIG. 10). The model building unit 126 stores a plurality of sets of data of the visual feature amount and the auditory feature amount stored in the feature amount storage unit 113 and the emotion rating stored in the emotion rating storage unit 112 for each coordinate dimension of the visual / auditory space. With knowledge about the degree of contribution as a constraint condition for weighting adjustment, learning processing is performed so as to minimize L in the above equation (6), and a regression model for estimating emotion rating from visual features and auditory features is constructed. Here, the knowledge about the degree of contribution is, for example, information (value) representing the co-occurrence relationship between each dimension of the audiovisual feature in the information expression in the brain and the emotion rating. As a learning result, the model construction unit 126 generates weighting information A, which is a model parameter for estimating emotion rating from visual features and auditory features, and stores the generated weighting information A in the construction result storage unit 115a. After the process of step S307, the model building unit 126 ends the learning process.

次に、図面を参照して、本実施形態による推定システム1aの推定処理について説明する。
図11は、本実施形態による推定システム1aの推定処理の一例を示すフローチャートである。また、図12は、本実施形態による推定システム1aの推定処理の一例を説明する図である。
Next, the estimation process of the estimation system 1a according to the present embodiment will be described with reference to the drawings.
FIG. 11 is a flowchart showing an example of the estimation process of the estimation system 1a according to the present embodiment. Further, FIG. 12 is a diagram illustrating an example of estimation processing of the estimation system 1a according to the present embodiment.

図11に示すステップS401、ステップS402、及びステップS404の処理は、上述した図5に示すステップS201、ステップS202、及びステップS204の処理と同様であるため、ここではその説明を省略する。 Since the processing of step S401, step S402, and step S404 shown in FIG. 11 is the same as the processing of step S201, step S202, and step S204 shown in FIG. 5 described above, the description thereof will be omitted here.

ステップS403において、推定装置40aの推定処理部424aは、回帰モデルにより感情評定を推定する(図12参照)。推定処理部424aは、特徴量記憶部411が記憶する視覚特徴量及び聴覚特徴量(Svs)を、解析装置10aが生成した重み付け情報A、及び上述した式(5)を用いて、感情評定を推定する。推定処理部424aは、推定した感情評定を推定結果として推定結果記憶部414に記憶させる。 In step S403, the estimation processing unit 424a of the estimation device 40a estimates the emotion rating by the regression model (see FIG. 12). The estimation processing unit 424a evaluates the visual feature amount and the auditory feature amount (Svs) stored in the feature amount storage unit 411 by using the weighted information A generated by the analysis device 10a and the above-mentioned equation (5). presume. The estimation processing unit 424a stores the estimated emotion rating as an estimation result in the estimation result storage unit 414.

以上説明したように、本実施形態による推定システム1aは、特徴空間構築部123(第1生成部)と、感情空間構築部124(第2生成部)と、空間対応構築部125a(第3生成部)と、モデル構築部126と、特徴量抽出部421と、推定処理部424aとを備える。特徴空間構築部123は、学習用の刺激情報から抽出された複数の感覚に関する複数の特徴量(視覚特徴量及び聴覚特徴量)と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、複数の感覚(視覚及び聴覚)に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報を生成する。第1脳情報は、感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である。 As described above, the estimation system 1a according to the present embodiment includes the feature space construction unit 123 (first generation unit), the emotion space construction unit 124 (second generation unit), and the space correspondence construction unit 125a (third generation unit). Section), a model building section 126, a feature quantity extraction section 421, and an estimation processing section 424a. When the feature space construction unit 123 gives a stimulus to the estimation reference person S1 with a plurality of feature quantities (visual feature quantity and auditory feature quantity) related to a plurality of sensations extracted from the stimulus information for learning and the video data for learning. Based on the measurement results of the brain activity of the above, the first correspondence information showing the correspondence relationship between each feature amount related to a plurality of sensations (visual and auditory senses) and the first brain information corresponding to each of the plurality of sensations is provided. Generate. The first brain information is information that defines the dissimilarity of information patterns of brain activity caused by sensation as a distance.

また、感情空間構築部124は、学習用動画データに対応する推定基準者S1の感情評定と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感情評定と、感情に対応する第2脳情報との対応関係を示す第2の対応情報(係数情報We)を生成する。第2脳情報は、感情を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である。 Further, the emotion space construction unit 124 is based on the emotion rating of the estimation reference person S1 corresponding to the learning video data and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning video data. , Generates a second correspondence information (coefficient information We) showing a correspondence relationship between the emotion rating and the second brain information corresponding to the emotion. The second brain information is information that defines the dissimilarity of the information pattern of brain activity caused by emotion as a distance.

また、空間対応構築部125aは、第1の対応情報に基づいて複数の特徴量(視覚特徴量及び聴覚特徴量)から生成された、学習用動画データに対応する複数の第1脳情報と、第2の対応情報に基づいて感情評定から生成された第2脳情報との対応関係を示す第3の対応情報を生成する。ここで第3の対応情報とは、視覚・聴覚空間の座標次元ごとの、感情空間の座標次元を説明する際の各要素(各次元)の貢献度である。モデル構築部126は、複数の特徴量(視覚特徴量及び聴覚特徴量)と、感情評定と、各要素の貢献度とに基づいて、複数の特徴量(視覚特徴量及び聴覚特徴量)から感情評定を推定する数理モデル(例えば、回帰モデル)を構築する。 Further, the spatial correspondence construction unit 125a includes a plurality of first brain information corresponding to the learning moving image data generated from a plurality of feature quantities (visual feature quantity and auditory feature quantity) based on the first correspondence information. Based on the second correspondence information, a third correspondence information showing a correspondence relationship with the second brain information generated from the emotion rating is generated. Here, the third correspondence information is the degree of contribution of each element (each dimension) in explaining the coordinate dimension of the emotional space for each coordinate dimension of the visual / auditory space. The model building unit 126 has emotions from a plurality of features (visual features and auditory features) based on a plurality of features (visual features and auditory features), an emotion rating, and the contribution of each element. Build a mathematical model (eg, regression model) to estimate the rating.

また、特徴量抽出部421は、推定対象の動画データから複数の感覚(視覚及び聴覚)に関する複数の特徴量(視覚特徴量及び聴覚特徴量)を抽出する。推定処理部424aは、モデル構築部126によって構築された数理モデルに基づいて、特徴量抽出部421によって推定対象の動画データから抽出された複数の特徴量(視覚特徴量及び聴覚特徴量)を用いて感情評定を推定し、当該感情評定に基づいて、推定対象の動画データに対応する感情を推定する。
これにより、本実施形態による推定システム1aは、上述した第1の実施形態と同様の効果を奏し、動画データなどの刺激情報に対する推定基準者S1の感情(内的な状態)を、迅速、且つ簡便に推定することができる。
In addition, the feature amount extraction unit 421 extracts a plurality of feature amounts (visual feature amount and auditory feature amount) related to a plurality of sensations (visual and auditory) from the moving image data to be estimated. The estimation processing unit 424a uses a plurality of feature amounts (visual feature amount and auditory feature amount) extracted from the moving image data to be estimated by the feature amount extraction unit 421 based on the mathematical model constructed by the model construction unit 126. The emotion rating is estimated, and the emotion corresponding to the video data to be estimated is estimated based on the emotion rating.
As a result, the estimation system 1a according to the present embodiment has the same effect as that of the first embodiment described above, and the emotion (internal state) of the estimation reference person S1 with respect to the stimulus information such as moving image data can be quickly and quickly obtained. It can be easily estimated.

本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、感覚として、視覚及び聴覚を適用する例を説明したが、これに限定されるものではなく、例えば、味覚、嗅覚、触覚などの他の感覚であってもよい。
The present invention is not limited to each of the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above embodiments, examples of applying visual sense and auditory sense as sensations have been described, but the present invention is not limited to this, and other sensations such as taste, smell, and touch may be used. ..

また、上記の各実施形態において、推定基準者S1の内的な状態の一例として、感情を推定する例を説明したがこれに限定されるものではなく、感情に代えて、例えば、善悪など自己の価値観に沿うかどうかの判断や体調の良し悪しなど他の内的な状態を推定するようにしてもよい。
また、上記の各実施形態において、刺激情報の一例として、動画データを用いる例を説明したが、これに限定されるものではなく、視覚、聴覚、味覚、嗅覚、触覚などの感覚に関する特徴量が抽出可能な刺激情報であれば、他の情報であってもよい。
Further, in each of the above embodiments, an example of estimating emotions has been described as an example of the internal state of the estimation reference person S1, but the present invention is not limited to this, and instead of emotions, for example, self such as good and evil. You may try to estimate other internal conditions such as judgment of whether or not it is in line with your values and whether you are in good physical condition.
Further, in each of the above embodiments, an example of using moving image data as an example of stimulus information has been described, but the present invention is not limited to this, and features related to sensations such as sight, hearing, taste, smell, and touch are included. Other information may be used as long as it is stimulus information that can be extracted.

また、上記の各実施形態において、第1の対応情報、第2の対応情報、第3の対応情報、は、係数情報(重み付け情報)である例を説明したが、これに限定されるものではなく、変換テーブルや対応表、その他の機械学習の学習結果などの対応情報や係数情報であってもよい。
また、上記の各実施形態において、線形回帰モデルを利用して、学習処理を実行する例を説明したが、これに限定されるものではなく、非線形関数を利用するものであってもよいし、回帰モデル以外の数理モデルを利用するようにしてもよい。
Further, in each of the above embodiments, an example in which the first correspondence information, the second correspondence information, and the third correspondence information are coefficient information (weighting information) has been described, but the present invention is not limited thereto. Instead, it may be correspondence information or coefficient information such as a conversion table, a correspondence table, or other learning results of machine learning.
Further, in each of the above embodiments, an example of executing the learning process by using the linear regression model has been described, but the present invention is not limited to this, and a non-linear function may be used. A mathematical model other than the regression model may be used.

また、上記の各実施形態において、推定システム1(1a)は、解析装置10(10a)と、表示装置21と、スピーカ22と、fMRI30と、推定装置40(40a)とを備える例を説明したが、解析装置10(10a)の一部又は全てを推定装置40(40a)が備えるようにしてもよい。また、解析装置10(10a)及び推定装置40(40a)の一部を、各装置の外部に備えるようにしてもよい。例えば、記憶部11(11a)及び記憶部41(41a)の一部又は全部を外部に備えるようにしてもよい。また、記憶部11(11a)及び記憶部41(41a)の一部又は全部を外部に備える場合には、ネットワークを介して、各装置と接続可能に構成するようにしてもよい。 Further, in each of the above embodiments, an example in which the estimation system 1 (1a) includes an analysis device 10 (10a), a display device 21, a speaker 22, an fMRI 30, and an estimation device 40 (40a) has been described. However, the estimation device 40 (40a) may include a part or all of the analysis device 10 (10a). Further, a part of the analysis device 10 (10a) and the estimation device 40 (40a) may be provided outside each device. For example, a part or all of the storage unit 11 (11a) and the storage unit 41 (41a) may be provided externally. Further, when a part or all of the storage unit 11 (11a) and the storage unit 41 (41a) are provided externally, the storage unit 11 (11a) and the storage unit 41 (41a) may be configured to be connectable to each device via a network.

また、上記の各実施形態において、推定システム1(1a)が、放音装置の一例としてスピーカ22を備える例を説明したが、これに限定されるものではなく、ヘッドフォンなどの放音装置であってもよい。また、推定システム1(1a)が、脳活動を計測する計測装置として、fMRI30を備える例を説明したが、他の計測装置を備えるようにしてもよい。 Further, in each of the above embodiments, the estimation system 1 (1a) has described an example in which the speaker 22 is provided as an example of the sound emitting device, but the present invention is not limited to this, and the estimation system 1 (1a) is a sound emitting device such as headphones. You may. Further, although the example in which the estimation system 1 (1a) includes fMRI30 as a measuring device for measuring brain activity has been described, another measuring device may be provided.

なお、上述した推定システム1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した推定システム1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した推定システム1(1a)が備える各構成における処理を行ってもよい。「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the estimation system 1 (1a) described above has a computer system inside. Then, a program for realizing the functions of each configuration included in the estimation system 1 (1a) described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. By doing so, the processing in each configuration provided in the estimation system 1 (1a) described above may be performed. "Loading a program recorded on a recording medium into a computer system and executing it" includes installing the program in the computer system. The "computer system" shall include hardware such as an OS and peripheral devices.
Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.

1,1a…推定システム、10,10a…解析装置、11,11a,41,41a…記憶部、12,12a,42,42a…制御部、21…表示装置、22…スピーカ、30…fMRI、40、40a…推定装置、111…動画記憶部、112…感情評定記憶部、113,411…特徴量記憶部、114…計測結果記憶部、115,115a…構築結果記憶部、121…計測制御部、122,421…特徴量抽出部、123…特徴空間構築部、124…感情空間構築部、125,125a…空間対応構築部、126…モデル構築部、412…投射結果記憶部、413…感情情報記憶部、414…推定結果記憶部、422…特徴空間投射部、423…感情空間投射部、424,424a…推定処理部、S1…推定基準者 1,1a ... estimation system, 10,10a ... analyzer, 11,11a, 41,41a ... storage unit, 12,12a, 42,42a ... control unit, 21 ... display device, 22 ... speaker, 30 ... fMRI, 40 , 40a ... estimation device, 111 ... moving image storage unit, 112 ... emotion rating storage unit, 113,411 ... feature quantity storage unit, 114 ... measurement result storage unit, 115, 115a ... construction result storage unit, 121 ... measurement control unit, 122, 421 ... Feature quantity extraction unit, 123 ... Feature space construction unit, 124 ... Emotion space construction unit, 125, 125a ... Spatial correspondence construction unit, 126 ... Model construction unit, 412 ... Projection result storage unit, 413 ... Emotion information storage Unit 414 ... Estimated result storage unit 422 ... Feature space projection unit 423 ... Emotional space projection unit, 424, 424a ... Estimating processing unit, S1 ... Estimating reference person

Claims (9)

推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、
前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換部と、
前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換部によって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換部と、
前記第2変換部によって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部と
を備える推定システム。
A feature amount extraction unit that extracts multiple feature amounts related to multiple sensations from the stimulus information of the estimation target,
The stimulus of the estimation target is stimulated by the feature amount extraction unit based on the first correspondence information indicating the correspondence relationship between each feature amount relating to the plurality of sensations and the first brain information corresponding to each of the plurality of sensations. A first conversion unit that converts the plurality of feature quantities extracted from the information into a plurality of the first brain information corresponding to each.
The above-mentioned converted by the first conversion unit based on the second correspondence information indicating the correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state of the estimation reference person. A second conversion unit that converts a plurality of first brain information into the second brain information,
An estimation system including an estimation unit that estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion unit.
前記第1脳情報は、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、
前記第2脳情報は、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、
前記第2変換部は、前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記第2脳情報が示す距離空間における位置に変換し、
前記推定部は、前記第2脳情報が示す距離空間における位置情報を利用して、前記内的な状態を推定する
ことを特徴とする請求項1に記載の推定システム。
The first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance.
The second brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance.
Based on the second correspondence information, the second conversion unit converts the position in the metric space indicated by the plurality of first brain information into the position in the metric space indicated by the second brain information.
The estimation system according to claim 1, wherein the estimation unit estimates the internal state by using the position information in the metric space indicated by the second brain information.
学習用の刺激情報から抽出された前記複数の感覚に関する複数の特徴量と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚のそれぞれに対応する前記第1の対応情報を生成する第1生成部と、
前記学習用の刺激情報に対応する前記内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と前記第2脳情報との対応関係を示す第3の対応情報を生成する第2生成部と、
前記学習用の刺激情報に対応する前記複数の第1脳情報が示す距離空間における位置と、前記第3の対応情報に基づいて前記内的な状態を示す情報から生成された前記第2脳情報が示す距離空間における位置とに基づいて、前記第2の対応情報を生成する第3生成部と
を備える請求項2に記載の推定システム。
Based on the plurality of feature quantities related to the plurality of sensations extracted from the stimulus information for learning and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning. The first generation unit that generates the first correspondence information corresponding to each of the senses of
The internal state is based on the information indicating the internal state corresponding to the learning stimulus information and the measurement result of the brain activity when the estimation reference person is stimulated by the learning stimulus information. A second generation unit that generates a third correspondence information showing a correspondence relationship between the information indicating the state and the second brain information.
The second brain information generated from the position in the distance space indicated by the plurality of first brain information corresponding to the stimulus information for learning and the information indicating the internal state based on the third corresponding information. The estimation system according to claim 2, further comprising a third generation unit that generates the second correspondence information based on the position in the distance space indicated by.
前記特徴量抽出部は、所定の単位時間ごとに、前記特徴量を抽出し、
前記推定部は、前記所定の単位時間ごとの前記第2脳情報が示す距離空間における位置に基づいて、前記推定対象の刺激情報に対応する前記所定の単位時間ごとの前記内的な状態を推定する
請求項2又は請求項3に記載の推定システム。
The feature amount extraction unit extracts the feature amount at predetermined unit times.
The estimation unit estimates the internal state for each predetermined unit time corresponding to the stimulus information to be estimated based on the position in the metric space indicated by the second brain information for each predetermined unit time. The estimation system according to claim 2 or claim 3.
前記複数の感覚は、視覚と聴覚とであり、
前記特徴量抽出部は、前記視覚に関する視覚特徴量と、前記聴覚に関する聴覚特徴量とを抽出し、
前記第1変換部は、前記視覚に対応する前記第1の対応情報に基づいて、前記視覚特徴量を前記視覚に対応する前記第1脳情報が示す視覚空間における位置に変換し、前記聴覚に対応する前記第1の対応情報に基づいて、前記聴覚特徴量を前記聴覚に対応する前記第1脳情報が示す聴覚空間における位置に変換し、
前記第2変換部は、前記第2の対応情報に基づいて、前記第1変換部によって変換された前記視覚空間における位置及び前記聴覚空間における位置を、前記第2脳情報が示す距離空間における位置に変換する
請求項2から請求項3のいずれか一項に記載の推定システム。
The plurality of sensations are visual and auditory.
The feature amount extraction unit extracts the visual feature amount related to the visual sense and the auditory feature amount related to the auditory sense.
Based on the first correspondence information corresponding to the vision, the first conversion unit converts the visual feature amount into a position in the visual space indicated by the first brain information corresponding to the vision, and converts it into the auditory sense. Based on the corresponding first correspondence information, the auditory feature amount is converted into a position in the auditory space indicated by the first brain information corresponding to the hearing.
Based on the second correspondence information, the second conversion unit sets the position in the visual space and the position in the auditory space converted by the first conversion unit in the metric space indicated by the second brain information. The estimation system according to any one of claims 2 to 3.
前記推定基準者の内的な状態には、前記推定基準者の感情が含まれ、
前記第2変換部は、前記複数の第1脳情報が示す距離空間における位置と、前記感情に対応する前記第2脳情報が示す感情空間における位置との対応関係を示す前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記感情空間における位置に変換し、
前記推定部は、複数の前記距離空間における位置から変換された前記感情空間における位置情報に基づいて、前記推定対象の刺激情報に対応する前記感情を推定する
請求項2から請求項4のいずれか一項に記載の推定システム。
The internal state of the estimator includes the emotions of the estimator,
The second conversion unit shows the correspondence relationship between the position in the distance space indicated by the plurality of first brain information and the position in the emotion space indicated by the second brain information corresponding to the emotion. Based on, the position in the distance space indicated by the plurality of first brain information is converted into the position in the emotional space.
One of claims 2 to 4, wherein the estimation unit estimates the emotion corresponding to the stimulus information to be estimated based on the position information in the emotion space converted from the positions in the plurality of distance spaces. The estimation system described in paragraph 1.
前記複数の感覚に関する特徴量、及び前記内的な状態を示す情報は、多次元の情報であり、
前記内的な状態を示す情報は、前記複数の感覚に関する特徴量の次元数より少ない次元数の情報である
請求項1から請求項6のいずれか一項に記載の推定システム。
The feature quantities related to the plurality of sensations and the information indicating the internal state are multidimensional information.
The estimation system according to any one of claims 1 to 6, wherein the information indicating the internal state is information having a dimension number smaller than the dimension number of the feature amount relating to the plurality of sensations.
学習用の刺激情報から抽出された複数の感覚に関する複数の特徴量と、推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚に関するそれぞれの特徴量と、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第1脳情報であって、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報を生成する第1生成部と、
前記学習用の刺激情報に対応する前記推定基準者の内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第2脳情報であって、前記内的な状態に対応する第2脳情報との対応関係を示す第2の対応情報を生成する第2生成部と、
前記第1の対応情報に基づいて前記複数の特徴量から生成された、前記学習用の刺激情報に対応する前記複数の第1脳情報と、前記第2の対応情報に基づいて前記内的な状態を示す情報から生成された第2脳情報との対応関係を示す第3の対応情報であり、当該第2脳情報に含まれる各要素を説明する際の前記複数の第1脳情報に含まれる各要素の貢献度を生成する第3生成部と、
前記複数の特徴量と、前記内的な状態を示す情報と、前記各要素の貢献度とに基づいて、前記複数の特徴量から前記内的な状態を示す情報を推定する数理モデルを構築するモデル構築部と、
推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、
前記モデル構築部によって構築された前記数理モデルに基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量から前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部と
を備える推定システム。
The plurality of sensations are based on the plurality of feature quantities related to the plurality of sensations extracted from the stimulus information for learning and the measurement results of the brain activity when the estimation reference person is stimulated by the stimulus information for learning. It is the first brain information which is the information which defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance, and is the first which corresponds to each of the plurality of sensations. The first generation unit that generates the first correspondence information showing the correspondence relationship with the brain information,
Based on the information indicating the internal state of the estimation reference person corresponding to the learning stimulus information and the measurement result of the brain activity when the estimation reference person is stimulated by the learning stimulus information. The second brain information, which is information that defines the dissimilarity between the information indicating the internal state and the information pattern of the brain activity caused by the internal state as a distance, and is the internal state. A second generation unit that generates a second correspondence information showing a correspondence relationship with the second brain information corresponding to the state, and
Based on the plurality of first brain information corresponding to the learning stimulus information generated from the plurality of feature quantities based on the first correspondence information, and the internal information based on the second correspondence information. It is the third correspondence information which shows the correspondence relation with the 2nd brain information generated from the information which shows a state, and is included in the plurality of 1st brain information when explaining each element included in the 2nd brain information. A third generator that generates the contribution of each element
Based on the plurality of features, the information indicating the internal state, and the contribution of each element, a mathematical model for estimating the information indicating the internal state from the plurality of features is constructed. Model building department and
A feature amount extraction unit that extracts multiple feature amounts related to multiple sensations from the stimulus information of the estimation target,
Based on the mathematical model constructed by the model building unit, the internal features corresponding to the stimulus information of the estimation target from the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature amount extraction unit. An estimation system with an estimation unit that estimates the state.
特徴量抽出部が、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出ステップと、
第1変換部が、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出ステップによって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換ステップと、
第2変換部が、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換ステップによって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換ステップと、
推定部が、前記第2変換ステップによって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定ステップと
を含む推定方法。
A feature amount extraction step in which the feature amount extraction unit extracts a plurality of feature amounts related to a plurality of sensations from the stimulus information to be estimated, and a feature amount extraction step.
The first conversion unit sets the feature amount extraction step based on the first correspondence information showing the correspondence relationship between each feature amount relating to the plurality of sensations and the first brain information corresponding to each of the plurality of sensations. The first conversion step of converting the plurality of feature quantities extracted from the stimulus information of the estimation target into the plurality of the first brain information corresponding to each.
The first conversion unit is based on the second correspondence information indicating the correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state of the estimation reference person. A second conversion step of converting the plurality of first brain information converted by the step into the second brain information,
An estimation method including an estimation step in which the estimation unit estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion step.
JP2018069989A 2018-03-30 2018-03-30 Estimating system and estimation method Active JP7075045B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018069989A JP7075045B2 (en) 2018-03-30 2018-03-30 Estimating system and estimation method
PCT/JP2019/010106 WO2019188263A1 (en) 2018-03-30 2019-03-12 Estimation system and estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018069989A JP7075045B2 (en) 2018-03-30 2018-03-30 Estimating system and estimation method

Publications (2)

Publication Number Publication Date
JP2019177104A JP2019177104A (en) 2019-10-17
JP7075045B2 true JP7075045B2 (en) 2022-05-25

Family

ID=68061700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018069989A Active JP7075045B2 (en) 2018-03-30 2018-03-30 Estimating system and estimation method

Country Status (2)

Country Link
JP (1) JP7075045B2 (en)
WO (1) WO2019188263A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348872A (en) 2004-06-09 2005-12-22 Nippon Hoso Kyokai <Nhk> Feeling estimation device and feeling estimation program
JP2014222397A (en) 2013-05-13 2014-11-27 日本電信電話株式会社 Feeling estimation method, device, and program
JP2016195716A (en) 2015-04-06 2016-11-24 国立研究開発法人情報通信研究機構 Estimation method of perceived semantic content by analysis of brain activity

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7097012B2 (en) * 2017-05-11 2022-07-07 学校法人 芝浦工業大学 Kansei estimation device, Kansei estimation system, Kansei estimation method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005348872A (en) 2004-06-09 2005-12-22 Nippon Hoso Kyokai <Nhk> Feeling estimation device and feeling estimation program
JP2014222397A (en) 2013-05-13 2014-11-27 日本電信電話株式会社 Feeling estimation method, device, and program
JP2016195716A (en) 2015-04-06 2016-11-24 国立研究開発法人情報通信研究機構 Estimation method of perceived semantic content by analysis of brain activity

Also Published As

Publication number Publication date
WO2019188263A1 (en) 2019-10-03
JP2019177104A (en) 2019-10-17

Similar Documents

Publication Publication Date Title
US20190147361A1 (en) Learned model provision method and learned model provision device
Gertheiss et al. Longitudinal scalar-on-functions regression with application to tractography data
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
JP6662644B2 (en) Viewing material evaluation method, viewing material evaluation system, and program
US10856815B2 (en) Generating natural language representations of mental content from functional brain images
McClimans et al. Clinical outcome measurement: Models, theory, psychometrics and practice
JP6455809B2 (en) Preference judgment system
Strohmaier et al. Arts-based interventions for people living with dementia: Measuring ‘in the moment’wellbeing with the Canterbury Wellbeing Scales
Lacey et al. Imagery questionnaires: Vividness and beyond
Short et al. Evidence for a young adult face bias in accuracy and consensus of age estimates
JP7075045B2 (en) Estimating system and estimation method
JP6854554B1 (en) Information processing equipment, information processing methods, information processing systems, and information processing programs
JP6687940B2 (en) Material evaluation method and material evaluation apparatus
Thelin et al. Difference modeling for design space exploration and comparison of three-dimensional structural simulation results
JP6899133B2 (en) Three-phase data analysis method and analysis program
JP6739805B2 (en) Information processing device, program
JP6659011B2 (en) Search system, data collection device and search program
JP2015029609A6 (en) Preference evaluation method, preference evaluation apparatus and program
KR20190067069A (en) Method for Enhancing Reliability of BCI System
JP2015029609A (en) Palatability evaluation method, palatability evaluation device and program
US20240006034A1 (en) Systems and methods of utilizing emotion dyads to determine an individuals emotion state
WO2024029427A1 (en) Brain response space generation device, evaluation device, and brain response space generation method
JP2020187714A (en) Information processor, information processing system, learning device, and information processing program
WO2024024064A1 (en) Estimation program, estimation method, and estimation device
JP2021023472A (en) Estimation system and estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7075045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150