JP7075045B2 - Estimating system and estimation method - Google Patents
Estimating system and estimation method Download PDFInfo
- Publication number
- JP7075045B2 JP7075045B2 JP2018069989A JP2018069989A JP7075045B2 JP 7075045 B2 JP7075045 B2 JP 7075045B2 JP 2018069989 A JP2018069989 A JP 2018069989A JP 2018069989 A JP2018069989 A JP 2018069989A JP 7075045 B2 JP7075045 B2 JP 7075045B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- brain
- estimation
- unit
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Pathology (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Finance (AREA)
- Child & Adolescent Psychology (AREA)
- Psychology (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- High Energy & Nuclear Physics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Economics (AREA)
- Developmental Disabilities (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Psychiatry (AREA)
- Entrepreneurship & Innovation (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Description
本発明は、推定システム、及び推定方法に関する。 The present invention relates to an estimation system and an estimation method.
近年、被験者の脳活動を計測して、感情などの被験者の内的な状態を推定する技術が知られている(例えば、特許文献1)。例えば、特許文献1に記載の従来技術では、動画等の訓練用刺激が誘発した脳活動を計測し、当該訓練用刺激と脳活動との組データに基づいて、脳活動と知覚意味内容を表す知覚意味空間(脳情報表現空間)との対応関係を学習させる。そして、従来技術では、学習させた対応関係を用いて、新規刺激が被験者に与えた際に計測される脳活動から知覚意味内容(被験者の内的な状態)を推定する。
In recent years, a technique for measuring the brain activity of a subject and estimating the internal state of the subject such as emotions has been known (for example, Patent Document 1). For example, in the prior art described in
しかしながら、上述した従来技術では、新規刺激である刺激情報に対して被験者(推定基準者)の内的な状態を推定する度に、新規の感覚情報に対する脳活動の計測を行う必要があり、迅速、且つ簡便に、脳情報を利用した被験者(推定基準者)の内的な状態の推定を行うことが困難であった。また、上述した従来技術では、内的な状態の意味内容を表現するために、大容量コーパス等の事前知識が必要になっていた。 However, in the above-mentioned conventional technique, it is necessary to measure the brain activity for the new sensory information every time the internal state of the subject (estimation reference person) is estimated for the stimulus information which is the new stimulus, which is rapid. Moreover, it was difficult to easily estimate the internal state of the subject (estimation reference person) using brain information. Further, in the above-mentioned conventional technique, prior knowledge such as a large-capacity corpus is required in order to express the meaning and content of the internal state.
本発明は、上記問題を解決すべくなされたもので、その目的は、脳情報を利用した刺激情報に対する推定基準者の内的な状態の推定を、迅速、且つ簡便に行うことができる推定システム、及び推定方法を提供することにある。また、内的状態に対して大規模コーパス等の事前知識を利用せずに、脳内情報表現と直接的に紐付けられた内的状態の推定を達成する。 The present invention has been made to solve the above problems, and an object thereof is an estimation system capable of quickly and easily estimating the internal state of an estimation reference person for stimulation information using brain information. , And to provide an estimation method. In addition, the estimation of the internal state directly linked to the information expression in the brain is achieved without using prior knowledge such as a large-scale corpus for the internal state.
上記問題を解決するために、本発明の一態様は、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換部と、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換部によって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換部と、前記第2変換部によって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部とを備える推定システムである。 In order to solve the above problem, one aspect of the present invention includes a feature amount extraction unit that extracts a plurality of feature amounts related to a plurality of sensations from stimulus information to be estimated, each feature amount related to the plurality of sensations, and the above. Based on the first correspondence information indicating the correspondence relationship with the first brain information corresponding to each of the plurality of sensations, the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature quantity extraction unit can be obtained. The correspondence between the first conversion unit that converts a plurality of the first brain information corresponding to each, the first brain information, and at least one second brain information corresponding to the internal state of the estimation reference person. Based on the second correspondence information shown, the plurality of first brain information converted by the first conversion unit is converted into the second brain information by the second conversion unit and the second conversion unit. It is an estimation system including an estimation unit that estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information.
また、本発明の一態様は、上記の推定システムにおいて、前記第1脳情報は、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、前記第2脳情報は、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、前記第2変換部は、前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記第2脳情報が示す距離空間における位置に変換し、前記推定部は、前記第2脳情報が示す距離空間における位置情報を利用して、前記内的な状態を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance, and is the second. The brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance, and the second conversion unit is based on the second correspondence information. The position in the distance space indicated by the plurality of first brain information is converted into the position in the distance space indicated by the second brain information, and the estimation unit uses the position information in the distance space indicated by the second brain information. , The internal state may be estimated.
また、本発明の一態様は、上記の推定システムにおいて、学習用の刺激情報から抽出された前記複数の感覚に関する複数の特徴量と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚のそれぞれに対応する前記第1の対応情報を生成する第1生成部と、前記学習用の刺激情報に対応する前記内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と前記第2脳情報との対応関係を示す第3の対応情報を生成する第2生成部と、前記学習用の刺激情報に対応する前記複数の第1脳情報が示す距離空間における位置と、前記第3の対応情報に基づいて前記内的な状態を示す情報から生成された前記第2脳情報が示す距離空間における位置とに基づいて、前記第2の対応情報を生成する第3生成部とを備えるようにしてもよい。 Further, in one aspect of the present invention, in the above estimation system, a plurality of feature quantities relating to the plurality of sensations extracted from the stimulus information for learning and a stimulus by the stimulus information for learning are given to the estimation reference person. Based on the measurement result of the brain activity at the time, the first generation unit that generates the first correspondence information corresponding to each of the plurality of sensations, and the internal unit corresponding to the stimulus information for learning. Based on the information indicating the state and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning, the information indicating the internal state and the second brain information Based on the second generation unit that generates the third correspondence information indicating the correspondence relationship, the position in the distance space indicated by the plurality of first brain information corresponding to the stimulus information for learning, and the third correspondence information. A third generation unit that generates the second correspondence information may be provided based on the position in the distance space indicated by the second brain information generated from the information indicating the internal state. ..
また、本発明の一態様は、上記の推定システムにおいて、前記特徴量抽出部は、所定の単位時間ごとに、前記特徴量を抽出し、前記推定部は、前記所定の単位時間ごとの前記第2脳情報が示す距離空間における位置に基づいて、前記推定対象の刺激情報に対応する前記所定の単位時間ごとの前記内的な状態を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the feature amount extraction unit extracts the feature amount every predetermined unit time, and the estimation unit extracts the feature amount every predetermined unit time. 2. Based on the position in the distance space indicated by the brain information, the internal state may be estimated every predetermined unit time corresponding to the stimulus information of the estimation target.
また、本発明の一態様は、上記の推定システムにおいて、前記複数の感覚は、視覚と聴覚とであり、前記特徴量抽出部は、前記視覚に関する視覚特徴量と、前記聴覚に関する聴覚特徴量とを抽出し、前記第1変換部は、前記視覚に対応する前記第1の対応情報に基づいて、前記視覚特徴量を前記視覚に対応する前記第1脳情報が示す視覚空間における位置に変換し、前記聴覚に対応する前記第1の対応情報に基づいて、前記聴覚特徴量を前記聴覚に対応する前記第1脳情報が示す聴覚空間における位置に変換し、前記第2変換部は、前記第2の対応情報に基づいて、前記第1変換部によって変換された前記視覚空間における位置及び前記聴覚空間における位置を、前記第2脳情報が示す距離空間における位置に変換するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the plurality of sensations are visual and auditory, and the feature amount extracting unit includes the visual feature amount related to the visual sense and the auditory feature amount related to the auditory sense. Is extracted, and the first conversion unit converts the visual feature amount into a position in the visual space indicated by the first brain information corresponding to the vision, based on the first correspondence information corresponding to the vision. Based on the first corresponding information corresponding to the visual sense, the auditory feature amount is converted into a position in the auditory space indicated by the first brain information corresponding to the visual sense, and the second conversion unit performs the second conversion unit. Based on the corresponding information of 2, the position in the visual space and the position in the auditory space converted by the first conversion unit may be converted into the position in the distance space indicated by the second brain information.
また、本発明の一態様は、上記の推定システムにおいて、前記推定基準者の内的な状態には、前記推定基準者の感情が含まれ、前記第2変換部は、前記複数の第1脳情報が示す距離空間における位置と、前記感情に対応する前記第2脳情報が示す感情空間における位置との対応関係を示す前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記感情空間における位置に変換し、前記推定部は、複数の前記距離空間における位置から変換された前記感情空間における位置情報に基づいて、前記推定対象の刺激情報に対応する前記感情を推定するようにしてもよい。 Further, in one aspect of the present invention, in the estimation system, the internal state of the estimation reference person includes the emotion of the estimation reference person, and the second conversion unit is the plurality of first brains. The plurality of first brain information indicates based on the second correspondence information indicating the correspondence relationship between the position in the distance space indicated by the information and the position in the emotion space indicated by the second brain information corresponding to the emotion. The position in the distance space is converted into the position in the emotion space, and the estimation unit corresponds to the stimulus information of the estimation target based on the position information in the emotion space converted from the positions in the plurality of distance spaces. The emotion may be estimated.
また、本発明の一態様は、上記の推定システムにおいて、前記複数の感覚に関する特徴量、及び前記内的な状態を示す情報は、多次元の情報であり、前記内的な状態を示す情報は、前記複数の感覚に関する特徴量の次元数より少ない次元数の情報であってもよい。 Further, in one aspect of the present invention, in the estimation system, the feature quantities relating to the plurality of sensations and the information indicating the internal state are multidimensional information, and the information indicating the internal state is the information. , Information having a dimension number smaller than the dimension number of the feature quantity relating to the plurality of sensations may be used.
また、本発明の一態様は、学習用の刺激情報から抽出された複数の感覚に関する複数の特徴量と、推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記複数の感覚に関するそれぞれの特徴量と、前記感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第1脳情報であって、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報を生成する第1生成部と、前記学習用の刺激情報に対応する前記推定基準者の内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第2脳情報であって、前記内的な状態に対応する第2脳情報との対応関係を示す第2の対応情報を生成する第2生成部と、前記第1の対応情報に基づいて前記複数の特徴量から生成された、前記学習用の刺激情報に対応する前記複数の第1脳情報と、前記第2の対応情報に基づいて前記内的な状態を示す情報から生成された第2脳情報との対応関係を示す第3の対応情報であり、当該第2脳情報に含まれる各要素を説明する際の前記複数の第1脳情報に含まれる各要素の貢献度を生成する第3生成部と、前記複数の特徴量と、前記内的な状態を示す情報と、前記各要素の貢献度とに基づいて、前記複数の特徴量から前記内的な状態を示す情報を推定する数理モデルを構築するモデル構築部と、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、前記モデル構築部によって構築された前記数理モデルに基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量から前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部とを備える推定システムである。 Further, one aspect of the present invention is a measurement result of a plurality of feature quantities relating to a plurality of sensations extracted from the stimulus information for learning and a brain activity when the estimation reference person is stimulated by the stimulus information for learning. Based on the above, the first brain information, which is information that defines the dissimilarity between each feature amount of the plurality of sensations and the information pattern of the brain activity caused by the sensations as a distance, is the plurality of pieces. The internal state of the estimation reference person corresponding to the stimulus information for learning and the first generation unit that generates the first correspondence information indicating the correspondence relationship with the first brain information corresponding to each of the sensations of. Based on the information shown and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning, the information indicating the internal state and the internal state are used as factors. The second brain information, which is information that defines the dissimilarity of the information pattern of the induced brain activity as a distance, and is the second correspondence information showing the correspondence with the second brain information corresponding to the internal state. The second generation unit, the plurality of first brain information corresponding to the stimulus information for learning generated from the plurality of feature quantities based on the first correspondence information, and the second It is the third correspondence information which shows the correspondence relation with the 2nd brain information generated from the information which shows the internal state based on the correspondence information, and when explaining each element included in the 2nd brain information. Based on the third generation unit that generates the contribution degree of each element included in the plurality of first brain information, the plurality of feature quantities, the information indicating the internal state, and the contribution degree of each element. A model building unit that builds a mathematical model that estimates information indicating the internal state from the plurality of feature quantities, and a feature quantity extraction unit that extracts a plurality of feature quantities related to a plurality of sensations from the stimulus information to be estimated. And, based on the mathematical model constructed by the model building unit, the above-mentioned items corresponding to the stimulus information of the estimation target from the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature amount extraction unit. It is an estimation system including an estimation unit that estimates a target state.
また、本発明の一態様は、特徴量抽出部が、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出ステップと、第1変換部が、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出ステップによって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換ステップと、第2変換部が、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換ステップによって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換ステップと、推定部が、前記第2変換ステップによって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定ステップとを含む推定方法である。 Further, in one aspect of the present invention, the feature amount extraction unit extracts a plurality of feature amounts related to a plurality of sensations from the stimulus information to be estimated, and the first conversion unit extracts the plurality of sensations. The feature amount extracted from the stimulus information of the estimation target by the feature amount extraction step based on the first correspondence information showing the correspondence relationship between the feature amount of the above and the first brain information corresponding to each of the plurality of sensations. The first conversion step of converting a plurality of feature quantities into a plurality of the first brain information corresponding to each, and the second conversion unit correspond to the first brain information and the internal state of the estimation reference person. A second that converts the plurality of first brain information converted by the first conversion step into the second brain information based on the second correspondence information indicating the correspondence relationship with at least one second brain information. An estimation including a conversion step and an estimation step in which the estimation unit estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion step. The method.
本発明によれば、刺激情報に対する被験者の内的な状態を、迅速、且つ簡便に推定することができる。 According to the present invention, the internal state of the subject with respect to the stimulus information can be quickly and easily estimated.
以下、本発明の実施形態による推定システムについて、図面を参照して説明する。 Hereinafter, the estimation system according to the embodiment of the present invention will be described with reference to the drawings.
[第1の実施形態]
図1は、第1の実施形態による推定システム1の一例を示す機能ブロック図である。
図1に示すように、推定システム1は、解析装置10と、表示装置21と、スピーカ22と、fMRI(functional Magnetic Resonance Imaging)30と、推定装置40とを備える。
[First Embodiment]
FIG. 1 is a functional block diagram showing an example of the
As shown in FIG. 1, the
表示装置21は、例えば、液晶ディスプレイなどであり、学習用の動画データ(学習用の刺激情報の一例、以下、学習用動画データという)に基づく学習用の画像を表示する。動画データには、画像データと音データとが含まれるものとする。
スピーカ22(放音装置の一例)は、学習用の動画データに基づく学習用の音を出力する。
The
The speaker 22 (an example of a sound emitting device) outputs a learning sound based on the learning moving image data.
表示装置21及びスピーカ22は、学習用動画データに基づく画像及び音を出力し、推定基準者S1に視聴させる。推定基準者S1は、例えば、感情評定の推定において基準となる被験者である。
The
fMRI30(脳活動計測部の一例)は、推定基準者S1に刺激を与えた際の推定基準者S1の脳活動を計測する。刺激は、例えば、表示装置21及びスピーカ22が出力する学習用動画データに基づく画像及び音である。fMRI30は、推定基準者S1の脳活動に関連した血流動態反応を視覚化するfMRI信号(脳活動信号)を出力する。fMRI30は、所定の単位時間ごと(例えば、2秒間隔など)で、推定基準者S1の脳活動を計測し、計測した計測結果をfMRI信号として解析装置10に出力する。
The fMRI30 (an example of the brain activity measurement unit) measures the brain activity of the estimation reference person S1 when the estimation reference person S1 is stimulated. The stimulus is, for example, an image and a sound based on learning moving image data output by the
解析装置10は、記憶部11と、制御部12とを備える。記憶部11は、解析装置10の制御部12が利用する各種情報を記憶する。記憶部11が、fMRI30が計測した計測結果と、学習用動画データの特徴量と、学習用動画データの感情評定の各情報を記憶する。制御部12が、記憶部11が記憶した各情報に基づいて、例えば、機械学習による学習処理を実行し、学習用動画データの特徴量から感情評定を推定するために利用する各種情報を生成する。感情評定とは、推定基準者S1の内的な状態を表す一例であり、推定基準者S1の感情を示す情報である。
The
記憶部11は、例えば、動画記憶部111と、感情評定記憶部112と、特徴量記憶部113と、計測結果記憶部114と、構築結果記憶部115とを備える。
動画記憶部111は、学習用動画データを記憶する。
The
The moving
感情評定記憶部112は、学習用動画データに対応する感情評定を記憶する。感情評定は、例えば、推定基準者S1が学習用動画データに基づく動画を視聴した際の内的な状態を所定の時間間隔ごと(所定の単位時間ごと)に付与し、記憶する。感情評定とは、例えば、感情を数値により表すラベルである。感情評定記憶部112は、所定の時間間隔ごと(所定の単位時間ごと)の学習用動画データに対応する感情評定を、所定の時間間隔ごとに時系列に記憶する。
The emotion
特徴量記憶部113は、学習用動画データから抽出された感覚に関する特徴量を記憶する。特徴量は、制御部12により、所定の時間間隔ごと(所定の単位時間ごと)に学習用動画データから抽出される。感覚には、例えば、視覚と聴覚とが含まれる。学習用動画データのうち、画像データから視覚に関する特徴量である視覚特徴量が抽出され、音データから聴覚関する特徴量である聴覚特徴量が抽出される。例えば、特徴量記憶部113は、所定の時間間隔ごとに、視覚特徴量と聴覚特徴量とを対応付けて時系列に記憶する。
The feature amount storage unit 113 stores the feature amount related to the sensation extracted from the learning moving image data. The feature amount is extracted from the learning moving image data by the
計測結果記憶部114は、fMRI30が計測した計測結果を記憶する。計測結果記憶部114は、学習用動画データに基づく動画を推定基準者S1に視聴させた際に、fMRI30によって計測された推定基準者S1の脳活動の計測結果を、所定の時間間隔ごとに時系列に記憶する。
The measurement
構築結果記憶部115は、解析装置10の制御部12により学習処理がされた結果を記憶する。制御部12による学習処理では、複数の感覚について、感覚に関する特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感覚に応じた脳情報表現を距離空間に表した特徴空間を構築する。または、感情について、感情評定と、推定基準者S1に学習用動画データを視聴させた際の脳活動の計測結果とに基づいて、感情に応じた脳情報表現を距離空間に表した感情空間を構築する。特徴空間または感情空間の構築は、例えば、ある感覚またはある感情に応じた脳情報表現を、空間における位置により表すものであってもよい。
The construction result storage unit 115 stores the result of learning processing by the
構築結果記憶部115は、学習処理によって構築された各種構築結果と、構築した特徴空間と感情空間との対応情報とを記憶する。具体的には、構築結果記憶部115は、例えば、視覚特徴空間(視覚空間の一例)の構築結果(重み付け情報Wv)、聴覚特徴空間(聴覚空間の一例)の構築結果(重み付け情報Ws)、感情空間の構築結果(重み付け情報We)、及び、視覚特徴空間及び聴覚特徴空間(以下、視覚・聴覚空間という)と感情空間との対応情報(重み付け情報A)を記憶する。 The construction result storage unit 115 stores various construction results constructed by the learning process and the correspondence information between the constructed feature space and the emotional space. Specifically, the construction result storage unit 115 may include, for example, a construction result (weighted information Wv) of a visual feature space (an example of a visual space), a construction result (weighted information Ws) of an auditory feature space (an example of an auditory space), and the like. The construction result of the emotional space (weighting information We) and the correspondence information between the visual / auditory feature space (hereinafter referred to as visual / auditory space) and the emotional space (weighting information A) are stored.
視覚特徴空間の構築結果は、視覚特徴量と、視覚に応じた脳活動を表す視覚特徴空間(又は視覚特徴空間における位置)との対応関係を示す対応情報であり、聴覚特徴空間の構築結果は、聴覚特徴量と、聴覚に応じた脳活動を表す聴覚特徴空間(又は聴覚特徴空間における位置)との対応関係を示す対応情報である。感情空間の構築結果は、感情評定と、感情空間(又は感情空間における位置)との対応関係を示す対応情報である。
本実施形態において、視覚特徴空間の構築結果、及び聴覚特徴空間の構築結果は、第1の対応情報の一例であり、視覚・聴覚空間と感情空間との対応情報は、第2の対応情報の一例である。また、感情空間の構築結果は、第3の対応情報の一例である。
The construction result of the visual feature space is the correspondence information showing the correspondence between the visual feature amount and the visual feature space (or the position in the visual feature space) representing the brain activity according to the vision, and the construction result of the auditory feature space is. , Correspondence information showing the correspondence between the auditory feature amount and the auditory feature space (or the position in the auditory feature space) representing the brain activity corresponding to the auditory sense. The result of constructing the emotional space is correspondence information showing the correspondence between the emotional rating and the emotional space (or the position in the emotional space).
In the present embodiment, the construction result of the visual feature space and the construction result of the auditory feature space are examples of the first correspondence information, and the correspondence information between the visual / auditory space and the emotional space is the second correspondence information. This is just one example. Moreover, the construction result of the emotional space is an example of the third correspondence information.
制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、解析装置10を統括的に制御する。制御部12は、計測制御部121と、特徴量抽出部122と、特徴空間構築部123と、感情空間構築部124と、空間対応構築部125とを備える。
The
計測制御部121は、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測を制御する。計測制御部121は、動画記憶部111が記憶する学習用動画データを表示装置21及びスピーカ22に出力させ、学習用動画データによる画像及び音を推定基準者S1に与えた際の脳活動を、fMRI30に計測させる。計測制御部121は、fMRI30から脳活動のfMRI信号を所定の時間間隔で取得し、計測結果として計測結果記憶部114に時系列に記憶させる。視覚特徴量の抽出には、種々の手法が提案されているが、例えば、AlexNet、VGG 19layerなどを用いることができる。抽出される特徴量は、例えばn次元(nは自然数)のベクトルで表され、n=4096やn=1000などが、想定されるがこれらの数字には限られない。また、聴覚特徴量の抽出についても、種々の手法が提案されているが、例えば、soundNetなどを用いることができる。抽出される特徴量は、例えば、m次元(mは自然数)のベクトルで表され、m=362、m=3133などが想定されるがこれらの数字に限定されない。
計測制御部121は、例えば、画像及び音を同時に推定基準者S1に与えた場合と、画像のみを推定基準者S1に与えた場合と、音のみを推定基準者S1に与えた場合とのそれぞれについて脳活動の計測結果を取得するようにしてもよい。
The
For example, the
特徴量抽出部122は、学習用動画データから感覚に関する特徴量を抽出する。特徴量抽出部122は、学習用動画データに含まれる画像データから視覚特徴量を、学習用動画データに含まれる音データから聴覚特徴量を、それぞれ所定の時間間隔ごとに抽出する。特徴量抽出部122は、抽出した所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を時系列に特徴量記憶部113に記憶させる。
The feature
特徴空間構築部123(第1の生成部の一例)は、複数の感覚に関する複数の特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、複数の感覚のそれぞれに対応する第1の対応情報を生成する。例えば、特徴空間構築部123は、特徴量記憶部113が時系列に記憶する視覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、視覚特徴に関する脳情報表現の距離空間(意味空間)である視覚特徴空間を構築する。特徴空間構築部123は、例えば、線形回帰モデルによる下記の式(1)を用いて、視覚特徴空間のモデルを構築する。
The feature space construction unit 123 (an example of the first generation unit) is based on a plurality of feature quantities related to a plurality of sensations and measurement results of brain activity when the estimation reference person S1 is stimulated by learning video data. Therefore, the first correspondence information corresponding to each of the plurality of sensations is generated. For example, the feature space construction unit 123 is based on a plurality of sets of data of the visual feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement
Rv=Sv×Wv ・・・ (1) Rv = Sv × Wv ・ ・ ・ (1)
Svは、視覚特徴量を示し、Rvは、Svを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、視覚特徴空間における位置情報(第1脳情報)に対応する。Wvは、脳活動情報のパターンと視覚特徴量との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWvの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、視覚特徴空間における位置情報Rv、視覚特徴量Sv、及び係数情報Wvは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。一つの例として、視覚特徴量Svがn次元のベクトル、脳活動情報の推定値Rvがn次元のベクトルとしたとき、n次元の視覚特徴量によって定まるn次元空間上の位置ベクトルとしてとらえることができる。この例では、視覚特徴量Svの次元数と脳活動情報の推定値Rvの次元数は同じであるが、同じである必要はなく、全く異なる次元数であることもできる。 Sv indicates a visual feature amount, and Rv is an estimated value of brain activity information when Sv is used as an input. The estimated value of this brain activity information corresponds to the position information (first brain information) in the visual feature space. Wv is coefficient information (weighting information) when associating a pattern of brain activity information with a visual feature amount, and is acquired as a result of learning. For this Wv estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Rv, the visual feature amount Sv, and the coefficient information Wv in the visual feature space are multidimensional information, such as a vector, a matrix, and array data. As an example, when the visual feature amount Sv is an n-dimensional vector and the estimated value Rv of the brain activity information is an n-dimensional vector, it can be regarded as a position vector on the n-dimensional space determined by the n-dimensional visual feature amount. can. In this example, the number of dimensions of the visual feature amount Sv and the number of dimensions of the estimated value Rv of the brain activity information are the same, but they do not have to be the same and may be completely different numbers.
特徴空間構築部123は、視覚特徴量と脳活動の計測結果との複数の組データと、式(1)とに基づいて学習処理を実行し、係数情報Wvを構築結果(第1の対応情報)として生成する。視覚特徴空間を構築する際に用いる計測結果は、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、画像のみを推定基準者S1に与えた場合の計測結果である。また、特徴空間構築部123は、生成した係数情報Wvを構築結果記憶部115に記憶させる。 The feature space construction unit 123 executes learning processing based on a plurality of set data of visual feature quantities and measurement results of brain activity, and equation (1), and constructs coefficient information Wv (first correspondence information). ). The measurement result used when constructing the visual feature space is the measurement result when the image and the sound are given to the estimation reference person S1 at the same time, or the measurement result when only the image is given to the estimation reference person S1. Further, the feature space construction unit 123 stores the generated coefficient information Wv in the construction result storage unit 115.
また、例えば、特徴空間構築部123は、特徴量記憶部113が時系列に記憶する聴覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、聴覚特徴に関する脳情報表現の距離空間(意味空間)である聴覚特徴空間を構築する。特徴空間構築部123は、例えば、線形回帰モデルによる下記の式(2)を用いて、聴覚特徴空間のモデルを構築する。
Further, for example, the feature space construction unit 123 is based on a plurality of sets of data of the auditory feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement
Rs=Ss×Ws ・・・ (2) Rs = Ss × Ws ・ ・ ・ (2)
Ssは、視覚特徴量を示し、Rsは、Ssを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、聴覚特徴空間における位置情報(第1脳情報)に対応する。Wsは、脳活動情報のパターンと聴覚特徴量との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWsの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、聴覚特徴空間における位置情報Rs、聴覚特徴量Ss、及び係数情報Wsは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。一つの例として、聴覚特徴量Ssがm次元のベクトル、脳活動情報の推定値Rsがm次元のベクトルとしたとき、m次元の聴覚特徴量によって定まるm次元空間上の位置ベクトルとしてとらえることができる。この例では、聴覚特徴量Ssの次元数と脳活動情報の推定値Rsの次元数は同じであるが、同じである必要はなく、全く異なる次元数であることもできる。 Ss indicates a visual feature amount, and Rs is an estimated value of brain activity information when Ss is used as an input. The estimated value of this brain activity information corresponds to the position information (first brain information) in the auditory feature space. Ws is coefficient information (weighting information) when associating a pattern of brain activity information with an auditory feature amount, and is acquired as a result of learning. For this Ws estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Rs, the auditory feature amount Ss, and the coefficient information Ws in the auditory feature space are multidimensional information, for example, a vector, a matrix, an array data, or the like. As an example, when the auditory feature Ss is an m-dimensional vector and the estimated value Rs of the brain activity information is an m-dimensional vector, it can be regarded as a position vector in the m-dimensional space determined by the m-dimensional auditory feature. can. In this example, the number of dimensions of the auditory feature Ss and the number of dimensions of the estimated value Rs of the brain activity information are the same, but they do not have to be the same and may be completely different numbers.
特徴空間構築部123は、聴覚特徴量と脳活動の計測結果との複数の組データと、式(2)とに基づいて学習処理を実行し、係数情報Wsを構築結果(第1の対応情報)として生成する。聴覚特徴空間を構築する際に用いる計測結果は、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、音のみを推定基準者S1に与えた場合の計測結果である。また、特徴空間構築部123は、生成した係数情報Wsを構築結果記憶部115に記憶させる。 The feature space construction unit 123 executes a learning process based on a plurality of set data of the auditory feature amount and the measurement result of the brain activity and the equation (2), and constructs the coefficient information Ws (first correspondence information). ). The measurement result used when constructing the auditory feature space is the measurement result when the image and the sound are given to the estimation reference person S1 at the same time, or the measurement result when only the sound is given to the estimation reference person S1. Further, the feature space construction unit 123 stores the generated coefficient information Ws in the construction result storage unit 115.
感情空間構築部124(第2生成部の一例)は、学習用動画データに対応する感情評定と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感情評定と感情空間における位置情報(第2脳情報)との対応関係を示す第3の対応情報を生成する。感情評定としては、「快」「不快」「楽しい」「恐怖」というような感情や情動を表す複数、例えば、i個(iは自然数であり、例えば、数十から100程度が想定できるが、この数に限るものではない)の単語と、それぞれの単語についての程度を表す数字(例えば1から5)の組み合わせ(例:(恐怖、3)、(楽しい、5)等)を用いることができる。そして、この感情評定は、学習用動画データをあらかじめ視聴した被験者によって、取得されたものを利用することができるが、推定基準者S1自身で、取得することも可能である。感情評定について、この例を利用する場合、i次元のベクトルと考えることができる。
例えば、感情空間構築部124は、感情評定記憶部112が時系列に予め記憶されている感情評定と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データに基づいて、感情に関する脳情報表現の距離空間(意味空間)である感情空間を構築する。感情空間構築部124は、例えば、線形回帰モデルによる下記の式(3)を用いて、感情空間のモデルを構築する。
The emotion space construction unit 124 (an example of the second generation unit) is based on the emotion rating corresponding to the learning video data and the measurement result of the brain activity when the estimation reference person S1 is stimulated by the learning video data. Therefore, a third correspondence information showing the correspondence between the emotion rating and the position information (second brain information) in the emotion space is generated. As an emotional rating, a plurality of emotions and emotions such as "pleasant", "unpleasant", "fun", and "fear", for example, i (i is a natural number, and for example, several tens to 100 can be assumed). A combination of words (not limited to this number) and numbers (
For example, the emotion
Re=Se×We ・・・ (3) Re = Se × We ・ ・ ・ (3)
Seは、感情評定を示し、Reは、Seを入力としたときの脳活動情報の推定値である。この脳活動情報の推定値は、推定される感情空間における位置情報(第2脳情報)に対応する。Weは、脳活動情報のパターンと感情評定との関連付けを行うときの係数情報(重み付け情報)であり、学習の結果として獲得されるものである。このWeの推定には、例えば、L2ノルムを考慮したリッジ回帰を用いてもよい。また、感情空間における位置情報Re、感情評定Se、及び係数情報Weは、多次元の情報であり、例えば、ベクトルや行列、配列データなどである。感情評定をi次元のベクトル、第2脳情報Reをi次元のベクトルとした時、i次元の感情評定により定まるi次元空間の位置ベクトルとしてとらえることができる。この例では、感情評定の次元数と第2脳情報の次元数は同じであるが、同じである必要はなく、全く異なる次元数であってもよい。感情評定は、一例としては、複数の感覚に関する特徴量(例えば、視覚特徴量Svと聴覚特徴量Ssとの合算特徴量)の次元数より少ない次元数の情報である。 Se indicates an emotional rating, and Re is an estimated value of brain activity information when Se is used as an input. The estimated value of this brain activity information corresponds to the position information (second brain information) in the estimated emotional space. We is coefficient information (weighting information) when associating a pattern of brain activity information with an emotional rating, and is acquired as a result of learning. For this We estimation, for example, ridge regression considering the L2 norm may be used. Further, the position information Re, the emotion rating Se, and the coefficient information We in the emotion space are multidimensional information, for example, a vector, a matrix, an array data, or the like. When the emotion rating is an i-dimensional vector and the second brain information Re is an i-dimensional vector, it can be regarded as a position vector in the i-dimensional space determined by the i-dimensional emotion rating. In this example, the number of dimensions of the emotion rating and the number of dimensions of the second brain information are the same, but they do not have to be the same and may be completely different numbers. The emotion rating is, for example, information having a dimension number smaller than the dimension number of the feature amount relating to a plurality of sensations (for example, the total feature amount of the visual feature amount Sv and the auditory feature amount Ss).
感情空間構築部124は、感情評定と脳活動の計測結果との複数の組データと、式(3)とに基づいて学習処理を実行し、係数情報Weを構築結果(第3の対応情報)として生成する。感情空間を構築する際に用いる計測結果は、例えば、画像及び音を同時に推定基準者S1に与えた場合の計測結果、又は、画像のみを推定基準者S1に与えた場合の計測結果、又は、音のみを推定基準者S1に与えた場合の計測結果である。また、感情空間構築部124は、生成した係数情報Weを構築結果記憶部115に記憶させる。
The emotion
空間対応構築部125(第3生成部の一例)は、学習用動画データに対応する複数の第1脳情報(視覚・聴覚空間における位置情報)が示す距離空間における位置と、第2脳情報(感情空間における位置情報)が示す距離空間における位置とに基づいて、視覚・聴覚空間と感情空間との対応情報である第2の対応情報を生成する。複数の第1脳情報は、例えば、上述した係数情報Wv及び係数情報Wsに基づいて、学習用動画データに対応する視覚特徴量及び聴覚特徴量から生成された視覚・聴覚空間における位置情報である。また、第2脳情報は、上述した係数情報Weに基づいて、学習用動画データに対応する感情評定から生成された感情空間における位置情報である。 The spatial correspondence construction unit 125 (an example of the third generation unit) has a position in a distance space indicated by a plurality of first brain information (position information in the visual / auditory space) corresponding to the video data for learning, and a second brain information (an example). Based on the position in the distance space indicated by the position information in the emotional space), the second correspondence information which is the correspondence information between the visual / auditory space and the emotional space is generated. The plurality of first brain information is, for example, position information in the visual / auditory space generated from the visual feature amount and the auditory feature amount corresponding to the learning moving image data based on the above-mentioned coefficient information Wv and coefficient information Ws. .. Further, the second brain information is position information in the emotion space generated from the emotion rating corresponding to the learning moving image data based on the above-mentioned coefficient information We.
空間対応構築部125は、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、例えば、線形回帰モデルによる下記の式(4)を用いて、視覚・聴覚空間と感情空間との対応関係を学習する。
The space
Re=[Rv,Rs]×A・・・ (4) Re = [Rv, Rs] × A ... (4)
Reは、推定される感情空間における位置情報(第2脳情報)を示し、[Rv,Rs]は、視覚及び聴覚空間における位置情報を結合した結果を意味する。また、Aは、係数情報(重み付け情報)であり、視覚・聴覚空間と感情空間との対応関係を示す第2の対応情報(学習結果)に対応する。そして、Reは、例えば、i次元空間における位置ベクトルで表すことができ、また、[Rv、Rs]は、視覚と聴覚を組み合わせた、例えば、(n+m)次元空間における位置ベクトルで表すことができる。これにより、この二つの位置ベクトルの関係を、脳活動の計測結果を介して、関連付けることができ、この関連付けが、第2の対応情報となる。また、Aを推定する際には、L2ノルムを考慮したリッジ回帰を用いてもよい。
このように、空間対応構築部125は、視覚・聴覚空間における位置情報と感情空間における位置情報とを対応付け、第2の対応情報を生成する。空間対応構築部125は、生成した第2の対応情報を、構築結果記憶部115に記憶させる。
Re indicates the estimated position information in the emotional space (second brain information), and [Rv, Rs] means the result of combining the position information in the visual and auditory spaces. Further, A is coefficient information (weighting information), and corresponds to the second correspondence information (learning result) showing the correspondence between the visual / auditory space and the emotional space. Then, Re can be represented by, for example, a position vector in i-dimensional space, and [Rv, Rs] can be represented by, for example, a position vector in a (n + m) dimensional space that combines visual and auditory senses. .. As a result, the relationship between the two position vectors can be related via the measurement result of the brain activity, and this relationship becomes the second correspondence information. Further, when estimating A, ridge regression considering the L2 norm may be used.
In this way, the spatial
推定装置40は、解析装置10が学習処理により構築した各種構築結果と、それらの対応情報と用いて、推定対象の動画データから感情評定を推定する推定処理を実行する。推定装置40は、記憶部41と、制御部42とを備える。
The
記憶部41は、例えば、特徴量記憶部411と、投射結果記憶部412と、感情情報記憶部413と、推定結果記憶部414とを備える。
特徴量記憶部411は、推定対象の動画データから抽出された視覚特徴量と、聴覚特徴量とを記憶する。具体的には、特徴量記憶部411は、特徴量抽出部421により所定の時間間隔ごと(所定の単位時間ごと)に推定対象の動画データから抽出された視覚特徴量及び聴覚特徴量を、時系列に記憶する。
The
The feature
投射結果記憶部412は、感情評定の推定処理における中間情報である各種投射結果を記憶する。投射結果記憶部412は、例えば、視覚特徴量から視覚特徴空間に投射した投射結果、聴覚特徴量から聴覚特徴空間に投射した投射結果、及び視覚・聴覚空間から感情空間に投射した投射結果を記憶する。また、投射結果記憶部412は、例えば、所定の時間間隔ごとに各種投射結果を時系列に記憶する。 The projection result storage unit 412 stores various projection results which are intermediate information in the estimation process of emotion evaluation. The projection result storage unit 412 stores, for example, a projection result projected from the visual feature amount to the visual feature space, a projection result projected from the auditory feature amount to the auditory feature space, and a projection result projected from the visual / auditory space to the emotional space. do. Further, the projection result storage unit 412 stores various projection results in time series, for example, at predetermined time intervals.
感情情報記憶部413は、動画・画像または音などの刺激に対して所定の時間間隔ごとに紐づけられた感情評定と、例えば、“悲しい”、“恐怖”などの複数種別のうちいずれかの感情の名称(ラベル情報)とを対応付けて記憶する。
推定結果記憶部414は、推定装置40により推定された、推定対象の動画データに対応する感情評定の推定結果を記憶する。推定結果記憶部414は、例えば、所定の時間間隔ごとに、感情評定の推定結果を時系列に記憶する。
The emotion
The estimation result storage unit 414 stores the estimation result of the emotion rating corresponding to the moving image data to be estimated, which is estimated by the
制御部42は、例えば、CPUなどを含むプロセッサであり、推定装置40を統括的に制御する。制御部42は、特徴量抽出部421と、特徴空間投射部422と、感情空間投射部423と、推定処理部424とを備える。
The
特徴量抽出部421は、推定対象の動画データを取得して、当該推定対象の動画データから複数の感覚に関する複数の特徴量を抽出する。推定対象の動画データには、画像データと音データとが含まれる。特徴量抽出部421は、例えば、推定対象の動画データの画像データから所定の時間間隔ごとの視覚特徴量を抽出し、音データから所定の時間間隔ごとの聴覚特徴量を抽出する。特徴量抽出部421は、推定対象の動画データから抽出した所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を時系列に特徴量記憶部411に記憶させる。
The feature
特徴空間投射部422(第1変換部の一例)は、上述した第1の対応情報に基づいて、特徴量抽出部421によって推定対象の動画データから抽出された複数の特徴量を、それぞれに対応する複数の第1脳情報に変換する。特徴空間投射部422は、まず、解析装置10の構築結果記憶部115が記憶する構築結果(係数情報Wv及び係数情報Ws)を取得する。特徴空間投射部422は、特徴量記憶部411が記憶する視覚特徴量Svを、取得した係数情報Wvを用いて、視覚特徴空間に投射し、視覚特徴空間における位置情報Rvに変換する。特徴空間投射部422は、特徴量記憶部411が記憶する聴覚特徴量Ssを、取得した係数情報Wsを用いて、聴覚特徴空間に投射し、視覚特徴空間における位置情報Rsに変換する。特徴空間投射部422は、これらの投射処理を、所定の時間間隔ごとの特徴量(Sv、Ss)に対して実行し、投射結果(Rv、Rs)を投射結果記憶部412に時系列に記憶させる。
The feature space projection unit 422 (an example of the first conversion unit) corresponds to each of a plurality of feature quantities extracted from the moving image data to be estimated by the feature
感情空間投射部423(第2変換部の一例)は、上述した第2の対応情報に基づいて、特徴空間投射部422によって変換された複数の第1脳情報を、第2脳情報に変換する。具体的には、感情空間投射部423は、まず、解析装置10の構築結果記憶部115が記憶する構築結果(係数情報A)を取得する。感情空間投射部423は、投射結果記憶部412が記憶する投射結果(Rv、Rs)を取得し、例えば、視覚特徴空間における位置情報Rvと聴覚特徴空間における位置情報Rsとを結合して、視覚・聴覚空間における位置情報Rv及びRsを生成する。感情空間投射部423は、取得した係数情報Aを用いて、視覚・聴覚空間における位置情報Rv及びRsを感情空間に投射し、感情空間における位置情報Reに変換する。感情空間投射部423は、これらの投射し、変換する処理を、所定の時間間隔ごとの視覚・聴覚空間における位置情報Rv及びRsに対して実行し、変換した結果(Re)を投射結果記憶部412に時系列に記憶させる。
The emotion space projection unit 423 (an example of the second conversion unit) converts a plurality of first brain information converted by the feature
推定処理部424(推定部の一例)は、感情空間投射部423によって変換された第2脳情報(感情空間における位置情報Re)に基づいて、推定対象の動画データに対応する感情評定を推定する。推定処理部424は、例えば、解析装置10の構築結果記憶部115が記憶する係数情報We(第3の対応情報)など利用して、感情空間における位置情報Reを逆変換して、感情評定を推定してもよいし、予め判明している感情評定に対応する感情空間における位置との距離に基づいて、感情評定を推定してもよい。推定処理部424は、感情評定の推定結果を推定結果記憶部414に記憶させる。
The estimation processing unit 424 (an example of the estimation unit) estimates the emotion rating corresponding to the moving image data to be estimated based on the second brain information (position information Re in the emotion space) converted by the emotion space projection unit 423. .. The estimation processing unit 424 uses, for example, the coefficient information We (third correspondence information) stored in the construction result storage unit 115 of the
推定処理部424は、感情評定の推定結果を推定装置40に外部に出力する。推定処理部424は、例えば、感情評定の推定結果を外部に出力する際に、感情情報記憶部413が記憶する情報を用いて、感情の名称に変換して出力してもよい。
The estimation processing unit 424 outputs the estimation result of the emotion evaluation to the
次に、図面を参照して、本実施形態による推定システム1の動作についての一例を説明する。
図2は、本実施形態による推定システム1の学習処理の一例を示すフローチャートである。また、図3は、本実施形態における距離空間の構築処理の一例を説明する図である。また、図4は、本実施形態における空間対応関係の構築処理の一例を説明する図である。
Next, an example of the operation of the
FIG. 2 is a flowchart showing an example of the learning process of the
図2に示すように、推定システム1の解析装置10は、学習用の動画による視覚刺激及び聴覚刺激に対する脳活動を計測する(ステップS101)。解析装置10の計測制御部121は、動画記憶部111が記憶する動画データを表示装置21及びスピーカ22に出力させ、当該動画データによる画像及び音を刺激として推定基準者S1に与えた際の脳活動を、fMRI30に計測させる。計測制御部121は、fMRI30が計測した脳活動の計測結果(fMRI信号)を所定の時間間隔で取得し、当該計測結果を計測結果記憶部114に時系列に記憶させる。
As shown in FIG. 2, the
次に、解析装置10の特徴量抽出部122は、学習用動画データから視覚特徴量及び聴覚特徴量を抽出する(ステップS102、図3参照)。特徴量抽出部122は、所定の時間間隔ごとの視覚特徴量及び聴覚特徴量を抽出し、時系列に特徴量記憶部113に記憶させる。
Next, the feature
次に、解析装置10の特徴空間構築部123は、視覚特徴量と脳活動の計測結果とから視覚特徴空間を構築する(ステップS103、図3参照)。特徴空間構築部123は、特徴量記憶部113が時系列に記憶する視覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(1)を用いて学習処理して、視覚特徴空間のモデルを構築する。特徴空間構築部123は、学習結果として、係数情報Wvを生成し、生成した係数情報Wvを構築結果記憶部115に記憶させる。
Next, the feature space construction unit 123 of the
次に、特徴空間構築部123は、聴覚特徴量と脳活動の計測結果とから聴覚特徴空間を構築する(ステップS104、図3参照)。特徴空間構築部123は、特徴量記憶部113が時系列に記憶する聴覚特徴量と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(2)を用いて学習処理して、聴覚特徴空間のモデルを構築する。特徴空間構築部123は、学習結果として、係数情報Wsを生成し、生成した係数情報Wsを構築結果記憶部115に記憶させる。
Next, the feature space construction unit 123 constructs an auditory feature space from the auditory feature amount and the measurement result of the brain activity (step S104, see FIG. 3). The feature space construction unit 123 describes a plurality of sets of data of the auditory feature amount stored in the feature amount storage unit 113 in time series and the measurement result stored in the measurement
次に、解析装置10の感情空間構築部124は、感情評定と脳活動の計測結果とから感情空間を構築する(ステップS105、図3参照)。感情空間構築部124は、感情評定記憶部112が時系列に予め記憶されている感情評定と、計測結果記憶部114が時系列に記憶する計測結果との複数の組データを、上述した式(3)を用いて学習処理して、感情空間のモデルを構築する。感情空間構築部124は、学習結果として、係数情報Weを生成し、生成した係数情報Weを構築結果記憶部115に記憶させる。
Next, the emotional
次に、解析装置10の空間対応構築部125は、視覚特徴空間及び聴覚特徴空間と、感情空間との対応関係を学習する(ステップS106、図4参照)。空間対応構築部125は、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、上述した式(4)を用いて、視覚・聴覚空間と感情空間との対応関係を学習する。空間対応構築部125は、学習結果として、係数情報Aを生成し、生成した係数情報Aを構築結果記憶部115に記憶させる。ステップS106の処理後に、空間対応構築部125は、学習処理を終了する。
Next, the spatial
上述したステップS102からステップS105までの処理は、図3に示す距離空間の構築処理に対応する。図3に示すように、解析装置10は、学習用動画データから視覚特徴量及び聴覚特徴量を抽出するとともに、学習用動画データに対応する感情評定を取得する。そして、解析装置10は、脳活動の計測結果に基づいて、視覚特徴量から視覚特徴空間を構築して係数情報Wv(第1の対応情報)を生成し、聴覚特徴量から聴覚特徴空間を構築して係数情報Ws(第1の対応情報)を生成する。また、解析装置10は、脳活動の計測結果に基づいて、感情評定から感情空間を構築して係数情報Weを生成する。
The process from step S102 to step S105 described above corresponds to the metric space construction process shown in FIG. As shown in FIG. 3, the
また、上述したステップS106の処理は、図4に示す空間対応関係の構築処理に対応する。図4に示すように、解析装置10は、上述した距離空間の構築処理にて構築した視覚特徴空間及び聴覚特徴空間(視覚・聴覚空間)と、感情空間との対応関係を、例えば、線形回帰モデルを用いて、学習する。
Further, the process of step S106 described above corresponds to the process of constructing the spatial correspondence relationship shown in FIG. As shown in FIG. 4, the
次に、図面を参照して、本実施形態による推定システム1の推定処理について説明する。
図5は、本実施形態による推定システム1の推定処理の一例を示すフローチャートである。また、図6は、本実施形態による推定システム1の推定処理の一例の概要を説明する図である。
Next, the estimation process of the
FIG. 5 is a flowchart showing an example of the estimation process of the
図5に示すように、推定装置40の特徴量抽出部421は、まず、推定対象の動画データを取得する(ステップS201)。
次に、特徴量抽出部421は、推定対象の動画データから視覚特徴量及び聴覚特徴量を抽出する(ステップS202、図6参照)。特徴量抽出部421は、例えば、推定対象の動画データに含まれる画像データから視覚特徴量Svを抽出する。また、特徴量抽出部421は、例えば、推定対象の動画データに含まれる音データから聴覚特徴量Ssを抽出する。特徴量抽出部421は、抽出した視覚特徴量Sv及び聴覚特徴量Ssを特徴量記憶部411に記憶させる。
As shown in FIG. 5, the feature
Next, the feature
次に、推定装置40の特徴空間投射部422は、視覚特徴量を視覚特徴空間に投射する(ステップS203、図6参照)。特徴空間投射部422は、特徴量記憶部411が記憶する視覚特徴量Svを、解析装置10が生成した係数情報Wvを用いて、視覚特徴空間に投射し、視覚特徴空間における位置情報Rvに変換する。特徴空間投射部422は、視覚特徴空間における位置情報Rvを投射結果記憶部412に記憶させる。
Next, the feature
次に、特徴空間投射部422は、聴覚特徴量を聴覚特徴空間に投射する(ステップS204、図6参照)。特徴空間投射部422は、特徴量記憶部411が記憶する聴覚特徴量Ssを、解析装置10が生成した係数情報Wsを用いて、聴覚特徴空間に投射し、聴覚特徴空間における位置情報Rsに変換する。特徴空間投射部422は、聴覚特徴空間における位置情報Rsを投射結果記憶部412に記憶させる。
Next, the feature
次に、推定装置40の感情空間投射部423は、視覚特徴空間及び聴覚特徴空間の位置から感情空間の位置を推定する(ステップS205、図6参照)。感情空間投射部423は、視覚特徴空間における位置情報Rvと聴覚特徴空間における位置情報Rsとを結合して、視覚・聴覚空間における位置情報Rv及びRsを生成する。感情空間投射部423は、解析装置10が生成した係数情報Aを用いて、視覚・聴覚空間における位置情報Rv及びRsを感情空間に投射し、感情空間における位置情報Reに変換する。
Next, the emotion space projection unit 423 of the
次に、推定装置40の推定処理部424は、感情空間の位置から感情評定を逆投射する(ステップS206、図6参照)。推定処理部424は、感情空間における位置情報Reを、解析装置10が生成した係数情報Weを利用して、感情評定に逆投射し、感情評定を推定する。
次に、推定処理部424は、推定した感情評定を出力する(ステップS207)。
推定装置40は、推定対象の動画データに対して、上述したステップS201からS207の処理を、所定の時間間隔ごとに繰り返し実行する。
Next, the estimation processing unit 424 of the
Next, the estimation processing unit 424 outputs the estimated emotion rating (step S207).
The
以上説明したように、本実施形態による推定システム1は、特徴量抽出部421と、特徴空間投射部422(第1変換部)と、感情空間投射部423(第2変換部)と、推定処理部424(推定部)とを備える。特徴量抽出部421は、推定対象の刺激情報(例えば、動画データ)から複数の感覚に関する複数の特徴量(例えば、視覚特徴量及び聴覚特徴量)を抽出する。特徴空間投射部422は、第1の対応情報に基づいて、特徴量抽出部421によって推定対象の刺激情報から抽出された感覚に関する複数の特徴量を、それぞれに対応する複数の第1脳情報(例えば、視覚特徴空間における位置情報及び聴覚特徴空間における位置情報)に変換する。第1の対応情報は、複数の感覚に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す情報である。感情空間投射部423は、第2の対応情報に基づいて、特徴空間投射部422によって変換された複数の第1脳情報を、第2脳情報(例えば、感情空間における位置情報)に変換する。第2の対応情報は、第1脳情報と、推定基準者S1の内的な状態(例えば、感情)に対応する少なくとも1つの第2脳情報との対応関係を示す情報である。推定処理部424は、感情空間投射部423によって変換された第2脳情報に基づいて、推定対象の刺激情報に対応する内的な状態を推定する。ここで、第1脳情報と第2脳情報は、独立して取り扱われており、仮に、脳内においてこれらが独立に表現されていたとしても、感覚特徴量から感情空間への推定を有効に行うことができる。
As described above, the
これにより、本実施形態による推定システム1は、第1の対応情報と、第2の対応情報とを使用して、感情などの推定基準者S1の内的な状態を推定するため、内的な状態を推定する度に、fMRI30による脳活動の計測を行う必要がない。そのため、本実施形態による推定システム1は、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。例えば、本実施形態による推定システム1は、映画やドラマ、ホームビデオなどの映像・音声コンテンツが視聴者(例えば、推定基準者S1)に与える感情の効果を、実際に視聴させずに画像や音声から評価することができる。
As a result, the
また、図7は、本実施形態による推定システム1の効果の一例を説明する図である。
この図において、グラフの横軸は、本実施形態の推定システム1における推定された感情評定(推定値)と実際の感情評定(真の値)との相関係数の一例を示している。ここでの本実施形態における相関係数は、脳情報に関する知見を利用して感情評定を推定した場合を示している。また、グラフの縦軸は、脳情報を介さずに、単純に視覚特徴量及び聴覚特徴量から感情評定を推定した場合の推定された感情評定と実際の感情評定との相関係数を示している。
Further, FIG. 7 is a diagram illustrating an example of the effect of the
In this figure, the horizontal axis of the graph shows an example of the correlation coefficient between the estimated emotion rating (estimated value) and the actual emotion rating (true value) in the
脳(脳情報)を介さずとは、図4に示すような視覚・聴覚特徴量から視覚・聴覚空間及び感情空間を介して感情評定を推定する本実施形態の方法に対し、視覚・聴覚特徴量から直接的に感情評定を推定する方法である。より具体的には、脳情報を介さずとは、視覚・聴覚特徴量から感情評定を説明するような線形回帰モデルを示す。また、各丸印は、感情評定の項目(名称、又はラベル情報)に対応している。また、この結果は、ある条件の学習用動画データを用いて学習処理を行い(一例として、「ワクワクする」に関連する時間帯から取得した視覚・聴覚特徴量及び感情評定を学習処理した例)、構築した従来の推定システムを用いて示されたものである。 The term “without going through the brain (brain information)” refers to the visual / auditory features as opposed to the method of the present embodiment in which the emotional rating is estimated from the visual / auditory features as shown in FIG. 4 via the visual / auditory space and the emotional space. It is a method of estimating the emotional rating directly from the quantity. More specifically, without using brain information, we show a linear regression model that explains emotional evaluation from visual and auditory features. In addition, each circle corresponds to an emotion rating item (name or label information). In addition, this result is subjected to learning processing using learning video data under certain conditions (as an example, an example of learning processing of visual / auditory features and emotional ratings acquired from a time zone related to "excitement"). , Shown using the conventional estimation system constructed.
図7において、黒丸印は、fMRI30により脳活動を計測せず、脳情報を介さずに推定した場合に比べて、本実施形態における相関係数が高く、推定精度の良い感情評定の項目を示している。縦縞の丸印は、本実施形態における相関係数が0.2以上であるが、脳情報を介さずに推定した場合に比べて、推定精度の悪い感情評定の項目を示している。白丸印は、脳情報を介する、及び脳情報を介さない場合のいずれにおいても相関係数が0.2以下であり、推定精度が低い感情評定の項目を示している。 In FIG. 7, the black circle indicates an emotion rating item having a high correlation coefficient and good estimation accuracy in the present embodiment as compared with the case where the brain activity is not measured by fMRI30 and is estimated without using brain information. ing. The circles with vertical stripes have a correlation coefficient of 0.2 or more in the present embodiment, but indicate an emotion rating item with poor estimation accuracy as compared with the case of estimation without using brain information. The white circles indicate emotion rating items with a correlation coefficient of 0.2 or less, both with and without brain information, and with low estimation accuracy.
図7に示すように、黒丸印の数が、縦縞の丸印の数よりも多く、本実施形態による推定システム1は、脳活動を介さずに推定した場合に比べて、推定精度が高い傾向にあることを示している。このように、この条件において、本実施形態による推定システム1が、単純に感覚に関する特徴量から推定基準者S1の内的な状態を推定する場合に比べて、高い推定精度を持つことが示されている。サインランク検定(p<0.01)により、脳情報を介さずに推定した場合に比べて、本実施形態による推定システム1の方が、有意に相関係数が高い結果となった。
As shown in FIG. 7, the number of black circles is larger than the number of vertical stripes, and the
また、本実施形態では、第1脳情報は、感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報(例えば、感覚に対応する距離空間における位置情報)である。第2脳情報は、内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報(例えば、内的な状態に対応する距離空間における位置情報)である。感情空間投射部423は、第2の対応情報に基づいて、複数の第1脳情報が示す距離空間における位置を、第2脳情報が示す距離空間における位置に変換する。推定処理部424は、第2脳情報が示す距離空間における位置に基づいて、内的な状態を推定する。
この脳活動の情報パターンの距離に関する情報は、本実施形態による推定システム1により推定値として得られるものである。このため、本実施形態による推定システム1は、推定対象の動画データについて、その動画データを推定基準者S1が視聴した際の脳活動をfMRI30により新しく計測しない場合でも、推定した距離空間を利用して、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。
Further, in the present embodiment, the first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as the distance (for example, the position information in the metric space corresponding to the sensation). The second brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance (for example, the position information in the metric space corresponding to the internal state). The emotional space projection unit 423 converts the position in the metric space indicated by the plurality of first brain information into the position in the metric space indicated by the second brain information based on the second correspondence information. The estimation processing unit 424 estimates the internal state based on the position in the metric space indicated by the second brain information.
The information regarding the distance of the information pattern of the brain activity is obtained as an estimated value by the
また、本実施形態による推定システム1は、特徴空間構築部123(第1生成部)と、感情空間構築部124(第2生成部)と、空間対応構築部125(第3生成部)とを備える。特徴空間構築部123は、学習用動画データから抽出された視覚特徴量及び聴覚特徴量と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、視覚及び聴覚のそれぞれに対応する第1の対応情報を生成する。感情空間構築部124は、学習用動画データに対応する感情を示す情報(感情評定)と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、第3の対応情報を生成する。第3の対応情報は、感情評定と第2脳情報との対応関係を示す。空間対応構築部125は、学習用動画データに対応する複数の感覚についての第1脳情報が示す距離空間(視覚・聴覚空間)における位置と、第3の対応情報に基づいて感情評定から生成された第2脳情報が示す距離空間(感情空間)における位置とに基づいて、第2の対応情報を生成する。
これにより、本実施形態による推定システム1は、感情(内的な状態)を推定するための第1の対応情報及び第2の対応情報を生成することができ、推定対象の動画データに対応する推定基準者S1の感情(内的な状態)を、迅速、且つ簡便に推定することができる。
Further, the
Thereby, the
本実施形態では、特徴量抽出部421は、所定の単位時間ごとに、特徴量を抽出する。推定処理部424は、所定の単位時間ごとの第2脳情報が示す距離空間における位置(感情空間における位置)に基づいて、推定対象の動画データに対応する所定の単位時間ごとの感情を推定する。
これにより、本実施形態による推定システム1は、例えば、感情(内的な状態)の時間変化を推定することができる。
In the present embodiment, the feature
Thereby, the
本実施形態では、複数の感覚は、視覚と聴覚とである。特徴量抽出部421は、視覚に関する視覚特徴量と、聴覚に関する聴覚特徴量とを抽出する。特徴空間投射部422は、視覚に対応する第1の対応情報に基づいて、視覚特徴量を視覚に対応する第1脳情報が示す視覚特徴空間における位置に変換し、聴覚に対応する第1の対応情報に基づいて、聴覚特徴量を聴覚に対応する第1脳情報が示す聴覚特徴空間における位置に変換する。感情空間投射部423は、第2の対応情報に基づいて、特徴空間投射部422によって変換された視覚特徴空間における位置及び聴覚特徴空間における位置を、第2脳情報が示す距離空間(感情空間)における位置に変換する。
これにより、本実施形態による推定システム1は、視覚と聴覚とによる推定対象の動画データから推定基準者S1の内的な状態を、適切に推定することができる。
In this embodiment, the plurality of sensations are visual and auditory. The feature
Thereby, the
本実施形態では、推定基準者S1の内的な状態には、推定基準者S1の感情が含まれる。感情空間投射部423は、複数の第1脳情報が示す距離空間における位置と、感情に対応する第2脳情報が示す感情空間における位置との対応関係を示す第2の対応情報に基づいて、複数の第1脳情報が示す距離空間における位置を、感情空間における位置に変換する。推定処理部424は、感情空間における位置に基づいて、推定対象の動画データに対応する感情を推定する。
これにより、本実施形態による推定システム1は、例えば、推定対象の動画データから適切に感情を推定することができる。
In the present embodiment, the internal state of the estimation reference person S1 includes the emotion of the estimation reference person S1. The emotion space projection unit 423 is based on the second correspondence information showing the correspondence relationship between the position in the distance space indicated by the plurality of first brain information and the position in the emotion space indicated by the second brain information corresponding to the emotion. The position in the distance space indicated by the plurality of first brain information is converted into the position in the emotional space. The estimation processing unit 424 estimates the emotion corresponding to the moving image data to be estimated based on the position in the emotion space.
As a result, the
また、本実施形態では、複数の感覚に関する特徴量(例えば、視覚特徴量及び聴覚特徴量)、及び内的な状態を示す情報(例えば、感情評定)は、多次元の情報であり、内的な状態を示す情報は、複数の感覚に関する特徴量の次元数より少ない次元数の情報である、
これにより、本実施形態による推定システム1は、多次元の特徴量(例えば、視覚特徴量及び聴覚特徴量)より次元数の少ない状態を示す情報(例えば、感情評定)を推定するため、多次元の特徴と同等かそれ以上の次元数の情報を推定する場合と比べて、より精度よく推定基準者S1の内的な状態を推定することが期待できる。
Further, in the present embodiment, the feature amounts related to a plurality of sensations (for example, visual feature amount and auditory feature amount) and the information indicating the internal state (for example, emotion rating) are multidimensional information and are internal. The information indicating the state is information having a dimension number smaller than the dimension number of the feature quantity relating to a plurality of sensations.
As a result, the
また、本実施形態では、推定処理部424は、感情空間における位置から第3の対応情報に基づいて、推定対象の動画データに対応する感情を推定する。すなわち、推定処理部424は、第3の対応情報を利用した逆投射(逆変換)により感情空間における位置から感情を推定する。
これにより、本実施形態による推定システム1は、逆投射(逆変換)という簡易な手法により、感情空間における位置から感情を適切に推定することができる。
Further, in the present embodiment, the estimation processing unit 424 estimates the emotion corresponding to the moving image data to be estimated based on the third correspondence information from the position in the emotion space. That is, the estimation processing unit 424 estimates the emotion from the position in the emotion space by the back projection (reverse transformation) using the third correspondence information.
As a result, the
また、本実施形態による推定方法は、特徴量抽出ステップと、第1変換ステップと、第2変換ステップと、推定ステップとを含む。特徴量抽出ステップにおいて、特徴量抽出部421が、推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する。第1変換ステップにおいて、特徴空間投射部422が、複数の感覚に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、特徴量抽出ステップによって推定対象の刺激情報から抽出された複数の特徴量を、それぞれに対応する複数の第1脳情報に変換する。第2変換ステップにおいて、感情空間投射部423が、第1脳情報と、推定基準者S1の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、第1変換ステップによって変換された複数の第1脳情報を、第2脳情報に変換する。推定ステップにおいて、推定処理部424が、第2変換ステップによって変換された第2脳情報に基づいて、推定対象の刺激情報に対応する内的な状態を推定する。
これにより、本実施形態による推定方法は、上述した推定システム1と同様の効果を奏し、刺激情報に対する推定基準者S1の内的な状態を、迅速、且つ簡便に推定することができる。
Further, the estimation method according to the present embodiment includes a feature amount extraction step, a first conversion step, a second conversion step, and an estimation step. In the feature amount extraction step, the feature
Thereby, the estimation method according to the present embodiment has the same effect as the
[第2の実施形態]
次に、図面を参照して、第2の実施形態による推定システム1aについて説明する。
上述した第1の実施形態では、動画データから抽出した視覚特徴量及び聴覚特徴量から、第1変換ステップと第2変換ステップとの2段階の変換により、感情を推定する例を説明したが、本実施形態では、数理モデルを利用して、1段の変換により、視覚特徴量及び聴覚特徴量から感情を推定する一例について説明する。
[Second Embodiment]
Next, the
In the first embodiment described above, an example of estimating emotions from visual features and auditory features extracted from moving image data by two-step conversion between a first conversion step and a second conversion step has been described. In this embodiment, an example of estimating emotions from visual features and auditory features by one-step conversion using a mathematical model will be described.
図8は、第2の実施形態による推定システム1aの一例を示す機能ブロック図である。
図8に示すように、推定システム1aは、解析装置10aと、表示装置21と、スピーカ22と、fMRI30と、推定装置40aとを備える。
この図において、上述した図1と同一の構成には同一の符号を付与してその説明を省略する。
FIG. 8 is a functional block diagram showing an example of the
As shown in FIG. 8, the
In this figure, the same reference numerals are given to the same configurations as those in FIG. 1 described above, and the description thereof will be omitted.
解析装置10aは、記憶部11aと、制御部12aとを備える。また、記憶部11aは、解析装置10aが利用する各種情報を記憶する。記憶部11aは、例えば、動画記憶部111と、感情評定記憶部112と、特徴量記憶部113と、計測結果記憶部114と、構築結果記憶部115aとを備える。
The
構築結果記憶部115aは、解析装置10aの学習処理によって構築された各種構築結果を記憶する。構築結果記憶部115aは、例えば、視覚特徴空間(視覚空間の一例)の構築結果(重み付け情報Wv)、聴覚特徴空間(聴覚空間の一例)の構築結果(重み付け情報Ws)、感情空間の構築結果(重み付け情報We)、及び、視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルのモデルパラメータ(重み付け情報A)を記憶する。モデルパラメータ(重み付け情報A)の詳細については、後述する。
The construction result storage unit 115a stores various construction results constructed by the learning process of the
制御部12aは、例えば、CPUなどを含むプロセッサであり、解析装置10aを統括的に制御する。制御部12aは、計測制御部121と、特徴量抽出部122と、特徴空間構築部123と、感情空間構築部124と、空間対応構築部125aと、モデル構築部126とを備える。
The
空間対応構築部125a(第3生成部の一例)は、第1の実施形態と同様に、第3の対応情報(第1の実施形態の第2の対応情報)を生成する。なお、本実施形態において、説明の都合上、第1の実施形態の第2の対応情報を第3の対応情報とし、第1の実施形態の第3の対応情報を第2の対応情報として説明する。
また、空間対応構築部125aは、第3の対応情報を生成する際の視覚・聴覚空間の座標次元ごとの、感情空間の座標位置を説明する際の貢献度を算出する。すなわち、空間対応構築部125aは、第3の対応情報を生成する際の複数の第1脳情報(視覚・聴覚空間における位置情報)に含まれる要素(各次元)ごとの、第2脳情報における各感情の位置情報を説明する際の貢献度を生成する。
The spatial correspondence construction unit 125a (an example of the third generation unit) generates the third correspondence information (the second correspondence information of the first embodiment) as in the first embodiment. In this embodiment, for convenience of explanation, the second correspondence information of the first embodiment is described as the third correspondence information, and the third correspondence information of the first embodiment is described as the second correspondence information. do.
In addition, the spatial correspondence construction unit 125a calculates the degree of contribution in explaining the coordinate position of the emotional space for each coordinate dimension of the visual / auditory space when generating the third correspondence information. That is, the spatial correspondence construction unit 125a is in the second brain information for each element (each dimension) included in the plurality of first brain information (position information in the visual / auditory space) when generating the third correspondence information. Generate a contribution in explaining the position information of each emotion.
この処理が必要なのは、視覚特徴空間及び聴覚特徴空間と感情空間の上では、視聴覚特徴量と感情評定の各要素間(各次元間)の相関が、視覚特徴空間及び聴覚特徴空間と感情空間に位置付ける前の視覚特徴量・聴覚特徴量と感情評定の各要素間(各次元間)の相関と比べて、異なっている可能性があるためである。言い換えれば、視覚特徴空間及び聴覚特徴空間と感情空間の上における、感情評定のある要素(次元)と強い相関のある視聴覚特徴量のある要素(次元)、または、相関のない他の要素(次元)を定量化するということである。この各要素間の相関、すなわち貢献度を考慮する例として、相関の強い視聴覚特徴量を優先的に利用することが挙げられるが、これにより正確な推定を行うことが期待できる。 This processing is necessary for the visual feature space, the auditory feature space, and the emotional space, and the correlation between the audiovisual feature amount and each element of the emotion rating (between each dimension) is applied to the visual feature space, the auditory feature space, and the emotional space. This is because there is a possibility that the correlation between the visual and auditory features before positioning and each element of the emotion rating (between each dimension) is different. In other words, above the visual and auditory feature spaces and the emotional space, there is an element (dimension) with audiovisual features that is strongly correlated with the element (dimension) with emotion rating, or another element (dimension) that is not correlated. ) Is to be quantified. As an example of considering the correlation between these elements, that is, the degree of contribution, preferentially using the audiovisual features with strong correlation can be expected, and accurate estimation can be expected from this.
モデル構築部126は、複数の特徴量と、内的な状態を示す情報と、各要素の貢献度とに基づいて、複数の特徴量から内的な状態を示す情報を推定する数理モデルを構築する。モデル構築部126は、例えば、視覚特徴量及び聴覚特徴量と、感情評定と、空間対応構築部125aが生成した各要素(各次元)の貢献度とに基づいて、線形回帰モデルによる下記の式(5)を用いて、視覚特徴量及び聴覚特徴量から感情評定を推定する学習処理を実行する。 The model building unit 126 constructs a mathematical model that estimates information indicating an internal state from a plurality of features based on a plurality of features, information indicating an internal state, and the degree of contribution of each element. do. The model construction unit 126 uses the following equation based on a linear regression model, for example, based on the visual and auditory features, the emotion rating, and the contribution of each element (each dimension) generated by the spatial correspondence construction unit 125a. Using (5), a learning process for estimating an emotional rating from visual features and auditory features is executed.
Se^=Svs×A ・・・ (5)
L=(Se-Svs×A)T(Se-Svs×A)-2λ(RA-r) ・・・ (6)
Se ^ = Svs × A ... (5)
L = (Se-Svs × A) T (Se-Svs × A) -2λ (RA-r) ・ ・ ・ (6)
Se^は、推定される感情評定を示し、Seは、感情評定を示し、Svsは、視覚特徴量と聴覚特徴量との結合の結果を示す。また、Aは、式(6)のLを最小化するように推定される係数情報(重み付け情報、モデルパラメータ)であり、本実施形態における学習結果(構築結果)に対応する。また、2λ(RA-r)は、視覚・聴覚特徴量の各要素の貢献度と係数情報Aとの関係についての制約に関する項であり、これにより係数情報Aの範囲が限定される。制約条件は、例えば、ある感情評定との共起関係が弱い視覚・聴覚特徴の要素パターンとなるべく直交するように、その感情に対応する係数情報Aの要素パターンを推定する、といったものである。このとき、Rとrは、その条件を満たすように決定される。 Se ^ indicates the estimated emotional rating, Se indicates the emotional rating, and Svs indicates the result of the combination of the visual feature amount and the auditory feature amount. Further, A is coefficient information (weighting information, model parameter) estimated so as to minimize L in the equation (6), and corresponds to a learning result (construction result) in the present embodiment. Further, 2λ (RA-r) is a term relating to a constraint on the relationship between the contribution degree of each element of the visual / auditory feature amount and the coefficient information A, thereby limiting the range of the coefficient information A. The constraint condition is, for example, to estimate the element pattern of the coefficient information A corresponding to the emotion so as to be orthogonal to the element pattern of the visual / auditory feature having a weak co-occurrence relationship with a certain emotion rating. At this time, R and r are determined so as to satisfy the conditions.
式(6)について、さらに詳しく説明する。式(6)において、第1項は、実際の感情評定Seと推定された感情評定の差異についてのコサイン距離(内積)を表し、通常はこの値が最小となるようにパラメータAの設定が行われる。第2項は、回帰モデルを解く場合における正則化項である。例えば、視聴覚特徴量Svsと実際の感情評定Seとの共分散行列において、各感情評定次元に対応するベクトルと直交するベクトルを算出できるが、この直交するベクトルを感情評定次元分、組み合わせたものを行列Rとする。これによりRはSeを説明するときの、Svの各要素の貢献度を表現する行列となり、式(6)のLを最小化する過程で、パラメータAをRと直交する(RA=0)ように推定が行われ、視聴覚特徴量の貢献度が反映されることとなる。
このように、モデル構築部126は、回帰モデルにより、視覚特徴量及び聴覚特徴量から感情評定を推定するモデルパラメータである重み付け情報Aを生成する。モデル構築部126は、生成した重み付け情報Aを、構築結果記憶部115aに記憶させる。
Equation (6) will be described in more detail. In the equation (6), the first term represents the cosine distance (inner product) for the difference between the actual emotion rating Se and the estimated emotion rating, and the parameter A is usually set so that this value is minimized. Will be. The second term is a regularization term when solving a regression model. For example, in the covariance matrix of the audiovisual feature amount Svs and the actual emotion rating Se, a vector orthogonal to the vector corresponding to each emotion rating dimension can be calculated, and a combination of these orthogonal vectors for the emotion rating dimension is used. Let it be a matrix R. As a result, R becomes a matrix expressing the contribution of each element of Sv when explaining Se, and in the process of minimizing L in the equation (6), the parameter A is orthogonal to R (RA = 0). Is estimated, and the contribution of audiovisual features will be reflected.
As described above, the model construction unit 126 generates the weighting information A, which is a model parameter for estimating the emotion rating from the visual features and the auditory features, by the regression model. The model construction unit 126 stores the generated weighting information A in the construction result storage unit 115a.
推定装置40aは、解析装置10aが学習処理により学習した学習結果を用いて、推定対象の動画データから感情評定を推定する推定処理を実行する。推定装置40aは、記憶部41aと、制御部42aとを備える。
記憶部41aは、推定装置40aが利用する各種情報を記憶する。記憶部41aは、例えば、特徴量記憶部411と、感情情報記憶部413と、推定結果記憶部414とを備える。
The estimation device 40a executes an estimation process of estimating an emotion rating from the moving image data to be estimated by using the learning result learned by the
The
制御部42aは、例えば、CPUなどを含むプロセッサであり、推定装置40aを統括的に制御する。制御部42aは、特徴量抽出部421と、推定処理部424aとを備える。
The
推定処理部424aは、モデル構築部126によって構築された数理モデルに基づいて、特徴量抽出部421によって推定対象の刺激情報から抽出された複数の特徴量から内的な状態を示す情報を考慮して推定した重み付け情報Aを利用して、推定対象の刺激情報に対応する内的な状態を推定する。すなわち、推定処理部424aは、まず、解析装置10の構築結果記憶部115aが記憶する重み付け情報Aを取得する。推定処理部424aは、特徴量記憶部411が記憶する視覚特徴量及び聴覚特徴量(Svs)を、重み付け情報Aを用いて、上述した式(5)により、感情評定を推定する。推定処理部424aは、推定した感情評定を推定結果として推定結果記憶部414に記憶させる。
The
次に、図面を参照して、本実施形態による推定システム1aの動作について説明する。
図9は、本実施形態による推定システム1aの学習処理の一例を示すフローチャートである。また、図10は、本実施形態における感情評定を推定する回帰モデルの構築処理の一例を説明する図である。
Next, the operation of the
FIG. 9 is a flowchart showing an example of the learning process of the
図9に示すステップS301からステップS305までの処理は、上述した図2に示すステップS101からステップS105までの処理と同様であるためここではその説明を省略する。
ステップS305の処理において、感情空間構築部124は、本実施形態における第2の対応情報として、係数情報Weを生成する。
Since the process from step S301 to step S305 shown in FIG. 9 is the same as the process from step S101 to step S105 shown in FIG. 2 described above, the description thereof will be omitted here.
In the process of step S305, the emotional
ステップS306において、解析装置10aの空間対応構築部125aは、視覚特徴空間及び聴覚特徴空間と、感情空間との対応関係を学習し、視覚・聴覚特徴に関する次元ごとの、各感情を説明する際の貢献度を算出する(ステップS306、図10参照)。空間対応構築部125aは、視覚・聴覚空間における位置情報と、感情空間における位置情報との組データから、第3の対応情報である、視覚・聴覚空間の座標次元ごとに感情空間の座標次元を説明する際の貢献度を算出する。
In step S306, the spatial correspondence construction unit 125a of the
次に、モデル構築部126は、各次元の貢献度を制約条件として視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルを構築する(ステップS307、図10参照)。モデル構築部126は、特徴量記憶部113が記憶する視覚特徴量及び聴覚特徴量と、感情評定記憶部112が記憶する感情評定との複数の組データを、視覚・聴覚空間の座標次元ごとの貢献度に関する知識を重み付け調整の制約条件として、上述した式(6)のLを最小化するように学習処理して、視覚特徴量及び聴覚特徴量から感情評定を推定する回帰モデルを構築する。ここで、貢献度に関する知識とは、例えば、脳内情報表現における視聴覚特徴の各次元と感情評定との共起関係を表す情報(値)である。モデル構築部126は、学習結果として、視覚特徴量及び聴覚特徴量から感情評定を推定するモデルパラメータである重み付け情報Aを生成し、生成した重み付け情報Aを構築結果記憶部115aに記憶させる。ステップS307の処理後に、モデル構築部126は、学習処理を終了する。
Next, the model building unit 126 builds a regression model that estimates the emotion rating from the visual features and the auditory features with the contribution of each dimension as a constraint (see step S307, FIG. 10). The model building unit 126 stores a plurality of sets of data of the visual feature amount and the auditory feature amount stored in the feature amount storage unit 113 and the emotion rating stored in the emotion
次に、図面を参照して、本実施形態による推定システム1aの推定処理について説明する。
図11は、本実施形態による推定システム1aの推定処理の一例を示すフローチャートである。また、図12は、本実施形態による推定システム1aの推定処理の一例を説明する図である。
Next, the estimation process of the
FIG. 11 is a flowchart showing an example of the estimation process of the
図11に示すステップS401、ステップS402、及びステップS404の処理は、上述した図5に示すステップS201、ステップS202、及びステップS204の処理と同様であるため、ここではその説明を省略する。 Since the processing of step S401, step S402, and step S404 shown in FIG. 11 is the same as the processing of step S201, step S202, and step S204 shown in FIG. 5 described above, the description thereof will be omitted here.
ステップS403において、推定装置40aの推定処理部424aは、回帰モデルにより感情評定を推定する(図12参照)。推定処理部424aは、特徴量記憶部411が記憶する視覚特徴量及び聴覚特徴量(Svs)を、解析装置10aが生成した重み付け情報A、及び上述した式(5)を用いて、感情評定を推定する。推定処理部424aは、推定した感情評定を推定結果として推定結果記憶部414に記憶させる。
In step S403, the
以上説明したように、本実施形態による推定システム1aは、特徴空間構築部123(第1生成部)と、感情空間構築部124(第2生成部)と、空間対応構築部125a(第3生成部)と、モデル構築部126と、特徴量抽出部421と、推定処理部424aとを備える。特徴空間構築部123は、学習用の刺激情報から抽出された複数の感覚に関する複数の特徴量(視覚特徴量及び聴覚特徴量)と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、複数の感覚(視覚及び聴覚)に関するそれぞれの特徴量と、複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報を生成する。第1脳情報は、感覚を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である。
As described above, the
また、感情空間構築部124は、学習用動画データに対応する推定基準者S1の感情評定と、推定基準者S1に学習用動画データによる刺激を与えた際の脳活動の計測結果とに基づいて、感情評定と、感情に対応する第2脳情報との対応関係を示す第2の対応情報(係数情報We)を生成する。第2脳情報は、感情を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である。
Further, the emotion
また、空間対応構築部125aは、第1の対応情報に基づいて複数の特徴量(視覚特徴量及び聴覚特徴量)から生成された、学習用動画データに対応する複数の第1脳情報と、第2の対応情報に基づいて感情評定から生成された第2脳情報との対応関係を示す第3の対応情報を生成する。ここで第3の対応情報とは、視覚・聴覚空間の座標次元ごとの、感情空間の座標次元を説明する際の各要素(各次元)の貢献度である。モデル構築部126は、複数の特徴量(視覚特徴量及び聴覚特徴量)と、感情評定と、各要素の貢献度とに基づいて、複数の特徴量(視覚特徴量及び聴覚特徴量)から感情評定を推定する数理モデル(例えば、回帰モデル)を構築する。 Further, the spatial correspondence construction unit 125a includes a plurality of first brain information corresponding to the learning moving image data generated from a plurality of feature quantities (visual feature quantity and auditory feature quantity) based on the first correspondence information. Based on the second correspondence information, a third correspondence information showing a correspondence relationship with the second brain information generated from the emotion rating is generated. Here, the third correspondence information is the degree of contribution of each element (each dimension) in explaining the coordinate dimension of the emotional space for each coordinate dimension of the visual / auditory space. The model building unit 126 has emotions from a plurality of features (visual features and auditory features) based on a plurality of features (visual features and auditory features), an emotion rating, and the contribution of each element. Build a mathematical model (eg, regression model) to estimate the rating.
また、特徴量抽出部421は、推定対象の動画データから複数の感覚(視覚及び聴覚)に関する複数の特徴量(視覚特徴量及び聴覚特徴量)を抽出する。推定処理部424aは、モデル構築部126によって構築された数理モデルに基づいて、特徴量抽出部421によって推定対象の動画データから抽出された複数の特徴量(視覚特徴量及び聴覚特徴量)を用いて感情評定を推定し、当該感情評定に基づいて、推定対象の動画データに対応する感情を推定する。
これにより、本実施形態による推定システム1aは、上述した第1の実施形態と同様の効果を奏し、動画データなどの刺激情報に対する推定基準者S1の感情(内的な状態)を、迅速、且つ簡便に推定することができる。
In addition, the feature
As a result, the
本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、感覚として、視覚及び聴覚を適用する例を説明したが、これに限定されるものではなく、例えば、味覚、嗅覚、触覚などの他の感覚であってもよい。
The present invention is not limited to each of the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above embodiments, examples of applying visual sense and auditory sense as sensations have been described, but the present invention is not limited to this, and other sensations such as taste, smell, and touch may be used. ..
また、上記の各実施形態において、推定基準者S1の内的な状態の一例として、感情を推定する例を説明したがこれに限定されるものではなく、感情に代えて、例えば、善悪など自己の価値観に沿うかどうかの判断や体調の良し悪しなど他の内的な状態を推定するようにしてもよい。
また、上記の各実施形態において、刺激情報の一例として、動画データを用いる例を説明したが、これに限定されるものではなく、視覚、聴覚、味覚、嗅覚、触覚などの感覚に関する特徴量が抽出可能な刺激情報であれば、他の情報であってもよい。
Further, in each of the above embodiments, an example of estimating emotions has been described as an example of the internal state of the estimation reference person S1, but the present invention is not limited to this, and instead of emotions, for example, self such as good and evil. You may try to estimate other internal conditions such as judgment of whether or not it is in line with your values and whether you are in good physical condition.
Further, in each of the above embodiments, an example of using moving image data as an example of stimulus information has been described, but the present invention is not limited to this, and features related to sensations such as sight, hearing, taste, smell, and touch are included. Other information may be used as long as it is stimulus information that can be extracted.
また、上記の各実施形態において、第1の対応情報、第2の対応情報、第3の対応情報、は、係数情報(重み付け情報)である例を説明したが、これに限定されるものではなく、変換テーブルや対応表、その他の機械学習の学習結果などの対応情報や係数情報であってもよい。
また、上記の各実施形態において、線形回帰モデルを利用して、学習処理を実行する例を説明したが、これに限定されるものではなく、非線形関数を利用するものであってもよいし、回帰モデル以外の数理モデルを利用するようにしてもよい。
Further, in each of the above embodiments, an example in which the first correspondence information, the second correspondence information, and the third correspondence information are coefficient information (weighting information) has been described, but the present invention is not limited thereto. Instead, it may be correspondence information or coefficient information such as a conversion table, a correspondence table, or other learning results of machine learning.
Further, in each of the above embodiments, an example of executing the learning process by using the linear regression model has been described, but the present invention is not limited to this, and a non-linear function may be used. A mathematical model other than the regression model may be used.
また、上記の各実施形態において、推定システム1(1a)は、解析装置10(10a)と、表示装置21と、スピーカ22と、fMRI30と、推定装置40(40a)とを備える例を説明したが、解析装置10(10a)の一部又は全てを推定装置40(40a)が備えるようにしてもよい。また、解析装置10(10a)及び推定装置40(40a)の一部を、各装置の外部に備えるようにしてもよい。例えば、記憶部11(11a)及び記憶部41(41a)の一部又は全部を外部に備えるようにしてもよい。また、記憶部11(11a)及び記憶部41(41a)の一部又は全部を外部に備える場合には、ネットワークを介して、各装置と接続可能に構成するようにしてもよい。
Further, in each of the above embodiments, an example in which the estimation system 1 (1a) includes an analysis device 10 (10a), a
また、上記の各実施形態において、推定システム1(1a)が、放音装置の一例としてスピーカ22を備える例を説明したが、これに限定されるものではなく、ヘッドフォンなどの放音装置であってもよい。また、推定システム1(1a)が、脳活動を計測する計測装置として、fMRI30を備える例を説明したが、他の計測装置を備えるようにしてもよい。
Further, in each of the above embodiments, the estimation system 1 (1a) has described an example in which the
なお、上述した推定システム1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した推定システム1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した推定システム1(1a)が備える各構成における処理を行ってもよい。「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
Each configuration included in the estimation system 1 (1a) described above has a computer system inside. Then, a program for realizing the functions of each configuration included in the estimation system 1 (1a) described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. By doing so, the processing in each configuration provided in the estimation system 1 (1a) described above may be performed. "Loading a program recorded on a recording medium into a computer system and executing it" includes installing the program in the computer system. The "computer system" shall include hardware such as an OS and peripheral devices.
Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.
1,1a…推定システム、10,10a…解析装置、11,11a,41,41a…記憶部、12,12a,42,42a…制御部、21…表示装置、22…スピーカ、30…fMRI、40、40a…推定装置、111…動画記憶部、112…感情評定記憶部、113,411…特徴量記憶部、114…計測結果記憶部、115,115a…構築結果記憶部、121…計測制御部、122,421…特徴量抽出部、123…特徴空間構築部、124…感情空間構築部、125,125a…空間対応構築部、126…モデル構築部、412…投射結果記憶部、413…感情情報記憶部、414…推定結果記憶部、422…特徴空間投射部、423…感情空間投射部、424,424a…推定処理部、S1…推定基準者
1,1a ... estimation system, 10,10a ... analyzer, 11,11a, 41,41a ... storage unit, 12,12a, 42,42a ... control unit, 21 ... display device, 22 ... speaker, 30 ... fMRI, 40 , 40a ... estimation device, 111 ... moving image storage unit, 112 ... emotion rating storage unit, 113,411 ... feature quantity storage unit, 114 ... measurement result storage unit, 115, 115a ... construction result storage unit, 121 ... measurement control unit, 122, 421 ... Feature quantity extraction unit, 123 ... Feature space construction unit, 124 ... Emotion space construction unit, 125, 125a ... Spatial correspondence construction unit, 126 ... Model construction unit, 412 ... Projection result storage unit, 413 ... Emotion information storage Unit 414 ... Estimated
Claims (9)
前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換部と、
前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換部によって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換部と、
前記第2変換部によって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部と
を備える推定システム。 A feature amount extraction unit that extracts multiple feature amounts related to multiple sensations from the stimulus information of the estimation target,
The stimulus of the estimation target is stimulated by the feature amount extraction unit based on the first correspondence information indicating the correspondence relationship between each feature amount relating to the plurality of sensations and the first brain information corresponding to each of the plurality of sensations. A first conversion unit that converts the plurality of feature quantities extracted from the information into a plurality of the first brain information corresponding to each.
The above-mentioned converted by the first conversion unit based on the second correspondence information indicating the correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state of the estimation reference person. A second conversion unit that converts a plurality of first brain information into the second brain information,
An estimation system including an estimation unit that estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion unit.
前記第2脳情報は、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報であり、
前記第2変換部は、前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記第2脳情報が示す距離空間における位置に変換し、
前記推定部は、前記第2脳情報が示す距離空間における位置情報を利用して、前記内的な状態を推定する
ことを特徴とする請求項1に記載の推定システム。 The first brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance.
The second brain information is information that defines the dissimilarity of the information pattern of the brain activity caused by the internal state as a distance.
Based on the second correspondence information, the second conversion unit converts the position in the metric space indicated by the plurality of first brain information into the position in the metric space indicated by the second brain information.
The estimation system according to claim 1, wherein the estimation unit estimates the internal state by using the position information in the metric space indicated by the second brain information.
前記学習用の刺激情報に対応する前記内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と前記第2脳情報との対応関係を示す第3の対応情報を生成する第2生成部と、
前記学習用の刺激情報に対応する前記複数の第1脳情報が示す距離空間における位置と、前記第3の対応情報に基づいて前記内的な状態を示す情報から生成された前記第2脳情報が示す距離空間における位置とに基づいて、前記第2の対応情報を生成する第3生成部と
を備える請求項2に記載の推定システム。 Based on the plurality of feature quantities related to the plurality of sensations extracted from the stimulus information for learning and the measurement result of the brain activity when the estimation reference person is stimulated by the stimulus information for learning. The first generation unit that generates the first correspondence information corresponding to each of the senses of
The internal state is based on the information indicating the internal state corresponding to the learning stimulus information and the measurement result of the brain activity when the estimation reference person is stimulated by the learning stimulus information. A second generation unit that generates a third correspondence information showing a correspondence relationship between the information indicating the state and the second brain information.
The second brain information generated from the position in the distance space indicated by the plurality of first brain information corresponding to the stimulus information for learning and the information indicating the internal state based on the third corresponding information. The estimation system according to claim 2, further comprising a third generation unit that generates the second correspondence information based on the position in the distance space indicated by.
前記推定部は、前記所定の単位時間ごとの前記第2脳情報が示す距離空間における位置に基づいて、前記推定対象の刺激情報に対応する前記所定の単位時間ごとの前記内的な状態を推定する
請求項2又は請求項3に記載の推定システム。 The feature amount extraction unit extracts the feature amount at predetermined unit times.
The estimation unit estimates the internal state for each predetermined unit time corresponding to the stimulus information to be estimated based on the position in the metric space indicated by the second brain information for each predetermined unit time. The estimation system according to claim 2 or claim 3.
前記特徴量抽出部は、前記視覚に関する視覚特徴量と、前記聴覚に関する聴覚特徴量とを抽出し、
前記第1変換部は、前記視覚に対応する前記第1の対応情報に基づいて、前記視覚特徴量を前記視覚に対応する前記第1脳情報が示す視覚空間における位置に変換し、前記聴覚に対応する前記第1の対応情報に基づいて、前記聴覚特徴量を前記聴覚に対応する前記第1脳情報が示す聴覚空間における位置に変換し、
前記第2変換部は、前記第2の対応情報に基づいて、前記第1変換部によって変換された前記視覚空間における位置及び前記聴覚空間における位置を、前記第2脳情報が示す距離空間における位置に変換する
請求項2から請求項3のいずれか一項に記載の推定システム。 The plurality of sensations are visual and auditory.
The feature amount extraction unit extracts the visual feature amount related to the visual sense and the auditory feature amount related to the auditory sense.
Based on the first correspondence information corresponding to the vision, the first conversion unit converts the visual feature amount into a position in the visual space indicated by the first brain information corresponding to the vision, and converts it into the auditory sense. Based on the corresponding first correspondence information, the auditory feature amount is converted into a position in the auditory space indicated by the first brain information corresponding to the hearing.
Based on the second correspondence information, the second conversion unit sets the position in the visual space and the position in the auditory space converted by the first conversion unit in the metric space indicated by the second brain information. The estimation system according to any one of claims 2 to 3.
前記第2変換部は、前記複数の第1脳情報が示す距離空間における位置と、前記感情に対応する前記第2脳情報が示す感情空間における位置との対応関係を示す前記第2の対応情報に基づいて、前記複数の第1脳情報が示す距離空間における位置を、前記感情空間における位置に変換し、
前記推定部は、複数の前記距離空間における位置から変換された前記感情空間における位置情報に基づいて、前記推定対象の刺激情報に対応する前記感情を推定する
請求項2から請求項4のいずれか一項に記載の推定システム。 The internal state of the estimator includes the emotions of the estimator,
The second conversion unit shows the correspondence relationship between the position in the distance space indicated by the plurality of first brain information and the position in the emotion space indicated by the second brain information corresponding to the emotion. Based on, the position in the distance space indicated by the plurality of first brain information is converted into the position in the emotional space.
One of claims 2 to 4, wherein the estimation unit estimates the emotion corresponding to the stimulus information to be estimated based on the position information in the emotion space converted from the positions in the plurality of distance spaces. The estimation system described in paragraph 1.
前記内的な状態を示す情報は、前記複数の感覚に関する特徴量の次元数より少ない次元数の情報である
請求項1から請求項6のいずれか一項に記載の推定システム。 The feature quantities related to the plurality of sensations and the information indicating the internal state are multidimensional information.
The estimation system according to any one of claims 1 to 6, wherein the information indicating the internal state is information having a dimension number smaller than the dimension number of the feature amount relating to the plurality of sensations.
前記学習用の刺激情報に対応する前記推定基準者の内的な状態を示す情報と、前記推定基準者に前記学習用の刺激情報による刺激を与えた際の脳活動の計測結果とに基づいて、前記内的な状態を示す情報と、前記内的な状態を要因として引き起こされる脳活動の情報パターンの非類似性を距離として定義する情報である第2脳情報であって、前記内的な状態に対応する第2脳情報との対応関係を示す第2の対応情報を生成する第2生成部と、
前記第1の対応情報に基づいて前記複数の特徴量から生成された、前記学習用の刺激情報に対応する前記複数の第1脳情報と、前記第2の対応情報に基づいて前記内的な状態を示す情報から生成された第2脳情報との対応関係を示す第3の対応情報であり、当該第2脳情報に含まれる各要素を説明する際の前記複数の第1脳情報に含まれる各要素の貢献度を生成する第3生成部と、
前記複数の特徴量と、前記内的な状態を示す情報と、前記各要素の貢献度とに基づいて、前記複数の特徴量から前記内的な状態を示す情報を推定する数理モデルを構築するモデル構築部と、
推定対象の刺激情報から複数の感覚に関する複数の特徴量を抽出する特徴量抽出部と、
前記モデル構築部によって構築された前記数理モデルに基づいて、前記特徴量抽出部によって前記推定対象の刺激情報から抽出された前記複数の特徴量から前記推定対象の刺激情報に対応する前記内的な状態を推定する推定部と
を備える推定システム。 The plurality of sensations are based on the plurality of feature quantities related to the plurality of sensations extracted from the stimulus information for learning and the measurement results of the brain activity when the estimation reference person is stimulated by the stimulus information for learning. It is the first brain information which is the information which defines the dissimilarity of the information pattern of the brain activity caused by the sensation as a distance, and is the first which corresponds to each of the plurality of sensations. The first generation unit that generates the first correspondence information showing the correspondence relationship with the brain information,
Based on the information indicating the internal state of the estimation reference person corresponding to the learning stimulus information and the measurement result of the brain activity when the estimation reference person is stimulated by the learning stimulus information. The second brain information, which is information that defines the dissimilarity between the information indicating the internal state and the information pattern of the brain activity caused by the internal state as a distance, and is the internal state. A second generation unit that generates a second correspondence information showing a correspondence relationship with the second brain information corresponding to the state, and
Based on the plurality of first brain information corresponding to the learning stimulus information generated from the plurality of feature quantities based on the first correspondence information, and the internal information based on the second correspondence information. It is the third correspondence information which shows the correspondence relation with the 2nd brain information generated from the information which shows a state, and is included in the plurality of 1st brain information when explaining each element included in the 2nd brain information. A third generator that generates the contribution of each element
Based on the plurality of features, the information indicating the internal state, and the contribution of each element, a mathematical model for estimating the information indicating the internal state from the plurality of features is constructed. Model building department and
A feature amount extraction unit that extracts multiple feature amounts related to multiple sensations from the stimulus information of the estimation target,
Based on the mathematical model constructed by the model building unit, the internal features corresponding to the stimulus information of the estimation target from the plurality of feature quantities extracted from the stimulus information of the estimation target by the feature amount extraction unit. An estimation system with an estimation unit that estimates the state.
第1変換部が、前記複数の感覚に関するそれぞれの特徴量と、前記複数の感覚のそれぞれに対応する第1脳情報との対応関係を示す第1の対応情報に基づいて、前記特徴量抽出ステップによって前記推定対象の刺激情報から抽出された前記複数の特徴量を、それぞれに対応する複数の前記第1脳情報に変換する第1変換ステップと、
第2変換部が、前記第1脳情報と、推定基準者の内的な状態に対応する少なくとも1つの第2脳情報との対応関係を示す第2の対応情報に基づいて、前記第1変換ステップによって変換された前記複数の第1脳情報を、前記第2脳情報に変換する第2変換ステップと、
推定部が、前記第2変換ステップによって変換された前記第2脳情報を利用して、前記推定対象の刺激情報に対応する前記内的な状態を推定する推定ステップと
を含む推定方法。 A feature amount extraction step in which the feature amount extraction unit extracts a plurality of feature amounts related to a plurality of sensations from the stimulus information to be estimated, and a feature amount extraction step.
The first conversion unit sets the feature amount extraction step based on the first correspondence information showing the correspondence relationship between each feature amount relating to the plurality of sensations and the first brain information corresponding to each of the plurality of sensations. The first conversion step of converting the plurality of feature quantities extracted from the stimulus information of the estimation target into the plurality of the first brain information corresponding to each.
The first conversion unit is based on the second correspondence information indicating the correspondence relationship between the first brain information and at least one second brain information corresponding to the internal state of the estimation reference person. A second conversion step of converting the plurality of first brain information converted by the step into the second brain information,
An estimation method including an estimation step in which the estimation unit estimates the internal state corresponding to the stimulus information of the estimation target by using the second brain information converted by the second conversion step.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069989A JP7075045B2 (en) | 2018-03-30 | 2018-03-30 | Estimating system and estimation method |
PCT/JP2019/010106 WO2019188263A1 (en) | 2018-03-30 | 2019-03-12 | Estimation system and estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018069989A JP7075045B2 (en) | 2018-03-30 | 2018-03-30 | Estimating system and estimation method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019177104A JP2019177104A (en) | 2019-10-17 |
JP7075045B2 true JP7075045B2 (en) | 2022-05-25 |
Family
ID=68061700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018069989A Active JP7075045B2 (en) | 2018-03-30 | 2018-03-30 | Estimating system and estimation method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7075045B2 (en) |
WO (1) | WO2019188263A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005348872A (en) | 2004-06-09 | 2005-12-22 | Nippon Hoso Kyokai <Nhk> | Feeling estimation device and feeling estimation program |
JP2014222397A (en) | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
JP2016195716A (en) | 2015-04-06 | 2016-11-24 | 国立研究開発法人情報通信研究機構 | Estimation method of perceived semantic content by analysis of brain activity |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7097012B2 (en) * | 2017-05-11 | 2022-07-07 | 学校法人 芝浦工業大学 | Kansei estimation device, Kansei estimation system, Kansei estimation method and program |
-
2018
- 2018-03-30 JP JP2018069989A patent/JP7075045B2/en active Active
-
2019
- 2019-03-12 WO PCT/JP2019/010106 patent/WO2019188263A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005348872A (en) | 2004-06-09 | 2005-12-22 | Nippon Hoso Kyokai <Nhk> | Feeling estimation device and feeling estimation program |
JP2014222397A (en) | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
JP2016195716A (en) | 2015-04-06 | 2016-11-24 | 国立研究開発法人情報通信研究機構 | Estimation method of perceived semantic content by analysis of brain activity |
Also Published As
Publication number | Publication date |
---|---|
WO2019188263A1 (en) | 2019-10-03 |
JP2019177104A (en) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190147361A1 (en) | Learned model provision method and learned model provision device | |
Gertheiss et al. | Longitudinal scalar-on-functions regression with application to tractography data | |
US11301775B2 (en) | Data annotation method and apparatus for enhanced machine learning | |
JP6662644B2 (en) | Viewing material evaluation method, viewing material evaluation system, and program | |
US10856815B2 (en) | Generating natural language representations of mental content from functional brain images | |
McClimans et al. | Clinical outcome measurement: Models, theory, psychometrics and practice | |
JP6455809B2 (en) | Preference judgment system | |
Strohmaier et al. | Arts-based interventions for people living with dementia: Measuring ‘in the moment’wellbeing with the Canterbury Wellbeing Scales | |
Lacey et al. | Imagery questionnaires: Vividness and beyond | |
Short et al. | Evidence for a young adult face bias in accuracy and consensus of age estimates | |
JP7075045B2 (en) | Estimating system and estimation method | |
JP6854554B1 (en) | Information processing equipment, information processing methods, information processing systems, and information processing programs | |
JP6687940B2 (en) | Material evaluation method and material evaluation apparatus | |
Thelin et al. | Difference modeling for design space exploration and comparison of three-dimensional structural simulation results | |
JP6899133B2 (en) | Three-phase data analysis method and analysis program | |
JP6739805B2 (en) | Information processing device, program | |
JP6659011B2 (en) | Search system, data collection device and search program | |
JP2015029609A6 (en) | Preference evaluation method, preference evaluation apparatus and program | |
KR20190067069A (en) | Method for Enhancing Reliability of BCI System | |
JP2015029609A (en) | Palatability evaluation method, palatability evaluation device and program | |
US20240006034A1 (en) | Systems and methods of utilizing emotion dyads to determine an individuals emotion state | |
WO2024029427A1 (en) | Brain response space generation device, evaluation device, and brain response space generation method | |
JP2020187714A (en) | Information processor, information processing system, learning device, and information processing program | |
WO2024024064A1 (en) | Estimation program, estimation method, and estimation device | |
JP2021023472A (en) | Estimation system and estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220405 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7075045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |