JP2019032767A - Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method - Google Patents

Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method Download PDF

Info

Publication number
JP2019032767A
JP2019032767A JP2017154590A JP2017154590A JP2019032767A JP 2019032767 A JP2019032767 A JP 2019032767A JP 2017154590 A JP2017154590 A JP 2017154590A JP 2017154590 A JP2017154590 A JP 2017154590A JP 2019032767 A JP2019032767 A JP 2019032767A
Authority
JP
Japan
Prior art keywords
brain activity
stimulus
feature
learning
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017154590A
Other languages
Japanese (ja)
Other versions
JP6928348B2 (en
Inventor
知史 西田
Tomoshi Nishida
知史 西田
伸志 西本
Shinji Nishimoto
伸志 西本
直哉 前田
Naoya Maeda
直哉 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
NTT Data Group Corp
Original Assignee
NTT Data Corp
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, National Institute of Information and Communications Technology filed Critical NTT Data Corp
Priority to JP2017154590A priority Critical patent/JP6928348B2/en
Publication of JP2019032767A publication Critical patent/JP2019032767A/en
Application granted granted Critical
Publication of JP6928348B2 publication Critical patent/JP6928348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide a brain activity prediction device, a perception recognition content estimation system, and a brain activity prediction method improved in convenience for deducing perception and recognition contents.SOLUTION: A brain activity prediction device 10 comprises: a stimulation feature matrix generation part 121 which generates a first feature vector where an expression to stimulation is projected to a first feature space and generates a first stimulation feature matrix in which the first feature vector is collected in time series; and a brain activity prediction part 124 which, by a regression model with set data of a stimulation feature matrix with respect to the stimulation for learning given to a subject and a brain activity matrix in which the brain activity vector generated on the basis of measurement data provided by measuring the brain activity with respect to the stimulation for the learning is collected in time series, as learning data, on the basis of an encoder learning result provided by learning a projection relation from the first feature space to the brain activity, predicts the brain activity matrix with respect to a new stimulation from the first stimulation feature matrix generated by the feature matrix generation part with respect to the new stimulation.SELECTED DRAWING: Figure 1

Description

本発明は、脳活動予測装置、知覚認知内容推定システム、及び脳活動予測方法に関する。   The present invention relates to a brain activity prediction apparatus, a perceptual recognition content estimation system, and a brain activity prediction method.

近年、動画や画像などの刺激に対する脳活動から、知覚及び認知内容を推定する技術が知られている(例えば、特許文献1を参照)。このような従来の技術では、例えば、動画や画像などの刺激と、当該刺激に対する脳活動の計測データとのペアデータの対応関係の中間表現となる特徴空間を定義し、脳活動から特徴空間への投射関係をデータから学習する。そして、従来の技術では、学習した投射関係に基づいて、新たな刺激に対する脳活動の計測データから特徴空間への投射先を予測することにより、知覚及び認知内容を推定していた。   In recent years, a technique for estimating perceptual and cognitive contents from brain activity with respect to stimuli such as moving images and images has been known (see, for example, Patent Document 1). In such a conventional technique, for example, a feature space is defined as an intermediate representation of a pair data correspondence between a stimulus such as a moving image or an image and measurement data of brain activity corresponding to the stimulus. Learn the projection relationship of In the conventional technique, the perceptual and cognitive contents are estimated by predicting the projection destination to the feature space from the measurement data of the brain activity with respect to the new stimulus based on the learned projection relation.

特開2017−129923号公報JP 2017-129923 A

しかしながら、従来の技術では、新たな刺激に対して知覚及び認知内容の推定を行うたびに、新たな刺激に対する脳活動を、例えば、fMRI(functional Magnetic Resonance Imaging)などにより計測する必要があった。そのため、従来の技術では、人的、金銭的、時間的なコストを多く費やす必要があり、利便性が悪いという課題があった。   However, in the conventional technique, it is necessary to measure the brain activity for a new stimulus by, for example, fMRI (functional Magnetic Resonance Imaging) every time the perception and cognitive contents are estimated for the new stimulus. Therefore, in the conventional technique, it is necessary to spend a lot of human, financial and time costs, and there is a problem that convenience is poor.

本発明は、上記問題を解決すべくなされたもので、その目的は、知覚及び認知内容を推定する上で利便性を向上させることができる脳活動予測装置、知覚認知内容推定システム、及び脳活動予測方法を提供することにある。   The present invention has been made to solve the above problems, and its purpose is to provide a brain activity prediction apparatus, a perceptual recognition content estimation system, and a brain activity that can improve convenience in estimating perception and perception content. It is to provide a prediction method.

上記問題を解決するために、本発明の一態様は、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成部と、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成部によって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測部とを備えることを特徴とする脳活動予測装置である。   In order to solve the above problem, according to one aspect of the present invention, a first feature vector is generated by projecting an expression for a stimulus to the first feature space, and the first feature vector is collected in time series. A feature matrix generation unit for generating a matrix, the first stimulus feature matrix for the learning stimulus given to the subject, and a brain activity vector generated based on measurement data obtained by measuring the brain activity for the learning stimulus. Based on the learning result of the encoder that learned the projection relationship from the first feature space to the brain activity using a regression model with the training data as a combination with the brain activity matrix compiled in time series, A brain activity prediction unit that predicts the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the feature matrix generation unit. It is a device.

また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列と、前記脳活動行列との前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測することを特徴とする。   In one embodiment of the present invention, in the above brain activity prediction apparatus, the encoder learning result is obtained by combining the stimulus component that is the first feature vector and the autoregressive component that is the brain activity vector at a past time point. A feature vector is generated, and the combined data of the first stimulus feature matrix generated by collecting the combined feature vectors in time series and the brain activity matrix is used as learning data, and the regression model including the autoregressive component is used. The brain activity prediction unit is learning, based on the encoder learning result learned by the regression model including the autoregressive component, from the first stimulus feature matrix for the new stimulus, to the new stimulus The brain activity matrix is predicted.

また、本発明の一態様は、上記の脳活動予測装置において、前記特徴行列生成部は、前記脳活動予測部により予測された前記脳活動行列に基づく過去の時点の前記脳活動ベクトルと前記第1特徴ベクトルを結合して前記結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列を前記新たな刺激に対する前記第1刺激特徴行列として、前記エンコーダ学習結果に基づいて、更新された前記脳活動行列を生成することを特徴とする。   Further, according to one aspect of the present invention, in the brain activity prediction apparatus, the feature matrix generation unit includes the brain activity vector of the past time point based on the brain activity matrix predicted by the brain activity prediction unit, and the first The encoder learning is performed by combining the one feature vector to generate the combined feature vector, and using the first stimulus feature matrix generated by collecting the combined feature vectors in time series as the first stimulus feature matrix for the new stimulus. The updated brain activity matrix is generated based on the result.

また、本発明の一態様は、上記の脳活動予測装置において、前記脳活動は、脳を分割した立方体の単位領域であるボクセルごとに計測されており、前記脳活動予測部は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、前記ボクセルごとに選択した前記エンコーダ学習結果に基づいて、前記ボクセルごとに前記脳活動を予測することを特徴とする。   In one embodiment of the present invention, in the above brain activity prediction apparatus, the brain activity is measured for each voxel that is a unit region of a cube obtained by dividing the brain, and the brain activity prediction unit performs learning processing. The brain activity is predicted for each voxel based on the encoder learning result selected for each voxel based on the prediction performance at the time of learning from among the plurality of different encoder learning results.

また、本発明の一態様は、上記の脳活動予測装置において、前記第1特徴ベクトルは、深層学習モデルで算出した中間層の活性化パターンであることを特徴とする。   In one embodiment of the present invention, in the brain activity prediction apparatus, the first feature vector is an activation pattern of an intermediate layer calculated by a deep learning model.

また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果を生成するエンコーダ学習部を備えることを特徴とする。   One embodiment of the present invention is characterized in that the brain activity prediction apparatus includes an encoder learning unit that generates the encoder learning result.

また、本発明の一態様は、上記の脳活動予測装置と、前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトル又は当該第2特徴ベクトルを時系列にまとめた前記学習用の刺激に対する第2刺激特徴行列と、前記学習用の刺激に対する前記脳活動行列との組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1刺激特徴行列から予測された前記脳活動行列とに基づいて、前記新たな刺激に対する前記第2特徴ベクトル又は前記第2刺激特徴行列を予測する刺激特徴予測部とを備えることを特徴とする知覚認知内容推定システムである。   According to another aspect of the present invention, a second feature vector is generated by projecting, onto the second feature space, a label indicating the meaning content of perception of a stimulus for the learning activity stimulus and the learning stimulus. Then, the second feature vector or a combination data of the second stimulus feature matrix for the learning stimulus that is a time series of the second feature vector and the brain activity matrix for the learning stimulus is used as learning data. The decoder learning result obtained by learning the projection relationship from the brain activity to the second feature space, and the brain activity predicted from the first stimulus feature matrix for the new stimulus by the brain activity predicting device And a stimulus feature prediction unit that predicts the second feature vector or the second stimulus feature matrix for the new stimulus based on a matrix. A.

また、本発明の一態様は、上記の知覚認知内容推定システムにおいて、前記刺激特徴予測部が予測した前記第2刺激特徴行列に含まれる時系列の第2特徴ベクトル、又は前記刺激特徴予測部が予測した前記第2特徴ベクトルと、前記第2の特徴空間に投射された前記ラベルに対応する前記第2特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する知覚認知内容推定部を備えることを特徴とする。   According to another aspect of the present invention, in the perceptual recognition content estimation system, the time-series second feature vector included in the second stimulus feature matrix predicted by the stimulus feature prediction unit, or the stimulus feature prediction unit Perceptual recognition content for estimating at least one of perception and recognition content based on the distance between the predicted second feature vector and the second feature vector corresponding to the label projected on the second feature space An estimator is provided.

また、本発明の一態様は、特徴行列生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成ステップと、脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成ステップによって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測ステップとを含むことを特徴とする脳活動予測方法である。   Further, according to one aspect of the present invention, the feature matrix generation unit generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space, and the first stimulus feature is obtained by collecting the first feature vectors in time series. A feature matrix generation step for generating a matrix, and a brain activity prediction unit generated based on the first stimulus feature matrix for the learning stimulus given to the subject and measurement data obtained by measuring the brain activity for the learning stimulus. Based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model in which the learning data is a combination data with a brain activity matrix in which the obtained brain activity vectors are collected in time series Predicting the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the feature matrix generating step for the new stimulus; It is a brain activity prediction method, which comprises.

また、本発明の一態様は、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルをする特徴ベクトル生成部と、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成部によって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測部とを備えることを特徴とする脳活動予測装置である。   Further, according to one aspect of the present invention, a feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space, the first feature vector for a learning stimulus given to a subject, Learning the projection relationship from the first feature space to the brain activity by using a regression model with the training data as a pair with brain activity vectors generated based on the measurement data obtained by measuring the brain activity with respect to the stimulus for learning A brain activity prediction unit that predicts the brain activity vector for the new stimulus from the first feature vector generated by the feature vector generation unit for the new stimulus based on the encoder learning result. It is a characteristic brain activity prediction device.

また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルと、前記脳活動ベクトルとの前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測することを特徴とする。   In one embodiment of the present invention, in the above brain activity prediction apparatus, the encoder learning result is obtained by combining the stimulus component that is the first feature vector and the autoregressive component that is the brain activity vector at a past time point. A feature vector is generated, and the set data of the combined feature vector and the brain activity vector is used as learning data to be learned by the regression model including the autoregressive component, and the brain activity prediction unit The brain activity vector for the new stimulus is predicted from the first feature vector for the new stimulus based on the encoder learning result learned by the regression model including a regression component.

また、本発明の一態様は、上記の脳活動予測装置と、前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトルと、前記学習用の刺激に対する前記脳活動ベクトルとの組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1特徴ベクトルから予測された前記脳活動ベクトルとに基づいて、前記新たな刺激に対する前記第2特徴ベクトルを予測する刺激特徴予測部とを備えることを特徴とする知覚認知内容推定システムである。   According to another aspect of the present invention, a second feature vector is generated by projecting, onto the second feature space, a label indicating the meaning content of perception of a stimulus for the learning activity stimulus and the learning stimulus. A decoder learning result obtained by learning a projection relationship from the brain activity to the second feature space, using as a learning data a set data of the second feature vector and the brain activity vector for the learning stimulus; A stimulus feature prediction unit that predicts the second feature vector for the new stimulus based on the brain activity vector predicted from the first feature vector for the new stimulus by the brain activity prediction device; It is a perceptual recognition content estimation system characterized by comprising.

また、本発明の一態様は、特徴ベクトル生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成する特徴ベクトル生成ステップと、脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成ステップによって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測ステップとを含むことを特徴とする脳活動予測方法である。   Further, according to one aspect of the present invention, the feature vector generation unit generates a first feature vector in which an expression for a stimulus is projected on the first feature space, and the brain activity prediction unit gives the subject The first feature vector for the learning stimulus and the regression model using the combination data of the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus as the learning data. The brain activity for the new stimulus from the first feature vector generated by the feature vector generation step for the new stimulus based on the encoder learning result obtained by learning the projection relationship from the feature space to the brain activity A brain activity prediction method comprising: a brain activity prediction step for predicting a vector.

本発明によれば、知覚及び認知内容を推定する上で利便性を向上させることができる。   According to the present invention, convenience can be improved in estimating perceptual and perceived contents.

本実施形態による知覚認知内容推定システムの一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the perceptual recognition content estimation system by this embodiment. 本実施形態におけるエンコーダの学習処理を説明する図である。It is a figure explaining the learning process of the encoder in this embodiment. 本実施形態におけるエンコーダの学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of the encoder in this embodiment. 本実施形態におけるデコーダの学習処理を説明する図である。It is a figure explaining the learning process of the decoder in this embodiment. 本実施形態におけるデコーダの学習処理の一例を示すフローチャートである。It is a flowchart which shows an example of the learning process of the decoder in this embodiment. 本実施形態による知覚認知内容推定システムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of the perceptual recognition content estimation system by this embodiment. 本実施形態における脳活動の予測処理の一例を示すフローチャートである。It is a flowchart which shows an example of the prediction process of the brain activity in this embodiment. 本実施形態における知覚及び認知内容の推定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the estimation process of the perception and recognition content in this embodiment. 本実施形態におけるラベルの特徴空間の一例を示す図である。It is a figure which shows an example of the feature space of the label in this embodiment.

以下、本発明の一実施形態による脳活動予測装置、及び知覚認知内容推定システムについて、図面を参照して説明する。   Hereinafter, a brain activity prediction apparatus and a perceptual recognition content estimation system according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態による知覚認知内容推定システム1の一例を示す概略ブロック図である。
図1に示すように、知覚認知内容推定システム1は、脳活動予測装置10と、知覚認知内容推定装置20とを備えている。知覚認知内容推定システム1は、例えば、動画(映像)、画像、音などの被験者に与えた刺激に対して、知覚及び認知内容を推定する。
FIG. 1 is a schematic block diagram showing an example of a perceptual recognition content estimation system 1 according to this embodiment.
As shown in FIG. 1, the perceptual recognition content estimation system 1 includes a brain activity prediction device 10 and a perceptual recognition content estimation device 20. The perceptual recognition content estimation system 1 estimates perception and perception content for stimuli given to a subject such as moving images (videos), images, and sounds.

脳活動予測装置10は、被験者に与えた刺激(例えば、動画(映像)、画像、音など)に対する被験者の脳活動を予測するエンコーダとして機能する。脳活動予測装置10は、記憶部11と、制御部12とを備えている。
記憶部11は、脳活動予測装置10が実行する処理に利用される各種情報を記憶する。記憶部11は、学習データ記憶部111と、刺激特徴行列記憶部112と、エンコーダ学習結果記憶部113と、予測脳活動記憶部114とを備えている。
The brain activity prediction apparatus 10 functions as an encoder that predicts the brain activity of the subject in response to a stimulus (for example, a moving image (video), an image, a sound, etc.) given to the subject. The brain activity prediction apparatus 10 includes a storage unit 11 and a control unit 12.
The storage unit 11 stores various types of information used for processing executed by the brain activity prediction apparatus 10. The storage unit 11 includes a learning data storage unit 111, a stimulus feature matrix storage unit 112, an encoder learning result storage unit 113, and a predicted brain activity storage unit 114.

学習データ記憶部111は、エンコーダを学習するための学習データを記憶する。学習データ記憶部111は、例えば、刺激データと、脳活動の計測データとの組データ、及び、当該組データを変換したベクトルデータの組データ、及び行列データの組データを記憶する。ここで、刺激データは、動画データ、画像データ、音データなどである。また、脳活動の計測データは、当該刺激データによる刺激を被験者に与えた場合の脳活動を計測したデータであり、例えば、fMRI(functional Magnetic Resonance Imaging)の計測データである。なお、fMRIの計測データは、被験者の脳活動に関連した血流動態反応を視覚化するfMRI信号(脳活動信号)であり、例えば、2mm×2mm×2mmの立方体を最小単位(ボクセル)とした約数万箇所を所定の時間間隔(例えば、2秒間隔)で計測したfMRI信号である。学習データ記憶部111は、このような学習用の刺激データと当該刺激データに対する脳活動の計測データとの組データを記憶する。   The learning data storage unit 111 stores learning data for learning the encoder. The learning data storage unit 111 stores, for example, set data of stimulus data and brain activity measurement data, set data of vector data obtained by converting the set data, and set data of matrix data. Here, the stimulus data is moving image data, image data, sound data, and the like. The brain activity measurement data is data obtained by measuring brain activity when a stimulus is applied to the subject by the stimulus data, and is, for example, measurement data of fMRI (functional Magnetic Resonance Imaging). The fMRI measurement data is an fMRI signal (brain activity signal) for visualizing the hemodynamic response related to the brain activity of the subject. For example, a cube of 2 mm × 2 mm × 2 mm is used as the minimum unit (voxel). This is an fMRI signal obtained by measuring approximately tens of thousands of points at a predetermined time interval (for example, every 2 seconds). The learning data storage unit 111 stores set data of such learning stimulus data and brain activity measurement data for the stimulus data.

また、学習データ記憶部111は、上述した学習用の刺激データを変換した刺激特徴行列(第1刺激特徴行列)と、脳活動の計測データを変換した脳活動行列との組データを、ベクトルデータの組データ、及び行列データの組データとして記憶する。なお、刺激特徴行列、及び脳活動行列の詳細については後述する。   In addition, the learning data storage unit 111 sets the combination data of the stimulation feature matrix (first stimulation feature matrix) obtained by converting the above-described learning stimulus data and the brain activity matrix obtained by converting the brain activity measurement data as vector data. And set data of matrix data. Details of the stimulus feature matrix and the brain activity matrix will be described later.

刺激特徴行列記憶部112は、脳活動を予測する際に、刺激データの特徴を抽出した特徴ベクトル(第1特徴ベクトル)を、時系列にまとめた刺激特徴行列(第1刺激特徴行列)を記憶する。
エンコーダ学習結果記憶部113は、エンコーダを機械学習した学習結果(エンコーダ学習結果)を記憶する。
予測脳活動記憶部114は、刺激データから予測した脳活動を示す情報(予測結果)を記憶する。予測脳活動記憶部114は、予測結果を予測脳活動行列として記憶する。
The stimulus feature matrix storage unit 112 stores a stimulus feature matrix (first stimulus feature matrix) in which feature vectors (first feature vectors) obtained by extracting features of stimulus data are grouped in time series when predicting brain activity. To do.
The encoder learning result storage unit 113 stores a learning result (encoder learning result) obtained by machine learning of the encoder.
The predicted brain activity storage unit 114 stores information (prediction result) indicating brain activity predicted from the stimulus data. The predicted brain activity storage unit 114 stores the predicted result as a predicted brain activity matrix.

制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、脳活動予測装置10を統括的に制御する。制御部12は、例えば、エンコーダを機械学習するエンコーダ学習処理と、学習したエンコーダを用いて、刺激から脳活動を予測する脳活動予測処理とを実行する。また、制御部12は、刺激特徴行列生成部121と、脳活動行列生成部122と、エンコーダ学習部123と、脳活動予測部124とを備えている。   The control unit 12 is, for example, a processor including a CPU (Central Processing Unit) and the like, and comprehensively controls the brain activity prediction apparatus 10. For example, the control unit 12 performs an encoder learning process for machine learning of an encoder and a brain activity prediction process for predicting a brain activity from a stimulus using the learned encoder. The control unit 12 includes a stimulus feature matrix generation unit 121, a brain activity matrix generation unit 122, an encoder learning unit 123, and a brain activity prediction unit 124.

刺激特徴行列生成部121(特徴行列生成部の一例)は、刺激データから刺激特徴行列を生成する。刺激特徴行列生成部121は、刺激に対する表現を所定の特徴空間(第1の特徴空間)に投射した特徴ベクトル(第1特徴ベクトル)を生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列(第1刺激特徴行列)を生成する。刺激特徴行列生成部121は、特徴ベクトルを生成する際に、例えば、刺激の画像データに対して、深層学習モデルで算出した中間層(複数層の畳み込みニューラルネットワーク(CNN)のうちの1層)の活性化パターンを特徴ベクトルとして生成する。なお、所定の特徴空間(第1の特徴空間)としては、深層学習モデルの中間層活性化パターンの他に、例えば、時空間周波数、脳活動パターンの時間的自己相関などや、それらの組み合わせが挙げられる。また、刺激特徴行列生成部121は、エンコーダ学習処理と、脳活動予測処理とのそれぞれにおいて、刺激データから刺激特徴行列を生成する。   The stimulus feature matrix generation unit 121 (an example of a feature matrix generation unit) generates a stimulus feature matrix from stimulus data. The stimulus feature matrix generation unit 121 generates a feature vector (first feature vector) obtained by projecting an expression for a stimulus to a predetermined feature space (first feature space), and a stimulus feature matrix in which the feature vectors are collected in time series. (First stimulus feature matrix) is generated. When generating a feature vector, the stimulus feature matrix generation unit 121 generates, for example, an intermediate layer (one layer of a plurality of layers of convolutional neural networks (CNN)) calculated using a deep learning model for stimulus image data. Are activated as feature vectors. In addition to the intermediate layer activation pattern of the deep learning model, the predetermined feature space (first feature space) includes, for example, spatio-temporal frequency, temporal autocorrelation of brain activity patterns, and combinations thereof. Can be mentioned. Further, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix from the stimulus data in each of the encoder learning process and the brain activity prediction process.

刺激特徴行列生成部121は、エンコーダ学習処理において、学習データ記憶部111が記憶する学習用の刺激データから、被験者に与えた学習用の刺激に対する刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した刺激特徴行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。   In the encoder learning process, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix for the learning stimulus given to the subject from the learning stimulus data stored in the learning data storage unit 111. The stimulus feature matrix generation unit 121 stores the generated stimulus feature matrix in the learning data storage unit 111 as a part of the learning set data.

また、刺激特徴行列生成部121は、脳活動予測処理において、入力された新たに刺激データから、新たな刺激に対応する刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した新たな刺激に対応する刺激特徴行列を刺激特徴行列記憶部112に記憶させる。   In addition, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix corresponding to a new stimulus from the newly input stimulus data in the brain activity prediction process. The stimulus feature matrix generation unit 121 causes the stimulus feature matrix storage unit 112 to store a stimulus feature matrix corresponding to the generated new stimulus.

また、刺激特徴行列生成部121は、学習に自己回帰モデル(自己回帰成分を含む回帰モデル)を利用する場合には、過去の時点の脳活動ベクトルを組み込んだ刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した特徴ベクトルである刺激成分に、過去の時点(例えば、t−1、t−2、・・・、t−k)の脳活動ベクトル(R_t−1,R_t−2,・・・,R_t−k)である自己回帰成分を結合して新しい特徴ベクトル(結合特徴ベクトル)を生成し、結合特徴ベクトルを時系列にまとめて新たな刺激特徴行列を生成する。また、刺激特徴行列生成部121は、エンコーダ学習処理と、脳活動予測処理とのそれぞれにおいて、脳活動ベクトルを組み込んだ刺激特徴行列である自己回帰モデル用の刺激特徴行列を生成する。なお、自己回帰成分を含む回帰モデルの詳細については後述する。   In addition, when using an autoregressive model (regression model including an autoregressive component) for learning, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix incorporating a brain activity vector at a past time point. The stimulation feature matrix generation unit 121 applies the brain activity vectors (R_t−1, R_t) at the past time points (for example, t−1, t−2,..., T−k) to the stimulation components that are the generated feature vectors. -2,..., R_tk) are combined to generate a new feature vector (joint feature vector), and the combined feature vectors are grouped in time series to generate a new stimulus feature matrix. Further, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix for an autoregressive model, which is a stimulus feature matrix incorporating a brain activity vector, in each of the encoder learning process and the brain activity prediction process. Details of the regression model including the autoregressive component will be described later.

刺激特徴行列生成部121は、エンコーダ学習処理において、生成した学習用の刺激特徴行列と、後述する脳活動行列生成部122が生成した脳活動ベクトルとに基づいて、自己回帰モデル用の刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した自己回帰モデル用の刺激特徴行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。   The stimulus feature matrix generation unit 121 is a stimulus feature matrix for an autoregressive model based on a stimulus feature matrix for learning generated in the encoder learning process and a brain activity vector generated by a brain activity matrix generation unit 122 described later. Is generated. The stimulus feature matrix generation unit 121 stores the generated stimulus feature matrix for the autoregressive model in the learning data storage unit 111 as a part of the learning set data.

また、刺激特徴行列生成部121は、脳活動予測処理において、後述する脳活動予測部124により予測された脳活動行列に基づく過去の時点の脳活動ベクトルと、新たに刺激データから生成した刺激特徴行列に含まれる特徴ベクトルを結合して結合特徴ベクトルを生成する。そして、刺激特徴行列生成部121は、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列を新たな刺激に対する刺激特徴行列として、刺激特徴行列記憶部112に記憶させる。   In addition, in the brain activity prediction process, the stimulus feature matrix generation unit 121 generates a brain feature vector at a past time based on the brain activity matrix predicted by the brain activity prediction unit 124 described later and a stimulus feature newly generated from the stimulus data. A feature vector included in the matrix is combined to generate a combined feature vector. Then, the stimulus feature matrix generation unit 121 causes the stimulus feature matrix storage unit 112 to store the stimulus feature matrix generated by collecting the combined feature vectors in time series as a stimulus feature matrix for a new stimulus.

脳活動行列生成部122は、刺激に対する脳活動を計測した計測データから脳活動行列を生成する。脳活動行列生成部122は、学習データ記憶部111が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部122は、当該脳活動ベクトルを時系列にまとめた脳活動行列を生成する。脳活動行列生成部122は、生成した脳活動行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。   The brain activity matrix generation unit 122 generates a brain activity matrix from the measurement data obtained by measuring the brain activity with respect to the stimulus. The brain activity matrix generation unit 122 generates brain activity vectors whose elements are fMRI measurement data for the number of voxels stored in the learning data storage unit 111, and the brain activity at time (t1, t2,..., Tn). A vector (R_t1, R_t2,..., R_tn) is obtained. And the brain activity matrix production | generation part 122 produces | generates the brain activity matrix which put together the said brain activity vector in time series. The brain activity matrix generation unit 122 stores the generated brain activity matrix in the learning data storage unit 111 as part of the learning set data.

エンコーダ学習部123は、学習データ記憶部111が記憶する刺激特徴行列と脳活動行列との組データを学習データとした回帰モデルにより、上述した所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習して、学習結果であるエンコーダ学習結果(エンコードモデル)を生成する。エンコーダ学習部123は、例えば、上述した特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰成分を含まない回帰モデルによりエンコーダを学習し、エンコーダ学習結果(自己回帰成分を含まないエンコードモデル)を生成する。エンコーダ学習部123は、例えば、上述した結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰モデル(自己回帰成分を含む回帰モデル)によりエンコーダを学習し、エンコーダ学習結果(自己回帰成分を含むエンコードモデル)を生成する。エンコーダ学習部123は、生成したエンコーダ学習結果をエンコーダ学習結果記憶部113に記憶させる。   The encoder learning unit 123 performs brain activity from the predetermined feature space (first feature space) described above using a regression model in which the combination data of the stimulus feature matrix and the brain activity matrix stored in the learning data storage unit 111 is learned data. The projection relation to is learned, and an encoder learning result (encoding model) as a learning result is generated. For example, the encoder learning unit 123 learns the encoder by using a regression model that does not include an autoregressive component, using, as learning data, a combination of a stimulus feature matrix generated by collecting the above-described feature vectors in time series and a brain activity matrix. Then, an encoder learning result (an encoding model not including an autoregressive component) is generated. For example, the encoder learning unit 123 uses, as learning data, a combination of a stimulus feature matrix generated by collecting the above-described combined feature vectors in time series and a brain activity matrix as an autoregressive model (a regression model including an autoregressive component). To learn the encoder and generate an encoder learning result (an encoding model including an autoregressive component). The encoder learning unit 123 causes the encoder learning result storage unit 113 to store the generated encoder learning result.

ここで、本実施形態における回帰モデルでは、上述した特徴ベクトル(第1特徴ベクトル)を刺激成分として、当該特徴ベクトルに基づいて、所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習する学習モデルである。本実施形態における回帰モデルには、自己回帰成分を含まない学習データにより学習する「自己回帰成分を含まない回帰モデル」と、自己回帰成分を含む学習データにより学習する「自己回帰成分を含む回帰モデル」とが含まれる。   Here, in the regression model in the present embodiment, the above-described feature vector (first feature vector) is used as a stimulus component, and projection from a predetermined feature space (first feature space) to brain activity is performed based on the feature vector. It is a learning model that learns relationships. The regression model in this embodiment includes a “regression model that does not include an autoregressive component” that is learned using learning data that does not include an autoregressive component, and a “regression model that includes an autoregressive component” that is learned using learning data that includes an autoregressive component. Is included.

脳活動予測部124は、エンコーダを用いて、新たな刺激に対する脳活動を予測する。すなわち、脳活動予測部124は、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。
なお、本実施形態では、自己回帰モデルを利用するため、脳活動予測部124は、刺激特徴行列生成部121に対して、一旦生成した脳活動行列に基づく過去の時点の脳活動ベクトルと、刺激特徴行列に含まれる特徴ベクトルを結合した刺激特徴行列を生成させる。脳活動予測部124は、自己回帰モデルにより学習されたエンコーダ学習結果に基づいて、この更新された刺激特徴行列から、新たな刺激に対する脳活動行列を再度予測する。
The brain activity prediction unit 124 predicts brain activity for a new stimulus using an encoder. That is, the brain activity prediction unit 124, based on the encoder learning result stored in the encoder learning result storage unit 113, the brain for a new stimulus from the stimulus feature matrix generated by the stimulus feature matrix generation unit 121 for a new stimulus. Predict activity matrix.
In the present embodiment, since the autoregressive model is used, the brain activity prediction unit 124 instructs the stimulation feature matrix generation unit 121 to generate a brain activity vector at a past time point based on the once generated brain activity matrix, and a stimulus. A stimulus feature matrix is generated by combining feature vectors included in the feature matrix. Based on the encoder learning result learned by the autoregressive model, the brain activity predicting unit 124 again predicts a brain activity matrix for a new stimulus from the updated stimulus feature matrix.

脳活動予測部124は、予測した脳活動行列を、予測結果として、予測脳活動記憶部114に記憶させる。
なお、脳活動行列は、ボクセル数分の要素を持つ脳活動ベクトルを時系列にまとめたものであり、各要素が、各ボクセルのfMRI信号(脳活動信号)の値に対応する。
The brain activity prediction unit 124 causes the predicted brain activity storage unit 114 to store the predicted brain activity matrix as a prediction result.
The brain activity matrix is a time series of brain activity vectors having elements for the number of voxels, and each element corresponds to the value of the fMRI signal (brain activity signal) of each voxel.

知覚認知内容推定装置20は、被験者に与えた刺激(例えば、動画(映像)、画像、音など)に対する被験者の知覚及び認知内容を推定する。知覚認知内容推定装置20は、被験者に与えた刺激に対する脳活動の計測データの代わりに、脳活動予測装置10から刺激に対する脳活動行列を取得し、予め機械学習したデコーダを用いて、当該脳活動行列から知覚及び認知内容を推定する。また、知覚認知内容推定装置20は、記憶部21と、制御部22とを備えている。   The perceptual recognition content estimation device 20 estimates the subject's perception and recognition content for stimuli (for example, moving images (videos), images, sounds, etc.) given to the subject. The perceptual recognition content estimation device 20 acquires a brain activity matrix for a stimulus from the brain activity prediction device 10 instead of the brain activity measurement data for the stimulus given to the subject, and uses the machine-learned decoder in advance to obtain the brain activity. Estimate perceptual and cognitive content from a matrix. In addition, the perceptual recognition content estimation device 20 includes a storage unit 21 and a control unit 22.

記憶部21は、知覚認知内容推定装置20が実行する処理に利用される各種情報を記憶する。記憶部21は、学習データ記憶部211と、ラベル特徴ベクトル記憶部212と、デコーダ学習結果記憶部213と、推定結果記憶部214とを備えている。   The storage unit 21 stores various types of information used for processing executed by the perceptual recognition content estimation device 20. The storage unit 21 includes a learning data storage unit 211, a label feature vector storage unit 212, a decoder learning result storage unit 213, and an estimation result storage unit 214.

学習データ記憶部211は、デコーダを機械学習するための学習データを記憶する。学習データ記憶部211は、例えば、刺激データに対する知覚の意味内容を示すラベル情報と、脳活動の計測データとの組データ、及び、当該組データを変換したベクトルデータの組データ、及び行列データの組データを記憶する。ここで、刺激データ及び脳活動の計測データは、上述したエンコーダを学習した際に用いたデータと同一のものを用いるものとする。また、ラベル情報は、例えば、画像データに対する印象を推定したい場合には、動画刺激を所定の時間間隔で画像分割し、各画像データを説明する説明文章を言語記述(アノテーション)でラベリングした情報である。ラベル情報は、例えば、「可愛い」、「優しい」、「面白い」などの単語であってもよいし、画像データの特徴を表現する文章であってもよいし、印象の数値評定であってもよいし、画像が誘起する行動の指標でもよい。   The learning data storage unit 211 stores learning data for machine learning of the decoder. The learning data storage unit 211 includes, for example, set data of label information indicating the meaning content of perception of stimulus data and measurement data of brain activity, set data of vector data obtained by converting the set data, and matrix data Store the tuple data. Here, the stimulus data and the brain activity measurement data are the same as the data used when learning the encoder described above. The label information is information obtained by, for example, dividing an image of a moving image stimulus at a predetermined time interval and labeling an explanatory sentence for explaining each image data with a language description (annotation) in order to estimate an impression of the image data. is there. The label information may be, for example, words such as “cute”, “friendly”, “interesting”, a sentence expressing the characteristics of image data, or a numerical rating of an impression. It may be an index of behavior induced by an image.

また、学習データ記憶部211は、上述した学習用の刺激データに対するラベル情報を変換したラベル刺激特徴行列(第2刺激特徴行列)と、脳活動の計測データを変換した脳活動行列との組データを、ベクトルデータの組データ、及び行列データの組データとして記憶する。なお、ラベル刺激特徴行列、及び脳活動行列の詳細については後述する。   Further, the learning data storage unit 211 is a combination data of a label stimulus feature matrix (second stimulus feature matrix) obtained by converting label information for the learning stimulus data described above and a brain activity matrix obtained by converting brain activity measurement data. Are stored as set data of vector data and set data of matrix data. Details of the label stimulus feature matrix and the brain activity matrix will be described later.

ラベル特徴ベクトル記憶部212は、知覚及び認知内容を推定する際に比較する、ラベル情報の特徴を抽出し、所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトル(第2特徴ベクトル)を予め記憶する。ラベル特徴ベクトル記憶部212は、ラベル情報(例えば、単語など)と、当該ラベル情報に対応するラベル特徴ベクトルとを対応付けて記憶する。また、ラベル特徴ベクトル記憶部212は、デコーダの学習などで使用した際のラベル情報及びラベル特徴ベクトルを含む複数のラベル特徴ベクトルを記憶しているものとする。   The label feature vector storage unit 212 extracts the feature of the label information to be compared when estimating the perceptual and cognitive contents, and projects the label feature vector (second feature vector) projected onto a predetermined feature space (second feature space). ) In advance. The label feature vector storage unit 212 stores label information (for example, a word) and a label feature vector corresponding to the label information in association with each other. Also, the label feature vector storage unit 212 stores a plurality of label feature vectors including label information and label feature vectors when used for learning of the decoder.

デコーダ学習結果記憶部213は、デコーダを機械学習した学習結果(デコーダ学習結果)を記憶する。
推定結果記憶部214は、脳活動(脳活動行列)から推定したラベル情報、及びラベル情報に関する情報を推定結果として記憶する。
The decoder learning result storage unit 213 stores a learning result (decoder learning result) obtained by machine learning of the decoder.
The estimation result storage unit 214 stores label information estimated from brain activity (brain activity matrix) and information related to label information as an estimation result.

制御部22は、例えば、CPUなどを含むプロセッサであり、知覚認知内容推定装置20を統括的に制御する。制御部22は、例えば、デコーダを機械学習するデコーダ学習処理と、学習したデコーダを用いて、知覚及び認知内容の推定、及び行動の予測などを行う知覚認知内容推定処理とを実行する。また、制御部22は、ラベル刺激特徴行列生成部221と、脳活動行列生成部222と、デコーダ学習部223と、刺激特徴予測部224と知覚認知内容推定部225とを備えている。   The control unit 22 is a processor including a CPU, for example, and comprehensively controls the perceptual recognition content estimation apparatus 20. The control unit 22 executes, for example, a decoder learning process for machine learning of the decoder and a perceptual and cognitive content estimation process for performing perception and cognitive content estimation, behavior prediction, and the like using the learned decoder. The control unit 22 includes a label stimulus feature matrix generation unit 221, a brain activity matrix generation unit 222, a decoder learning unit 223, a stimulus feature prediction unit 224, and a perceptual recognition content estimation unit 225.

ラベル刺激特徴行列生成部221は、上述したラベル情報からラベル刺激特徴行列を生成する。ラベル刺激特徴行列生成部221は、ラベルを所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列(第2刺激特徴行列)を生成する。ラベル刺激特徴行列生成部221は、例えば、ラベル情報が、言語記述(アノテーション)の文章である場合には、文章を形態素解析で単語に分解した上で、各単語をWikipedia(登録商標)などのコーパスで作られたSkip−gram等の空間に投射し、結果得られた単語のベクトルを加重平均することで、文章ラベルのラベル特徴ベクトルを算出する。   The label stimulus feature matrix generation unit 221 generates a label stimulus feature matrix from the label information described above. The label stimulus feature matrix generation unit 221 generates a label feature vector (second feature vector) obtained by projecting a label onto a predetermined feature space (second feature space), and collects the label feature vectors in time series for learning. A label stimulus feature matrix (second stimulus feature matrix) is generated for each stimulus. For example, when the label information is a language description (annotation) sentence, the label stimulus feature matrix generation unit 221 decomposes the sentence into words by morphological analysis, and then converts each word to Wikipedia (registered trademark) or the like. A label feature vector of a sentence label is calculated by projecting onto a space such as a Skip-gram created by a corpus and performing a weighted average of the word vectors obtained as a result.

ラベル刺激特徴行列生成部221は、学習データ記憶部211が記憶する学習用のラベル情報から、学習用の刺激に対するラベル刺激特徴行列を生成し、生成したラベル刺激特徴行列を学習用の組データの一部として、学習データ記憶部211に記憶させる。
なお、ここでの所定の特徴空間(第2の特徴空間)は、上述したエンコーダに用いた所定の特徴空間(第1の特徴空間)と同一である必要はなく、それぞれの特徴ベクトルに合った特徴空間を用いることが望ましい。
The label stimulus feature matrix generation unit 221 generates a label stimulus feature matrix for the stimulus for learning from the learning label information stored in the learning data storage unit 211, and uses the generated label stimulus feature matrix for the learning set data. As a part, it is stored in the learning data storage unit 211.
Note that the predetermined feature space (second feature space) here does not have to be the same as the predetermined feature space (first feature space) used for the encoder described above, and is suitable for each feature vector. It is desirable to use a feature space.

脳活動行列生成部222は、刺激に対する脳活動を計測した計測データから脳活動行列を生成する。脳活動行列生成部222は、学習データ記憶部211が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部222は、当該脳活動ベクトルを時系列にまとめた脳活動行列を生成する。脳活動行列生成部222は、生成した脳活動行列を学習用の組データの一部として、学習データ記憶部211に記憶させる。   The brain activity matrix generation unit 222 generates a brain activity matrix from measurement data obtained by measuring brain activity in response to a stimulus. The brain activity matrix generation unit 222 generates brain activity vectors whose elements are fMRI measurement data for the number of voxels stored in the learning data storage unit 211, and the brain activity at time (t1, t2,..., Tn). A vector (R_t1, R_t2,..., R_tn) is obtained. Then, the brain activity matrix generation unit 222 generates a brain activity matrix in which the brain activity vectors are grouped in time series. The brain activity matrix generation unit 222 stores the generated brain activity matrix in the learning data storage unit 211 as a part of the learning set data.

デコーダ学習部223は、学習データ記憶部211が記憶するラベル特徴ベクトル又はラベル刺激特徴行列と脳活動行列との組データを学習データとして、上述した脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習して、学習結果であるデコーダ学習結果(デコードモデル)を生成する。なお、デコーダ学習部223は、自己回帰モデルによりデコーダを学習し、デコーダ学習結果(デコードモデル)を生成するようにしてもよい。デコーダ学習部223は、生成したデコーダ学習結果をデコーダ学習結果記憶部213に記憶させる。   The decoder learning unit 223 uses, as learning data, the combination of the label feature vector or the label stimulus feature matrix and the brain activity matrix stored in the learning data storage unit 211 from the above-described brain activity as a predetermined feature space (second feature space). ) Is learned, and a decoder learning result (decode model) as a learning result is generated. Note that the decoder learning unit 223 may learn a decoder using an autoregressive model and generate a decoder learning result (decode model). The decoder learning unit 223 causes the decoder learning result storage unit 213 to store the generated decoder learning result.

刺激特徴予測部224は、デコーダを用いて、新たな刺激に対するラベル刺激特徴行列又はラベル特徴ベクトルを予測する。刺激特徴予測部224は、例えば、デコーダ学習結果記憶部213が記憶するデコーダ学習結果に基づいて、新たな刺激に対して脳活動予測装置10によって生成された脳活動行列から新たな刺激に対するラベル刺激特徴行列又はラベル特徴ベクトルを予測する。すなわち、刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して生成された脳活動行列とに基づいて、新たな刺激に対するラベル特徴ベクトル又はラベル刺激特徴行列を予測する。   The stimulus feature prediction unit 224 uses a decoder to predict a label stimulus feature matrix or a label feature vector for a new stimulus. The stimulus feature prediction unit 224, for example, based on the decoder learning result stored in the decoder learning result storage unit 213, the label stimulus for the new stimulus from the brain activity matrix generated by the brain activity prediction device 10 for the new stimulus. Predict feature matrix or label feature vector. That is, the stimulus feature prediction unit 224 uses the decoder learning result and the brain activity matrix generated for the new stimulus by the brain activity prediction apparatus 10 to generate a label feature vector or label stimulus feature matrix for the new stimulus. Predict.

知覚認知内容推定部225は、刺激特徴予測部224が予測した予測刺激特徴行列に含まれる時系列の特徴ベクトル又は刺激特徴予測部224が予測したラベル特徴ベクトルと、所定の特徴空間(第2の特徴空間)に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する。すなわち、知覚認知内容推定部225は、ラベル特徴ベクトル記憶部212が記憶する複数のラベル特徴ベクトルのうちから、予測した予測刺激特徴行列(ラベル刺激特徴行列)に含まれる特徴ベクトルと距離が近いラベル特徴ベクトルを抽出し、当該ラベル特徴ベクトルに対応するラベル情報を知覚又は認知内容として推定する。なお、上述した刺激特徴予測部224がラベル特徴ベクトルを予測する場合には、知覚認知内容推定部225は、予測した特徴ベクトルと距離が近いラベル特徴ベクトルを抽出し、当該ラベル特徴ベクトルに対応するラベル情報を知覚又は認知内容として推定する。知覚認知内容推定部225は、推定したラベル情報、及びラベル情報に関する情報を推定結果として推定結果記憶部214に記憶させる。ここで、ラベル情報に関する情報には、例えば、ラベル情報に関係して推定される被験者の予測行動などが含まれる。   The perceptual recognition content estimation unit 225 includes a time series feature vector included in the predicted stimulus feature matrix predicted by the stimulus feature prediction unit 224 or a label feature vector predicted by the stimulus feature prediction unit 224 and a predetermined feature space (second Based on the distance from the label feature vector corresponding to the label projected in the feature space, at least one of perceptual and cognitive contents is estimated. That is, the perceptual recognition content estimation unit 225 is a label whose distance is close to the feature vector included in the predicted predicted stimulus feature matrix (label stimulus feature matrix) among the plurality of label feature vectors stored in the label feature vector storage unit 212. A feature vector is extracted, and label information corresponding to the label feature vector is estimated as perceived or recognized content. When the stimulus feature prediction unit 224 described above predicts a label feature vector, the perceptual recognition content estimation unit 225 extracts a label feature vector that is close in distance to the predicted feature vector, and corresponds to the label feature vector. Label information is estimated as perceptual or cognitive content. The perceptual recognition content estimation unit 225 stores the estimated label information and information about the label information in the estimation result storage unit 214 as an estimation result. Here, the information relating to the label information includes, for example, the predicted behavior of the subject estimated in relation to the label information.

なお、制御部22は、推定結果記憶部214が記憶する推定結果を、新たな刺激に対する知覚及び認知内容として、知覚認知内容推定装置20の外部に出力する。   The control unit 22 outputs the estimation result stored in the estimation result storage unit 214 to the outside of the perceptual recognition content estimation device 20 as perception and recognition content for a new stimulus.

次に、図面を参照して、本実施形態による知覚認知内容推定システム1の動作について説明する。
図2は、本実施形態におけるエンコーダの学習処理を説明する図である。
Next, the operation of the perceptual recognition content estimation system 1 according to the present embodiment will be described with reference to the drawings.
FIG. 2 is a diagram for explaining the learning process of the encoder in the present embodiment.

図2示すように、脳活動予測装置10は、機械学習により、動画、画像、及び音声などの刺激データから脳活動を予測するエンコーダを生成する。エンコーダ学習処理において、刺激データは、所定の特徴空間(第1の特徴空間)に投射されて、刺激特徴行列に変換される。また、一方で、fMRIなどを使用して、動画、画像、及び音声などの刺激を、被験者に与えた際の脳活動データを取得する。エンコーダは、所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習して、刺激特徴行列から脳活動データを予測する。   As shown in FIG. 2, the brain activity prediction apparatus 10 generates an encoder that predicts brain activity from stimulus data such as moving images, images, and sounds by machine learning. In the encoder learning process, the stimulus data is projected onto a predetermined feature space (first feature space) and converted into a stimulus feature matrix. On the other hand, brain activity data is acquired when stimuli such as moving images, images, and sounds are given to the subject using fMRI or the like. The encoder learns the projection relationship from the predetermined feature space (first feature space) to the brain activity, and predicts the brain activity data from the stimulus feature matrix.

次に、図3を参照して、本実施形態によるエンコーダ学習処理の詳細について説明する。
図3は、本実施形態におけるエンコーダの学習処理の一例を示すフローチャートである。
Next, the details of the encoder learning process according to the present embodiment will be described with reference to FIG.
FIG. 3 is a flowchart illustrating an example of an encoder learning process according to the present embodiment.

図3に示すように、まず、fMRIなどの計測装置が、学習用の刺激に対する脳活動を計測する(ステップS101)。例えば、fMRIは、ボクセルごとに所定の時間間隔(例えば、2秒間隔)で、学習用の刺激に対する脳活動を計測する。   As shown in FIG. 3, first, a measurement device such as fMRI measures brain activity with respect to a learning stimulus (step S101). For example, fMRI measures brain activity for stimuli for learning at a predetermined time interval (for example, every 2 seconds) for each voxel.

次に、脳活動予測装置10の制御部12は、学習用の刺激データと、脳活動の計測結果とを取得する(ステップS102)。制御部12は、学習用の刺激データと、fMRIが計測した計測結果である計測データとの組データを取得し、当該組データを学習データ記憶部111に記憶させる。   Next, the control unit 12 of the brain activity prediction apparatus 10 acquires stimulation data for learning and a measurement result of brain activity (step S102). The control unit 12 acquires set data of learning stimulus data and measurement data that is a measurement result measured by fMRI, and stores the set data in the learning data storage unit 111.

次に、制御部12の刺激特徴行列生成部121は、学習用の刺激データから刺激特徴行列Seを生成する(ステップS103)。刺激特徴行列生成部121は、学習データ記憶部111が記憶する学習用の刺激データから所定の特徴空間(第1の特徴空間)に投射した時系列の特徴ベクトル(Se_t1,Se_t2,・・・,Se_tn)を生成する。そして、刺激特徴行列生成部121は、当該特徴ベクトルを時系列にまとめた刺激特徴行列Seを生成する。刺激特徴行列生成部121は、生成した刺激特徴行列Seを学習用の組データの一部として、学習データ記憶部111に記憶させる。   Next, the stimulus feature matrix generation unit 121 of the control unit 12 generates a stimulus feature matrix Se from the stimulus data for learning (step S103). The stimulus feature matrix generation unit 121 projects time series feature vectors (Se_t1, Se_t2,...) Projected from a stimulus data for learning stored in the learning data storage unit 111 to a predetermined feature space (first feature space). Se_tn) is generated. Then, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix Se in which the feature vectors are collected in time series. The stimulus feature matrix generation unit 121 stores the generated stimulus feature matrix Se in the learning data storage unit 111 as part of the learning set data.

また、制御部12の脳活動行列生成部122は、脳活動の計測結果から脳活動行列Rを生成する(ステップS104)。脳活動行列生成部122は、学習データ記憶部111が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部122は、当該特徴ベクトルを時系列にまとめた脳活動行列Rを生成する。脳活動行列生成部122は、生成した脳活動行列Rを学習用の組データの一部として、学習データ記憶部111に記憶させる。   Further, the brain activity matrix generation unit 122 of the control unit 12 generates a brain activity matrix R from the measurement result of the brain activity (step S104). The brain activity matrix generation unit 122 generates brain activity vectors whose elements are fMRI measurement data for the number of voxels stored in the learning data storage unit 111, and the brain activity at time (t1, t2,..., Tn). A vector (R_t1, R_t2,..., R_tn) is obtained. Then, the brain activity matrix generation unit 122 generates a brain activity matrix R in which the feature vectors are collected in time series. The brain activity matrix generation unit 122 stores the generated brain activity matrix R in the learning data storage unit 111 as a part of the learning set data.

なお、ステップS103の処理と、ステップS104の処理とは、逆の順番で実行されてもよいし、並列に実行されてもよい。   In addition, the process of step S103 and the process of step S104 may be performed in the reverse order, and may be performed in parallel.

次に、制御部12のエンコーダ学習部123は、脳活動行列Rと刺激特徴行列Seとにより特徴空間から脳活動への投射関係を学習する(ステップS105)。ここで、例えば、任意の関数fe()で表現される刺激特徴行列Seと脳活動行列Rとの関係は、以下の式(1)により表される。   Next, the encoder learning unit 123 of the control unit 12 learns the projection relationship from the feature space to the brain activity using the brain activity matrix R and the stimulus feature matrix Se (step S105). Here, for example, the relationship between the stimulus feature matrix Se expressed by an arbitrary function fe () and the brain activity matrix R is expressed by the following equation (1).

R=fe(Se,θe) ・・・ (1)   R = fe (Se, θe) (1)

ここで、θeは、エンコーダパラメータを示す。
エンコーダ学習部123は、上記の式(1)を満たすエンコーダパラメータθeを回帰分析(例えば、リッジ回帰)により推定し、当該エンコーダパラメータθeを、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
なお、関数fe()が、線形関数である場合には、以下の式(2)により表される。
Here, θe indicates an encoder parameter.
The encoder learning unit 123 estimates the encoder parameter θe satisfying the above equation (1) by regression analysis (for example, ridge regression), and the encoder parameter θe is obtained as an encoder learning result based on a regression model that does not include an autoregressive component. The data is stored in the encoder learning result storage unit 113.
In addition, when the function fe () is a linear function, it is represented by the following equation (2).

R=Se×We ・・・ (2)   R = Se × We (2)

ここで、Weは、重み付けを示す係数行列である。
この場合、エンコーダ学習部123は、上記の式(2)を満たす係数行列Weを推定し、当該係数行列Weを、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
Here, We is a coefficient matrix indicating weighting.
In this case, the encoder learning unit 123 estimates the coefficient matrix We satisfying the above equation (2), and uses the coefficient matrix We as an encoder learning result based on a regression model that does not include an autoregressive component. Remember me.

次に、刺激特徴行列生成部121は、脳活動の過去の時系列を特徴ベクトルに連結して、刺激特徴行列Se2を生成する(ステップS106)。刺激特徴行列生成部121は、刺激特徴行列Seに含まれる時系列の特徴ベクトル(Se_t1,Se_t2,・・・,Se_tn)と、過去の時系列(例えば、t−1、t−2、・・・、t−k)の脳活動ベクトル(R_t−1,R_t−2,・・・,R_t−k)を結合して新しい特徴ベクトルSe2_t(結合特徴ベクトル)を生成する。刺激特徴行列生成部121は、結合特徴ベクトルSe2_tを時系列にまとめて新たな刺激特徴行列Se2を生成する。すなわち、刺激特徴行列生成部121は、脳活動ベクトルを組み込んだ自己回帰モデル用の刺激特徴行列Se2を生成する。刺激特徴行列生成部121は、生成した自己回帰モデル用の刺激特徴行列Se2を学習用の組データの一部として、学習データ記憶部111に記憶させる。   Next, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix Se2 by connecting the past time series of brain activity to the feature vector (step S106). The stimulus feature matrix generation unit 121 includes time series feature vectors (Se_t1, Se_t2,..., Se_tn) included in the stimulus feature matrix Se and past time series (for example, t-1, t-2,... .., T-k) brain activity vectors (R_t-1, R_t-2,..., R_t-k) are combined to generate a new feature vector Se2_t (joint feature vector). The stimulus feature matrix generation unit 121 collects the combined feature vectors Se2_t in time series and generates a new stimulus feature matrix Se2. That is, the stimulus feature matrix generation unit 121 generates a stimulus feature matrix Se2 for an autoregressive model incorporating a brain activity vector. The stimulus feature matrix generation unit 121 stores the generated stimulus feature matrix Se2 for the autoregressive model in the learning data storage unit 111 as part of the learning set data.

なお、刺激特徴行列生成部121は、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を結合する際に、全ボクセルの計測信号に対して所定の次元圧縮手法(例えば、主成分分析による圧縮手法)を適用して、次元圧縮した計測信号を用いて過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する。ここで、主成分分析による処理は、例えば、全脳の数万ボクセル(ボクセル数=N)で観測される計測信号を、N次元の表現とみなし、そのN次元の空間において時間方向の信号のばらつきを上手く説明するM次元(M<N、例えば、M=1000)の低次元空間(主成分空間)の推定を行っている。刺激特徴行列生成部121は、各時刻の全脳ボクセルの計測信号を、M次元空間での表現に変換した上で、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する。
この主成分分析により次元圧縮することにより、後述するエンコーダパラメータを計算する際のリソース不足を解消することができ、また、学習データ量の不足により精度の低いエンコーダが構築されることを防止している。
Note that the stimulus feature matrix generation unit 121 combines a past time-series brain activity vector (autoregressive vector) with a predetermined dimension compression method (for example, compression by principal component analysis) on the measurement signals of all voxels. Method) to generate past time-series brain activity vectors (autoregressive vectors) using dimensionally compressed measurement signals. Here, in the processing by principal component analysis, for example, a measurement signal observed in tens of thousands of voxels (the number of voxels = N) in the whole brain is regarded as an N-dimensional expression, and a signal in a time direction is displayed in the N-dimensional space. An M-dimensional (M <N, for example, M = 1000) low-dimensional space (principal component space) that explains the variation well is estimated. The stimulus feature matrix generation unit 121 converts a measurement signal of the whole brain voxel at each time into an expression in an M-dimensional space, and then generates a past time-series brain activity vector (autoregressive vector).
By performing dimension compression by this principal component analysis, it is possible to eliminate the shortage of resources when calculating encoder parameters, which will be described later, and to prevent the construction of a low-precision encoder due to the lack of learning data amount. Yes.

次に、制御部12のエンコーダ学習部123は、脳活動行列Rと刺激特徴行列Se2とにより特徴空間から脳活動への投射関係を学習する(ステップS107)。ここで、例えば、任意の関数fe()で表現される刺激特徴行列Se2と脳活動行列Rとの関係は、以下の式(1)により表される。   Next, the encoder learning unit 123 of the control unit 12 learns the projection relationship from the feature space to the brain activity using the brain activity matrix R and the stimulus feature matrix Se2 (step S107). Here, for example, the relationship between the stimulus feature matrix Se2 expressed by an arbitrary function fe () and the brain activity matrix R is expressed by the following equation (1).

R=fe(Se2,θe2) ・・・ (3)   R = fe (Se2, θe2) (3)

ここで、θe2は、エンコーダパラメータを示す。
エンコーダ学習部123は、上記の式(3)を満たすエンコーダパラメータθeを回帰分析(例えば、リッジ回帰)により推定し、当該エンコーダパラメータθe2を、自己回帰成分を含む回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
なお、関数fe()が、線形関数である場合には、以下の式(4)により表される。
Here, θe2 represents an encoder parameter.
The encoder learning unit 123 estimates the encoder parameter θe satisfying the above equation (3) by regression analysis (for example, ridge regression), and uses the encoder parameter θe2 as an encoder learning result by a regression model including an autoregressive component as an encoder learning result. It is stored in the learning result storage unit 113.
In addition, when the function fe () is a linear function, it is represented by the following formula (4).

R=Se2×We2 ・・・ (4)   R = Se2 × We2 (4)

ここで、We2は、重み付けを示す係数行列である。
この場合、エンコーダ学習部123は、上記の式(4)を満たす係数行列We2を推定し、当該係数行列We2を、自己回帰成分を含む回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
ステップS107の処理後に、エンコーダ学習部123は、エンコーダ学習処理を終了する。
Here, We2 is a coefficient matrix indicating weighting.
In this case, the encoder learning unit 123 estimates the coefficient matrix We2 that satisfies the above equation (4), and stores the coefficient matrix We2 in the encoder learning result storage unit 113 as an encoder learning result based on a regression model including an autoregressive component. Remember.
After the process of step S107, the encoder learning unit 123 ends the encoder learning process.

なお、本実施形態において、エンコーダは、ボクセルに応じて変更してもよく、その場合、上述したエンコーダ学習処理をボクセルに応じて、複数回行ってもよい。   In the present embodiment, the encoder may be changed according to the voxel, and in that case, the encoder learning process described above may be performed a plurality of times according to the voxel.

次に、図4は、本実施形態におけるデコーダの学習処理を説明する図である。
図4示すように、知覚認知内容推定装置20は、動画、画像、及び音声などの刺激データと脳活動の計測データとの組データについて、それらの対応関係の中間表現となる所定の特徴空間(第2の特徴空間)を定義し、機械学習により、脳活動から特徴空間への投射関係を組データから学習する。デコーダは、脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習して、脳活動行列からラベル刺激特徴行列を予測する。
Next, FIG. 4 is a diagram for explaining the learning process of the decoder in the present embodiment.
As shown in FIG. 4, the perceptual recognition content estimation device 20 has a predetermined feature space (intermediate representation of a correspondence relationship between set data of stimulus data such as moving images, images, and sounds and brain activity measurement data). A second feature space) is defined, and the projection relation from the brain activity to the feature space is learned from the set data by machine learning. The decoder learns the projection relationship from the brain activity to a predetermined feature space (second feature space), and predicts the label stimulus feature matrix from the brain activity matrix.

次に、図5を参照して、本実施形態によるデコーダ学習処理の詳細について説明する。
図5は、本実施形態におけるデコーダの学習処理の一例を示すフローチャートである。
Next, the details of the decoder learning process according to the present embodiment will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of the learning process of the decoder in the present embodiment.

図5に示すように、まず、fMRIなどの計測装置が、学習用の刺激に対する脳活動を計測する(ステップS201)。例えば、fMRIは、ボクセルごとに所定の時間間隔(例えば、2秒間隔)で、学習用の刺激に対する脳活動を計測する。   As shown in FIG. 5, first, a measurement device such as fMRI measures brain activity with respect to a learning stimulus (step S201). For example, fMRI measures brain activity for stimuli for learning at a predetermined time interval (for example, every 2 seconds) for each voxel.

学習用の刺激データに対してラベルを付与する(ステップS202)。すなわち、学習用の刺激データに対して推定対象としたい種類の任意のラベル情報を付与する。例えば、画像に対する印象を推定したい場合は、動画による刺激を所定の時間間隔で画像分割し、各画像を説明する説明文章を言語記述(アノテーション)でラベリングする。なお、既にラベル情報が付与されている刺激データを使用する場合は、本処理を省略してもよい。   A label is assigned to the stimulus data for learning (step S202). That is, arbitrary label information of a kind desired to be estimated is given to the stimulus data for learning. For example, when it is desired to estimate an impression on an image, a stimulus by a moving image is divided into images at a predetermined time interval, and explanatory text explaining each image is labeled with a language description (annotation). Note that this processing may be omitted when using stimulus data to which label information has already been assigned.

次に、知覚認知内容推定装置20の制御部22は、学習用の刺激データのラベル情報と、脳活動の計測結果とを取得する(ステップS203)。制御部22は、学習用の刺激データのラベル情報と、fMRIが計測した計測結果である計測データとの組データを取得し、当該組データを学習データ記憶部211に記憶させる。   Next, the control unit 22 of the perceptual recognition content estimation apparatus 20 acquires label information of learning stimulus data and a measurement result of brain activity (step S203). The control unit 22 acquires the set data of the label information of the stimulus data for learning and the measurement data that is the measurement result measured by the fMRI, and stores the set data in the learning data storage unit 211.

次に、制御部22のラベル刺激特徴行列生成部221は、ラベルを特徴空間に投射して
ラベル刺激特徴行列Sdを生成する(ステップS204)。ラベル刺激特徴行列生成部221は、学習データ記憶部211が記憶する学習用のラベル情報を所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトルを生成し、当該ラベル特徴ベクトル(Sd_t1,Sd_t2,・・・,Sd_tn)を時系列にまとめた学習用の刺激に対するラベル刺激特徴行列Sdを生成する。なお、ラベル刺激特徴行列生成部221は、例えば、ラベル情報が、言語記述(アノテーション)の文章である場合には、文章を形態素解析で単語に分解した上で、各単語をWikipedia(登録商標)などのコーパスで作られたSkip−gram等の空間に投射し、結果得られた単語のベクトルを加重平均することで、文章ラベルのラベル特徴ベクトルを算出する。ラベル刺激特徴行列生成部221は、生成したラベル刺激特徴行列Sdを学習用の組データの一部として、学習データ記憶部211に記憶させる。
Next, the label stimulus feature matrix generation unit 221 of the control unit 22 projects a label onto the feature space to generate a label stimulus feature matrix Sd (step S204). The label stimulus feature matrix generation unit 221 generates a label feature vector obtained by projecting the learning label information stored in the learning data storage unit 211 onto a predetermined feature space (second feature space), and the label feature vector (Sd_t1) , Sd_t2,..., Sd_tn) are generated in a time series to generate a label stimulus feature matrix Sd for learning stimuli. For example, when the label information is a language description (annotation) sentence, the label stimulus feature matrix generation unit 221 decomposes the sentence into words by morphological analysis and then converts each word to Wikipedia (registered trademark). A label feature vector of a sentence label is calculated by projecting it on a space such as Skip-gram created by a corpus such as the above and weighted averaging the resulting word vectors. The label stimulus feature matrix generation unit 221 stores the generated label stimulus feature matrix Sd in the learning data storage unit 211 as part of the learning set data.

また、制御部22の脳活動行列生成部222は、脳活動の計測結果から脳活動行列Rを生成する(ステップS205)。脳活動行列生成部222は、学習データ記憶部211が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部222は、当該特徴ベクトルを時系列にまとめた脳活動行列Rを生成する。脳活動行列生成部222は、生成した脳活動行列Rを学習用の組データの一部として、学習データ記憶部211に記憶させる。   Further, the brain activity matrix generation unit 222 of the control unit 22 generates a brain activity matrix R from the measurement result of the brain activity (step S205). The brain activity matrix generation unit 222 generates brain activity vectors whose elements are fMRI measurement data for the number of voxels stored in the learning data storage unit 211, and the brain activity at time (t1, t2,..., Tn). A vector (R_t1, R_t2,..., R_tn) is obtained. Then, the brain activity matrix generation unit 222 generates a brain activity matrix R in which the feature vectors are grouped in time series. The brain activity matrix generation unit 222 stores the generated brain activity matrix R in the learning data storage unit 211 as part of the learning set data.

なお、ステップS204の処理と、ステップS205の処理とは、逆の順番で実行されてもよいし、並列に実行されてもよい。   In addition, the process of step S204 and the process of step S205 may be performed in the reverse order, and may be performed in parallel.

次に、制御部22のデコーダ学習部223は、脳活動行列Rとラベル刺激特徴行列Sdとにより脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習する(ステップS206)。ここで、例えば、任意の関数fd()で表現されるラベル刺激特徴行列Sdと脳活動行列Rとの関係は、以下の式(5)により表される。   Next, the decoder learning unit 223 of the control unit 22 learns the projection relationship from the brain activity to the predetermined feature space (second feature space) by using the brain activity matrix R and the label stimulus feature matrix Sd (step S206). . Here, for example, the relationship between the label stimulus feature matrix Sd expressed by an arbitrary function fd () and the brain activity matrix R is expressed by the following equation (5).

Sd=fd(R,θd) ・・・ (5)   Sd = fd (R, θd) (5)

ここで、θdは、デコーダパラメータを示す。
デコーダ学習部223は、上記の式(5)を満たすデコーダパラメータθdを推定し、当該デコーダパラメータθdをデコーダ学習結果として、デコーダ学習結果記憶部213に記憶させる。
なお、関数fd()が、線形関数である場合には、以下の式(6)により表される。
Here, θd represents a decoder parameter.
The decoder learning unit 223 estimates the decoder parameter θd that satisfies the above equation (5), and stores the decoder parameter θd in the decoder learning result storage unit 213 as a decoder learning result.
When the function fd () is a linear function, it is expressed by the following equation (6).

Sd=R×Wd ・・・ (6)   Sd = R × Wd (6)

ここで、Wdは、重み付けを示す係数行列である。
この場合、デコーダ学習部223は、上記の式(6)を満たす係数行列Wdを推定し、当該係数行列Wdをデコーダ学習結果として、デコーダ学習結果記憶部213に記憶させる。
ステップS206の処理後に、デコーダ学習部223は、デコーダ学習処理を終了する。
Here, Wd is a coefficient matrix indicating weighting.
In this case, the decoder learning unit 223 estimates the coefficient matrix Wd that satisfies the above equation (6), and stores the coefficient matrix Wd in the decoder learning result storage unit 213 as a decoder learning result.
After the process of step S206, the decoder learning unit 223 ends the decoder learning process.

次に、図6を参照して、知覚認知内容推定システム1による新たな刺激に対して知覚及び認知内容を推定する処理について説明する。
図6は、本実施形態による知覚認知内容推定システム1の動作の一例を示すフローチャートである。
Next, with reference to FIG. 6, a process for estimating perception and cognitive content for a new stimulus by the perceptual perception content estimation system 1 will be described.
FIG. 6 is a flowchart showing an example of the operation of the perceptual recognition content estimation system 1 according to the present embodiment.

図6に示すように、知覚認知内容推定システム1の脳活動予測装置10は、新たな刺激データを取得する(ステップS301)。
次に、脳活動予測装置10は、エンコーダにより新たな刺激データから予測脳活動データを生成する(ステップS302)。ここでのエンコーダは、上述した図2及び図3に示す処理によって学習されたものである。また、予測脳活動データは、予測された脳活動行列を示している。脳活動予測装置10は、生成した予測脳活動データを知覚認知内容推定装置20に出力する。なお、脳活動予測装置10によって、予測脳活動データを生成する処理の詳細については後述する。
As shown in FIG. 6, the brain activity prediction apparatus 10 of the perceptual recognition content estimation system 1 acquires new stimulus data (step S301).
Next, the brain activity prediction apparatus 10 generates predicted brain activity data from the new stimulus data using the encoder (step S302). The encoder here has been learned by the processing shown in FIGS. 2 and 3 described above. Further, the predicted brain activity data indicates a predicted brain activity matrix. The brain activity prediction apparatus 10 outputs the generated predicted brain activity data to the perceptual recognition content estimation apparatus 20. Details of the process of generating predicted brain activity data by the brain activity prediction apparatus 10 will be described later.

次に、知覚認知内容推定装置20は、デコーダにより、予測脳活動データから知覚及び認知内容を推定する(ステップS303)。ここでのデコーダは、上述した図4及び図5に示す処理によって学習されたものである。なお、知覚認知内容推定装置20によって、知覚及び認知内容を推定する処理の詳細については後述する。   Next, the perceived and recognized content estimation device 20 estimates the perceived and recognized content from the predicted brain activity data by the decoder (step S303). The decoder here has been learned by the processing shown in FIGS. 4 and 5 described above. The details of the process of estimating the perception and perception content by the perceptual perception content estimation device 20 will be described later.

次に、知覚認知内容推定装置20は、推定結果を出力する(ステップS304)。ステップS304の処理後に、知覚認知内容推定システム1は、新たな刺激に対して知覚及び認知内容を推定する処理を終了する。   Next, the perceptual recognition content estimation device 20 outputs an estimation result (step S304). After the process of step S304, the perceived and recognized content estimation system 1 ends the process of estimating the perceived and recognized content for a new stimulus.

次に、図7を参照して、脳活動予測装置10による上述したステップS302の処理の詳細について説明する。
図7は、本実施形態における脳活動の予測処理の一例を示すフローチャートである。
Next, with reference to FIG. 7, the detail of the process of step S302 mentioned above by the brain activity prediction apparatus 10 is demonstrated.
FIG. 7 is a flowchart showing an example of a brain activity prediction process in the present embodiment.

図7に示すように、脳活動予測装置10の制御部12は、新たな刺激データから刺激特徴行列Sを生成する(ステップS401)。制御部12の刺激特徴行列生成部121は、入力された新たに刺激データから、新たな刺激に対応する刺激特徴行列Sを生成する。刺激特徴行列生成部121は、生成した新たな刺激に対応する刺激特徴行列Sを刺激特徴行列記憶部112に記憶させる。   As shown in FIG. 7, the control unit 12 of the brain activity prediction apparatus 10 generates a stimulus feature matrix S from new stimulus data (step S401). The stimulus feature matrix generation unit 121 of the control unit 12 generates a stimulus feature matrix S corresponding to a new stimulus from the newly input stimulus data. The stimulus feature matrix generation unit 121 causes the stimulus feature matrix storage unit 112 to store a stimulus feature matrix S corresponding to the generated new stimulus.

次に、制御部12の脳活動予測部124は、エンコーダにより刺激特徴行列Sから予測される脳活動行列R*を一旦生成する(ステップS402)。脳活動予測部124は、刺激特徴行列記憶部112が記憶する刺激特徴行列Sと、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果であるエンコーダパラメータθeとに基づいて、下記の式(7)により、脳活動行列R*を予測する。なお、「R*」の「*」は、予測値であることを示している。以下の説明において、「*」は、予測値に付与されるものとして説明する。また、ここでのエンコーダパラメータθeは、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果である。   Next, the brain activity prediction unit 124 of the control unit 12 once generates a brain activity matrix R * predicted from the stimulus feature matrix S by the encoder (step S402). Based on the stimulus feature matrix S stored in the stimulus feature matrix storage unit 112 and the encoder parameter θe that is the encoder learning result stored in the encoder learning result storage unit 113, the brain activity prediction unit 124 uses the following equation (7). To predict the brain activity matrix R *. Note that “*” in “R *” indicates a predicted value. In the following description, “*” is described as being given to the predicted value. The encoder parameter θe here is an encoder learning result based on a regression model that does not include an autoregressive component.

R*=fe(S,θe) ・・・ (7)   R * = fe (S, θe) (7)

なお、脳活動予測部124は、関数fe()が、線形関数である場合には、以下の式(8)により、脳活動行列R*を予測する。   The brain activity prediction unit 124 predicts the brain activity matrix R * by the following equation (8) when the function fe () is a linear function.

R*=S×We ・・・ (8)   R * = S × We (8)

この場合、係数行列Weは、エンコーダ学習結果記憶部113が記憶する自己回帰成分を含まない回帰モデルによるエンコーダ学習結果である。   In this case, the coefficient matrix We is an encoder learning result based on a regression model that does not include the autoregressive component stored in the encoder learning result storage unit 113.

次に、刺激特徴行列生成部121は、脳活動行列R*から過去の時系列を特徴ベクトルに連結して、刺激特徴行列S2を生成する(ステップS403)。刺激特徴行列生成部121は、脳活動行列R*に基づいて、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成し、エンコーダ学習処理と同様に、当該過去の時系列の脳活動ベクトル(自己回帰ベクトル)と、刺激特徴行列Sの特徴ベクトルとを連結して、自己回帰モデル用の刺激特徴行列S2を生成する。なお、刺激特徴行列生成部121は、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する際に、上述したエンコーダ学習処理と同様に、主成分分析により次元圧縮する処理を実行する。   Next, the stimulus feature matrix generation unit 121 connects the past time series from the brain activity matrix R * to the feature vector to generate the stimulus feature matrix S2 (step S403). The stimulus feature matrix generation unit 121 generates a past time-series brain activity vector (autoregressive vector) based on the brain activity matrix R *, and similarly to the encoder learning process, the past time-series brain activity vector The (autoregressive vector) and the feature vector of the stimulus feature matrix S are connected to generate a stimulus feature matrix S2 for the autoregressive model. It should be noted that the stimulus feature matrix generation unit 121 executes a dimensional compression process by principal component analysis, similar to the encoder learning process described above, when generating past time-series brain activity vectors (autoregressive vectors).

次に、脳活動予測部124は、エンコーダにより刺激特徴行列S2から予測される脳活動行列R2*を生成する(ステップS404)。脳活動予測部124は、自己回帰モデル用の刺激特徴行列S2と、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果であるエンコーダパラメータθe2とに基づいて、下記の式(9)により、脳活動行列R2*を予測する。ここでのエンコーダパラメータθe2は、自己回帰成分を含む回帰モデルによるエンコーダ学習結果である。   Next, the brain activity prediction unit 124 generates a brain activity matrix R2 * predicted from the stimulus feature matrix S2 by the encoder (step S404). Based on the stimulus feature matrix S2 for the autoregressive model and the encoder parameter θe2 that is the encoder learning result stored in the encoder learning result storage unit 113, the brain activity predicting unit 124 calculates the brain activity by the following equation (9). Predict matrix R2 *. The encoder parameter θe2 here is an encoder learning result based on a regression model including an autoregressive component.

R2*=fe(S2,θe2) ・・・ (9)   R2 * = fe (S2, θe2) (9)

なお、脳活動予測部124は、関数fe()が、線形関数である場合には、以下の式(10)により、脳活動行列R2*を予測する。   The brain activity prediction unit 124 predicts the brain activity matrix R2 * by the following equation (10) when the function fe () is a linear function.

R2*=S2×We2 ・・・ (10)   R2 * = S2 × We2 (10)

この場合、係数行列We2は、エンコーダ学習結果記憶部113が記憶する自己回帰成分を含む回帰モデルによるエンコーダ学習結果である。
ステップS404の処理後に、脳活動予測装置10は、脳活動の予測処理を終了する。
なお、ボクセルごとに、異なるエンコーダを用いる場合には、上述したステップS402からステップS404の処理を、ボクセルの数分繰り返してもよい。すなわち、脳活動予測部124は、学習処理の異なる複数のエンコーダ学習結果のうちから、学習時の予測性能に応じてボクセルごとに選択したエンコーダ学習結果に基づいて、ボクセルごとに脳活動を予測するようにしてもよい。
In this case, the coefficient matrix We2 is an encoder learning result based on a regression model including an autoregressive component stored in the encoder learning result storage unit 113.
After the process of step S404, the brain activity prediction apparatus 10 ends the brain activity prediction process.
In addition, when using a different encoder for every voxel, you may repeat the process of step S402 mentioned above from step S404 by the number of voxels. That is, the brain activity prediction unit 124 predicts brain activity for each voxel based on the encoder learning result selected for each voxel according to the prediction performance during learning from among a plurality of encoder learning results with different learning processes. You may do it.

また、脳活動予測部124は、例えば、学習時の予測性能に基づいて、ステップS402の処理のみ(自己回帰成分を含まない回帰モデルによって学習したエンコーダ)により脳活動を予測するのか、自己回帰モデルを使用したステップS402からステップS404の処理(自己回帰成分を含む回帰モデルによって学習したエンコーダ)により脳活動を予測するのか、を選択して実行してもよい。なお、脳活動予測部124は、自己回帰成分を含まない回帰モデルによって学習した場合には、予測の際に、自己回帰成分を含まない回帰モデルによって学習したエンコーダを選択し、自己回帰成分を含む回帰モデルによって学習した場合には、予測の際に、自己回帰成分を含む回帰モデルによって学習したエンコーダを選択する必要がある。すなわち、自己回帰成分を含むか否かの観点で、学習する回帰モデルと予測するエンコーダとを一致させる必要がある。また、ステップS402の処理のみにより脳活動を予測する場合には、脳活動予測装置10は、脳活動行列R*を脳活動行列R2*として出力する。   In addition, the brain activity prediction unit 124 predicts brain activity only by the processing of step S402 (an encoder learned by a regression model not including an autoregressive component) based on the prediction performance at the time of learning, for example, an autoregressive model It is also possible to select and execute whether the brain activity is predicted by the processing from step S402 to step S404 using the above (encoder learned by a regression model including an autoregressive component). When the brain activity prediction unit 124 learns with a regression model that does not include an autoregressive component, the brain activity prediction unit 124 selects an encoder that has been learned with a regression model that does not include an autoregressive component, and includes an autoregressive component. When learning is performed using a regression model, it is necessary to select an encoder learned using a regression model including an autoregressive component during prediction. That is, it is necessary to match the learning regression model with the predicting encoder from the viewpoint of whether or not it includes an autoregressive component. Further, when the brain activity is predicted only by the process of step S402, the brain activity prediction apparatus 10 outputs the brain activity matrix R * as the brain activity matrix R2 *.

次に、図8及び図9を参照して、知覚認知内容推定装置20による上述したステップS303の処理の詳細について説明する。
図8は、本実施形態における知覚及び認知内容の推定処理の一例を示すフローチャートである。
Next, with reference to FIG.8 and FIG.9, the detail of the process of step S303 mentioned above by the perceptual recognition content estimation apparatus 20 is demonstrated.
FIG. 8 is a flowchart showing an example of perception and recognition content estimation processing in the present embodiment.

図8に示すように知覚認知内容推定装置20の制御部22は、予測した脳活動行列R2*を取得する(ステップS501)。制御部12は、脳活動予測装置10が新たに刺激データから予測した脳活動行列R2*を取得する。   As shown in FIG. 8, the control unit 22 of the perceptual recognition content estimation apparatus 20 acquires the predicted brain activity matrix R2 * (step S501). The control unit 12 acquires the brain activity matrix R2 * newly predicted from the stimulation data by the brain activity prediction apparatus 10.

次に、制御部22の刺激特徴予測部224は、デコーダにより脳活動行列R2*から予測刺激特徴行列S*(ラベル刺激特徴行列)を生成する(ステップS502)。刺激特徴予測部224は、取得した脳活動行列R2*と、デコーダ学習結果記憶部213が記憶するデコーダ学習結果であるデコーダパラメータθdとに基づいて、下記の式(11)により予測刺激特徴行列S*を予測する。   Next, the stimulus feature prediction unit 224 of the control unit 22 generates a predicted stimulus feature matrix S * (label stimulus feature matrix) from the brain activity matrix R2 * by the decoder (step S502). Based on the acquired brain activity matrix R2 * and the decoder parameter θd that is the decoder learning result stored in the decoder learning result storage unit 213, the stimulus feature prediction unit 224 uses the following equation (11) to predict the predicted stimulus feature matrix S * Is predicted.

S*=fd(R2*,θd) ・・・ (11)   S * = fd (R2 *, θd) (11)

なお、刺激特徴予測部224は、関数fd()が、線形関数である場合には、以下の式(12)により、予測刺激特徴行列S*を予測する。   Note that when the function fd () is a linear function, the stimulus feature predicting unit 224 predicts the predicted stimulus feature matrix S * by the following equation (12).

S*=R2*×Wd ・・・ (12)   S * = R2 * × Wd (12)

この場合、係数行列Wdは、デコーダ学習結果記憶部213が記憶するデコーダ学習結果である。   In this case, the coefficient matrix Wd is a decoder learning result stored in the decoder learning result storage unit 213.

次に、制御部22の知覚認知内容推定部225は、予測刺激特徴行列S*に含まれる時系列の特徴ベクトルと、ラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容を推定する(ステップS503)。知覚認知内容推定部225は、例えば、予測刺激特徴行列S*に含まれる特徴ベクトルと、ラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルとの特徴空間(第2の特徴空間)上の距離を算出する。ここで、知覚認知内容推定部225は、特徴空間(第2の特徴空間)上の距離として、例えば、ユークリッド距離、マハラノビス距離などの統計的距離を算出する。知覚認知内容推定部225は、例えば、ラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルのうち、算出した距離が近い(例えば、最も近い)ラベル特徴ベクトルに対応するラベル情報を、推定結果として選定する。   Next, the perceptual recognition content estimation unit 225 of the control unit 22 estimates perception and recognition content based on the distance between the time-series feature vector included in the predicted stimulus feature matrix S * and the label feature vector (step) S503). For example, the perceptual recognition content estimation unit 225 calculates the distance on the feature space (second feature space) between the feature vector included in the predicted stimulus feature matrix S * and the label feature vector stored in the label feature vector storage unit 212. calculate. Here, the perceptual recognition content estimation unit 225 calculates, for example, a statistical distance such as a Euclidean distance or a Mahalanobis distance as a distance on the feature space (second feature space). For example, the perceptual recognition content estimation unit 225 selects, as an estimation result, label information corresponding to a label feature vector whose calculated distance is close (for example, closest) among the label feature vectors stored in the label feature vector storage unit 212. To do.

なお、知覚認知内容推定部225は、図9に示すように、刺激特徴予測部224によって予測された特徴ベクトル、及びラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルを、特徴空間(第2の特徴空間)上に投射する。特徴ベクトルとラベル特徴ベクトルとの距離を算出する。   As shown in FIG. 9, the perceptual recognition content estimation unit 225 converts the feature vector predicted by the stimulus feature prediction unit 224 and the label feature vector stored in the label feature vector storage unit 212 into the feature space (second Project onto the feature space. The distance between the feature vector and the label feature vector is calculated.

ここで、図9は、本実施形態におけるラベルの特徴空間の一例を示す図である。
図9において、N次元のラベルの特徴空間(第2の特徴空間)を示している。また、特徴ベクトル(×印)は、刺激特徴予測部224によって予測された予測刺激特徴行列S*に含まれる特徴ベクトルの投射位置の一例を示している。また、「ラベルAベクトル」は、「ラベルA」に対応するラベル特徴ベクトルの投射位置を示し、「ラベルBベクトル」は、「ラベルB」に対応するラベル特徴ベクトルの投射位置を示している。また、「ラベルCベクトル」は、「ラベルC」に対応するラベル特徴ベクトルの投射位置を示している。
Here, FIG. 9 is a diagram illustrating an example of a feature space of a label in the present embodiment.
FIG. 9 shows a feature space (second feature space) of an N-dimensional label. The feature vector (x mark) shows an example of the projection position of the feature vector included in the predicted stimulus feature matrix S * predicted by the stimulus feature prediction unit 224. “Label A vector” indicates the projection position of the label feature vector corresponding to “Label A”, and “Label B vector” indicates the projection position of the label feature vector corresponding to “Label B”. “Label C vector” indicates the projection position of the label feature vector corresponding to “Label C”.

図9に示す例では、「ラベルAベクトル」及び「ラベルBベクトル」と、特徴ベクトル(×印)との距離が近いため、知覚認知内容推定部225は、知覚及び認知内容として、最近傍の「ラベルA」、次に「ラベルB」を推定する。   In the example illustrated in FIG. 9, since the distance between the “label A vector” and the “label B vector” and the feature vector (× mark) is short, the perceptual recognition content estimation unit 225 determines the nearest perception and recognition content. “Label A” and then “Label B” are estimated.

ステップS503の処理後に、知覚認知内容推定装置20は、知覚及び認知内容の推定処理を終了する。   After the process of step S503, the perceptual recognition content estimation device 20 ends the perception and recognition content estimation processing.

以上説明したように、本実施形態による脳活動予測装置10は、刺激特徴行列生成部121(特徴行列生成部)と、脳活動予測部124とを備える。刺激特徴行列生成部121は、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列(第1刺激特徴行列)を生成する。脳活動予測部124は、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、第1の特徴空間から脳活動への投射関係を学習した学習結果である。   As described above, the brain activity prediction apparatus 10 according to the present embodiment includes the stimulus feature matrix generation unit 121 (feature matrix generation unit) and the brain activity prediction unit 124. The stimulus feature matrix generation unit 121 generates a feature vector (first feature vector) obtained by projecting an expression for a stimulus to the first feature space, and a stimulus feature matrix (first stimulus feature matrix) that summarizes the feature vectors in time series. ) Is generated. The brain activity prediction unit 124 predicts a brain activity matrix for a new stimulus from the stimulus feature matrix generated by the stimulus feature matrix generation unit 121 for the new stimulus based on the encoder learning result. Here, the encoder learning result is a time series of the stimulus feature matrix for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus. This is a learning result obtained by learning the projection relationship from the first feature space to the brain activity by a regression model using the combination data with the brain activity matrix as the learning data.

これにより、本実施形態による脳活動予測装置10は、例えば、新たな刺激に対する脳活動から知覚及び認知内容を推定する際に、脳活動を予測するため、新たな刺激に対する脳活動をfMRIなどにより計測する必要がない。そのため、本実施形態による脳活動予測装置10は、fMRIなどによる脳活動の計測に要していた、人的、金銭的、時間的なコストを低減することができ、知覚及び認知内容を推定する上で利便性を向上させることができる。また、本実施形態による脳活動予測装置10は、脳活動に基づく知覚及び認知内容、行動などの推定技術の汎用性を向上させることができる。   Thereby, the brain activity prediction apparatus 10 according to the present embodiment predicts the brain activity when estimating the perceptual and cognitive content from the brain activity with respect to the new stimulus, for example, so that the brain activity with respect to the new stimulus is determined by fMRI or the like. There is no need to measure. Therefore, the brain activity prediction apparatus 10 according to the present embodiment can reduce the human, monetary, and time costs required for measuring brain activity by fMRI or the like, and estimates perceptual and cognitive contents. Convenience can be improved. In addition, the brain activity prediction apparatus 10 according to the present embodiment can improve the versatility of estimation techniques such as perception and cognitive content and behavior based on brain activity.

また、本実施形態では、エンコーダ学習結果は、特徴ベクトルである刺激成分に過去の時点の脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰モデル(自己回帰成分を含む回帰モデル)により学習されている。そして、脳活動予測部124は、自己回帰モデル(自己回帰成分を含む回帰モデル)により学習されたエンコーダ学習結果に基づいて、新たな刺激に対する刺激特徴行列から新たな刺激に対する脳活動行列を予測する。また、刺激特徴行列生成部121は、脳活動予測部124により予測された脳活動行列に基づく過去の時点の脳活動ベクトルと特徴ベクトルを結合して結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列を新たな刺激に対する刺激特徴行列として、エンコーダ学習結果に基づいて、更新された脳活動行列を生成する。   In this embodiment, the encoder learning result is generated by combining a stimulus component that is a feature vector with an autoregressive component that is a brain activity vector at a past time point and combining the combined feature vectors in time series. The learning is performed by using an autoregressive model (regression model including an autoregressive component) using the combination data of the stimulus feature matrix and the brain activity matrix generated as learning data. Then, the brain activity prediction unit 124 predicts the brain activity matrix for the new stimulus from the stimulus feature matrix for the new stimulus, based on the encoder learning result learned by the autoregressive model (the regression model including the autoregressive component). . Further, the stimulus feature matrix generation unit 121 generates a combined feature vector by combining the brain activity vector and the feature vector at the past time based on the brain activity matrix predicted by the brain activity prediction unit 124, and generates the combined feature vector. Based on the result of encoder learning, an updated brain activity matrix is generated using the stimulus feature matrix generated in time series as a stimulus feature matrix for a new stimulus.

これにより、本実施形態による脳活動予測装置10は、脳活動の内因的な時間的依存性をモデル化した自己回帰モデル(自己回帰成分を含む回帰モデル)を取り入れ、外因性と内因性との予測モデルを組み合わせることで、脳活動の予測精度をさらに向上させることができる。   Thereby, the brain activity prediction apparatus 10 according to the present embodiment takes in an autoregressive model (regression model including an autoregressive component) in which intrinsic temporal dependence of brain activity is modeled, so that extrinsic and intrinsic By combining the prediction model, the prediction accuracy of brain activity can be further improved.

また、本実施形態では、脳活動は、脳を分割した立方体の単位領域であるボクセルごとに計測されている。脳活動予測部124は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、ボクセルごとに選択したエンコーダ学習結果に基づいて、ボクセルごとに脳活動を予測するようにしてもよい。
これにより、本実施形態による脳活動予測装置10は、ボクセルごと適切なエンコーダを使用して脳活動を予測するため、脳活動の予測精度をさらに向上させることができる。
In the present embodiment, the brain activity is measured for each voxel, which is a cubic unit region obtained by dividing the brain. The brain activity prediction unit 124 predicts the brain activity for each voxel based on the encoder learning result selected for each voxel based on the prediction performance at the time of learning from among the plurality of encoder learning results having different learning processes. You may do it.
Thereby, since the brain activity prediction apparatus 10 according to the present embodiment predicts brain activity using an appropriate encoder for each voxel, the prediction accuracy of brain activity can be further improved.

また、本実施形態では、特徴ベクトルは、深層学習モデルで算出した中間層の活性化パターンである。
これにより、本実施形態による脳活動予測装置10は、既に有効性が分かっている中間層の活性化パターンを利用することができるため、簡易な手法により、脳活動の予測精度をさらに向上させることができる。
In the present embodiment, the feature vector is an activation pattern of the intermediate layer calculated by the deep learning model.
Thereby, since the brain activity prediction apparatus 10 according to the present embodiment can use the activation pattern of the intermediate layer whose effectiveness is already known, it is possible to further improve the prediction accuracy of the brain activity by a simple method. Can do.

また、本実施形態による脳活動予測装置10は、エンコーダ学習結果を生成するエンコーダ学習部123を備える。
これにより、本実施形態による脳活動予測装置10は、自装置においてエンコーダの学習が可能になるため、知覚及び認知内容を推定する上でさらに利便性を向上させることができる。
Moreover, the brain activity prediction apparatus 10 according to the present embodiment includes an encoder learning unit 123 that generates an encoder learning result.
Thereby, since the brain activity prediction apparatus 10 according to the present embodiment can learn the encoder in its own apparatus, it is possible to further improve convenience in estimating perceptual and cognitive contents.

また、本実施形態による知覚認知内容推定システム1は、上述した脳活動予測装置10と、刺激特徴予測部224とを備える。刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して刺激特徴行列(第1刺激特徴行列)から予測された脳活動行列とに基づいて、新たな刺激に対するラベル特徴ベクトル(第2特徴ベクトル)又はラベル刺激特徴行列(第2刺激特徴行列)を予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトル(第2特徴ベクトル)又は当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列(第2刺激特徴行列)と、学習用の刺激に対する脳活動行列との組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。   In addition, the perceptual recognition content estimation system 1 according to the present embodiment includes the brain activity prediction apparatus 10 and the stimulus feature prediction unit 224 described above. The stimulus feature prediction unit 224 creates a new stimulus based on the decoder learning result and the brain activity matrix predicted from the stimulus feature matrix (first stimulus feature matrix) by the brain activity prediction apparatus 10 for the new stimulus. A label feature vector (second feature vector) or a label stimulus feature matrix (second stimulus feature matrix) is predicted. Here, the decoder learning result generates a label feature vector (second feature vector) obtained by projecting a label indicating the meaning content of perception of the stimulus to the second feature space for the learning stimulus, and the label feature Learning combination data of a vector (second feature vector) or a label stimulus feature matrix (second stimulus feature matrix) for a stimulus for learning, which is a time series of the label feature vectors, and a brain activity matrix for a stimulus for learning It is a learning result obtained by learning the projection relationship from the brain activity to the second feature space as data.

これにより、本実施形態による知覚認知内容推定システム1は、例えば、新たな刺激に対する脳活動から知覚及び認知内容を推定する際に、脳活動予測装置10が予測した脳活動である脳活動行列を使用するため、新たな刺激に対する脳活動をfMRIなどにより計測する必要がない。よって、本実施形態による知覚認知内容推定システム1は、上述した本実施形態による脳活動予測装置10と同様に、知覚及び認知内容を推定する上で利便性を向上させることができる。   Thereby, the perceptual recognition content estimation system 1 according to the present embodiment, for example, calculates the brain activity matrix that is the brain activity predicted by the brain activity prediction device 10 when estimating the perception and recognition content from the brain activity for a new stimulus. Because it is used, it is not necessary to measure brain activity for a new stimulus by fMRI or the like. Therefore, the perceptual recognition content estimation system 1 according to the present embodiment can improve convenience in estimating the perception and perception content, similarly to the brain activity prediction apparatus 10 according to the present embodiment described above.

また、本実施形態による知覚認知内容推定システム1は、刺激特徴予測部224が予測したラベル刺激特徴行列(予測刺激特徴行列)に含まれる時系列の特徴ベクトル、又は刺激特徴予測部224が予測したラベル特徴ベクトルと、第2の特徴空間に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する知覚認知内容推定部225を備える。
これにより、本実施形態による知覚認知内容推定システム1は、新たな刺激に対する脳活動をfMRIなどにより計測する必要なしに、第2の特徴空間の距離を用いるという簡易な手法により、知覚及び認知内容を適切に推定することできる。
Further, the perceptual recognition content estimation system 1 according to the present embodiment predicts the time-series feature vector included in the label stimulus feature matrix (predicted stimulus feature matrix) predicted by the stimulus feature predictor 224 or the stimulus feature predictor 224. A perceptual recognition content estimation unit 225 that estimates at least one of perception and perception content based on the distance between the label feature vector and the label feature vector corresponding to the label projected on the second feature space.
As a result, the perceptual and perceptual content estimation system 1 according to the present embodiment uses the simple feature of using the distance of the second feature space without the need to measure brain activity for a new stimulus by fMRI or the like. Can be estimated appropriately.

また、本実施形態による脳活動予測方法は、特徴行列生成ステップと、予測する脳活動予測ステップとを含む。特徴行列生成ステップにおいて、刺激特徴行列生成部121が、刺激に対する表現を第1の特徴空間に投射した特徴ベクトルを生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列を生成する。予測する脳活動予測ステップにおいて、脳活動予測部124が、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとして、第1の特徴空間から脳活動への投射関係を学習した学習結果である。
これにより、本実施形態による脳活動予測方法は、上述した本実施形態による脳活動予測装置10と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
The brain activity prediction method according to the present embodiment includes a feature matrix generation step and a brain activity prediction step for prediction. In the feature matrix generation step, the stimulus feature matrix generation unit 121 generates a feature vector obtained by projecting an expression for a stimulus to the first feature space, and generates a stimulus feature matrix in which the feature vectors are collected in time series. In the predicting brain activity step, the brain activity predicting unit 124 calculates a brain activity matrix for the new stimulus from the stimulus feature matrix generated by the stimulus feature matrix generating unit 121 for the new stimulus based on the encoder learning result. Predict. Here, the encoder learning result is a time series of the stimulus feature matrix for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus. This is the learning result obtained by learning the projection relationship from the first feature space to the brain activity using the combination data with the brain activity matrix as the learning data.
Accordingly, the brain activity prediction method according to the present embodiment estimates the perceptual and cognitive contents without the need to measure the brain activity with respect to a new stimulus by fMRI or the like, similar to the brain activity prediction apparatus 10 according to the present embodiment described above. The convenience can be improved.

また、本実施形態による知覚認知内容推定方法は、上述した特徴行列生成ステップ及び予測する脳活動予測ステップと、刺激特徴予測ステップと、知覚認知内容推定ステップとを含む。刺激特徴予測ステップにおいて、刺激特徴予測部224が、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して刺激特徴行列から予測された脳活動行列とに基づいて、新たな刺激に対するラベル刺激特徴行列を予測刺激特徴行列として予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトルを生成し、当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列と、学習用の刺激に対する脳活動行列との組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。そして、知覚認知内容推定ステップにおいて、刺激特徴予測部224が予測した予測刺激特徴行列に含まれる時系列の特徴ベクトルと、第2の特徴空間に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する。
これにより、本実施形態による知覚認知内容推定方法は、上述した本実施形態による脳活動予測方法と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
The perceptual recognition content estimation method according to the present embodiment includes the above-described feature matrix generation step, the predicted brain activity prediction step, the stimulus feature prediction step, and the perceptual recognition content estimation step. In the stimulus feature prediction step, the stimulus feature predicting unit 224 performs the new stimulus on the basis of the decoder learning result and the brain activity matrix predicted from the stimulus feature matrix by the brain activity prediction apparatus 10 for the new stimulus. The label stimulus feature matrix is predicted as a predicted stimulus feature matrix. Here, as a result of the decoder learning, a label feature vector is generated by projecting a label indicating the perceptual meaning of the stimulus to the second feature space for the learning stimulus, and the label feature vector is collected in time series. This is a learning result obtained by learning the projection relationship from the brain activity to the second feature space by using the combination data of the label stimulus feature matrix for the learning stimulus and the brain activity matrix for the learning stimulus as learning data. Then, in the perceptual recognition content estimation step, the distance between the time-series feature vector included in the predicted stimulus feature matrix predicted by the stimulus feature prediction unit 224 and the label feature vector corresponding to the label projected on the second feature space Based on the above, at least one of perceptual and cognitive contents is estimated.
As a result, the perceptual recognition content estimation method according to the present embodiment does not need to measure brain activity in response to a new stimulus by fMRI or the like, similar to the brain activity prediction method according to the present embodiment described above, and estimates perception and perception content. The convenience can be improved.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記実施形態の知覚認知内容推定システム1は、脳活動予測装置10と、知覚認知内容推定装置20とを備える例を説明したが、これに限定されるものではない。例えば、知覚認知内容推定装置20に、脳活動予測装置10が含まれる構成であってもよい。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, although the perceptual recognition content estimation system 1 of the above-described embodiment has been described as including the brain activity prediction device 10 and the perceptual recognition content estimation device 20, it is not limited thereto. For example, the perceptual recognition content estimation device 20 may include the brain activity prediction device 10.

また、上記実施形態の脳活動予測装置10は、エンコーダ学習部123を備える例を説明したが、エンコーダ学習部123を備えない構成であってもよい。また、脳活動予測装置10は、内部に記憶部11を備える例を説明したが、記憶部11の一部又は全部を、脳活動予測装置10の外部に備えてもよい。例えば、記憶部11の一部又は全部をネットワーク上の記憶装置の内部に備えてもよい。
また、上記実施形態の脳活動予測装置10は、1台の装置として説明したが、複数の装置で構成されるようにしてもよい。
Moreover, although the example provided with the encoder learning part 123 demonstrated the brain activity prediction apparatus 10 of the said embodiment, the structure which is not provided with the encoder learning part 123 may be sufficient. Moreover, although the brain activity prediction apparatus 10 demonstrated the example provided with the memory | storage part 11 inside, you may equip the exterior of the brain activity prediction apparatus 10 with a part or all of the memory | storage part 11. FIG. For example, a part or all of the storage unit 11 may be provided inside a storage device on the network.
Moreover, although the brain activity prediction apparatus 10 of the said embodiment was demonstrated as one apparatus, you may make it comprise with a some apparatus.

また、上記実施形態の知覚認知内容推定装置20は、デコーダ学習部223を備える例を説明したが、デコーダ学習部223を備えない構成であってもよい。また、知覚認知内容推定装置20は、内部に記憶部21を備える例を説明したが、記憶部21の一部又は全部を、知覚認知内容推定装置20の外部に備えてもよい。例えば、記憶部21の一部又は全部をネットワーク上の記憶装置の内部に備えてもよい。
また、上記実施形態の知覚認知内容推定装置20は、1台の装置として説明したが、複数の装置で構成されるようにしてもよい。
Further, although the example in which the perceptual recognition content estimation device 20 of the above embodiment includes the decoder learning unit 223 has been described, a configuration without the decoder learning unit 223 may be employed. Further, although the example in which the perceptual recognition content estimation device 20 includes the storage unit 21 has been described, a part or all of the storage unit 21 may be provided outside the perception recognition content estimation device 20. For example, a part or all of the storage unit 21 may be provided inside a storage device on the network.
Moreover, although the perceptual recognition content estimation device 20 of the above-described embodiment has been described as a single device, it may be configured by a plurality of devices.

また、上記実施形態において、エンコーダの学習処理に、自己回帰成分を含む回帰モデル(自己回帰モデル)を利用する例を説明したが、自己回帰成分を含まない回帰モデルによりエンコーダを学習してもよい。また、自己回帰成分を含む回帰モデル(自己回帰モデル)を利用する際に、自己回帰ベクトルを、主成分分析により次元圧縮する例を説明したが、これに限定されるものではなく、エンコーダパラメータを計算する際のリソース不足が問題にならなければ、次元圧縮を行わない形態であってもよい。   In the above embodiment, an example in which a regression model including an autoregressive component (autoregressive model) is used for the learning process of the encoder has been described. However, the encoder may be learned using a regression model that does not include an autoregressive component. . In addition, when using a regression model including an autoregressive component (autoregressive model), an example in which the autoregressive vector is dimensionally compressed by principal component analysis has been described. However, the present invention is not limited to this. If a shortage of resources at the time of calculation does not become a problem, a form in which dimension compression is not performed may be used.

また、上記実施形態において、脳活動を計測する手段としてfMRIを用いる例を説明したが、これに限定されるものではない。例えば、fMRIの代わりに、MEG(脳磁図:Magnetoencephalography)やEEG(脳波計:Electroencephalogram)、等を用いてもよい。なお、脳活動を計測する手段としてMEG又はEEGを用いた場合には、脳波の強度、脳波の各周波数帯におけるパワーや位相などを計測データとして、脳活動行列が生成されるようにしてもよい。   Moreover, although the example which uses fMRI as a means to measure a brain activity was demonstrated in the said embodiment, it is not limited to this. For example, MEG (magnetoencephalography) or EEG (electroencephalogram) may be used instead of fMRI. When MEG or EEG is used as a means for measuring brain activity, a brain activity matrix may be generated using the intensity of brain waves, power and phase in each frequency band of brain waves as measurement data. .

また、上記実施形態において、学習モデルとして深層学習モデルを用いて特徴ベクトルを生成する例を説明したが、これに限定されるものではなく、他の学習モデルを用いて特徴ベクトルを生成するようにしてもよい。例えば、運動エネルギーモデルを用いた場合には、動画に含まれる運動成分(時空間周波数成分)を特徴ベクトルとして利用してもよい。また、例えば、ガボールモデルを用いた場合は、動画像に含まれる空間周波数成分を特徴ベクトルとして利用してもよい。また、深層学習以外の既存のコンピュータビジョンのモデル(例えば、SHIFT、HMAXなど)を利用して特徴ベクトルを生成するようにしてもよい。また、刺激データは、動画及び画像などの視覚成分に限定されるものではなく、聴覚成分など他の感覚種の信号を用いて特徴ベクトルを生成するようにしてもよい。   In the above-described embodiment, the example in which the feature vector is generated using the deep learning model as the learning model has been described. However, the present invention is not limited to this, and the feature vector is generated using another learning model. May be. For example, when a kinetic energy model is used, a kinetic component (a spatio-temporal frequency component) included in a moving image may be used as a feature vector. For example, when a Gabor model is used, a spatial frequency component included in a moving image may be used as a feature vector. Further, a feature vector may be generated using an existing computer vision model (for example, SHIFT, HMAX, etc.) other than deep learning. The stimulus data is not limited to visual components such as moving images and images, and feature vectors may be generated using signals of other sensory types such as auditory components.

また、例えば、音声信号の基本的な特徴(周波数、強度、時間的パターン)などを抽出し、特徴ベクトルとして用いるようにしてもよいし、音声認識などを用いて検出した動画及び音声刺激内で提示された言葉の内容を検出し、特徴ベクトルとして用いるようにしてもよい。このような聴覚成分のモデルは、視覚成分のモデルと組み合わせて用いることが可能であり、多種の感覚種のモデルを組み合わせたうえで、一つの回帰モデルを作成するようにしてもよい。   Also, for example, basic features (frequency, intensity, temporal pattern) of an audio signal may be extracted and used as a feature vector, or within a moving image and audio stimulus detected using audio recognition or the like. The content of the presented word may be detected and used as a feature vector. Such an auditory component model can be used in combination with a visual component model, and a single regression model may be created after combining models of various sensory species.

また、上記実施形態において、式(1)又は式(2)により、自己回帰成分を含まない回帰モデルにより学習した結果を、図7のステップS402の処理で利用する例を説明したが、これに限定されるものではない。例えば、己回帰成分を含む回帰モデルにより学習した結果から、自己回帰成分を含まない回帰モデルに対応する成分を抽出し、この抽出成分を学習結果として、図7のステップS402において利用してもよい。この場合には、図3のステップS105の自己回帰成分を含まない回帰モデルによる学習処理を実行しなくてもよい。   Moreover, in the said embodiment, although the example used by the process of step S402 of FIG. 7 demonstrated the result learned by the regression model which does not contain an autoregressive component by Formula (1) or Formula (2), It is not limited. For example, a component corresponding to a regression model that does not include an autoregressive component is extracted from the result of learning using a regression model that includes a self-regressive component, and this extracted component may be used as a learning result in step S402 in FIG. . In this case, it is not necessary to execute the learning process using the regression model that does not include the autoregressive component in step S105 in FIG.

また、上記実施形態において、エンコーダは、学習する際の学習データを刺激特徴行列(第1刺激特徴行列)と脳活動行列との組データとし、刺激特徴行列(第1刺激特徴行列)から脳活動行列を予測するものとしたが、これに限定されるものではない。例えば、エンコーダは、学習する際の学習データを特徴ベクトル(第1特徴ベクトル)と脳活動ベクトルとの組データとし、特徴ベクトル(第1特徴ベクトル)から脳活動ベクトルを予測するようにしてもよい。また、デコーダについて、同様に、学習データ、入力データ、及び予測データに、行列の代わりにベクトルを用いるようにしてもよい。   In the above embodiment, the encoder uses learning data at the time of learning as set data of a stimulus feature matrix (first stimulus feature matrix) and a brain activity matrix, and the brain activity from the stimulus feature matrix (first stimulus feature matrix). Although the matrix is assumed to be predicted, the present invention is not limited to this. For example, the encoder may use learning data for learning as set data of a feature vector (first feature vector) and a brain activity vector, and predict the brain activity vector from the feature vector (first feature vector). . Similarly, a decoder may use a vector instead of a matrix for learning data, input data, and prediction data.

例えば、刺激特徴行列生成部121(特徴ベクトル生成部)は、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成する。脳活動予測部124は、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された特徴ベクトルから新たな刺激に対する脳活動ベクトルを予測するようにしてもよい。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、特徴ベクトルから脳活動への投射関係を学習した学習結果である。脳活動予測装置10は、このような刺激特徴行列生成部121(特徴ベクトル生成部)と脳活動予測部124とを備えてもよい。
この場合の脳活動予測装置10は、上述した行列を用いた脳活動予測装置10と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
For example, the stimulus feature matrix generation unit 121 (feature vector generation unit) generates a feature vector (first feature vector) obtained by projecting an expression for a stimulus to the first feature space. The brain activity prediction unit 124 may predict the brain activity vector for the new stimulus from the feature vector generated by the stimulus feature matrix generation unit 121 for the new stimulus based on the encoder learning result. Here, the encoder learning result is a combination of a feature vector for a learning stimulus given to a subject and a brain activity vector generated based on measurement data obtained by measuring brain activity for the learning stimulus. This is the learning result obtained by learning the projection relationship from the feature vector to the brain activity using the regression model. The brain activity prediction apparatus 10 may include such a stimulus feature matrix generation unit 121 (feature vector generation unit) and a brain activity prediction unit 124.
The brain activity prediction apparatus 10 in this case does not need to measure the brain activity for a new stimulus by fMRI or the like, as in the brain activity prediction apparatus 10 using the matrix described above, and estimates the perception and cognitive contents. Convenience can be improved.

また、例えば、上述のエンコーダ学習結果は、特徴ベクトル(第1特徴ベクトル)である刺激成分に過去の時点の脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルと、脳活動ベクトルとの組データを学習データとして、自己回帰成分を含む回帰モデルにより学習されてもよい。そして、脳活動予測部124は、自己回帰成分を含む回帰モデルにより学習されたエンコーダ学習結果に基づいて、新たな刺激に対する特徴ベクトル(第1特徴ベクトル)から新たな刺激に対する脳活動ベクトルを予測するようにしてもよい。   Further, for example, the encoder learning result described above generates a combined feature vector in which an autoregressive component that is a brain activity vector at a past time is combined with a stimulus component that is a feature vector (first feature vector), and the combined feature vector Further, learning may be performed by a regression model including an autoregressive component, using the combination data of the brain activity vector as learning data. Then, the brain activity prediction unit 124 predicts the brain activity vector for the new stimulus from the feature vector for the new stimulus (first feature vector) based on the encoder learning result learned by the regression model including the autoregressive component. You may do it.

また、例えば、知覚認知内容推定システム1は、行列の代わりにベクトルを用いた脳活動予測装置と、刺激特徴予測部224とを備えてもよい。ここでの刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して特徴ベクトル(第1特徴ベクトル)から予測された脳活動ベクトルとに基づいて、新たな刺激に対するラベル特徴ベクトル(第2特徴ベクトル)を予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトル(第2特徴ベクトル)と、学習用の刺激に対する脳活動ベクトルとの組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。   In addition, for example, the perceptual recognition content estimation system 1 may include a brain activity prediction device that uses a vector instead of a matrix, and a stimulus feature prediction unit 224. The stimulus feature prediction unit 224 here uses the decoder learning result and a new brain activity vector predicted from the feature vector (first feature vector) for the new stimulus by the brain activity prediction apparatus 10. A label feature vector (second feature vector) for the stimulus is predicted. Here, the decoder learning result generates a label feature vector (second feature vector) obtained by projecting a label indicating the meaning content of perception of the stimulus to the second feature space for the learning stimulus, and the label feature This is a learning result obtained by learning the projection relationship from the brain activity to the second feature space using the set data of the vector (second feature vector) and the brain activity vector for the learning stimulus as learning data.

また、例えば、本実施形態の脳活動予測方法は、特徴ベクトル生成ステップと、脳活動予測ステップとを含んでもよい。この場合、特徴ベクトル生成ステップにおいて、刺激特徴行列生成部121(特徴ベクトル生成部)が、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成する。そして、脳活動予測ステップにおいて、脳活動予測部124は、行列の代わりにベクトルを用いて学習したエンコーダ学習結果に基づいて、新たな刺激に対して特徴ベクトル生成ステップによって生成された特徴ベクトル(第1特徴ベクトル)から新たな刺激に対する脳活動ベクトルを予測する。
この場合の脳活動予測方法は、上述した行列を用いた脳活動予測方法と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
For example, the brain activity prediction method of the present embodiment may include a feature vector generation step and a brain activity prediction step. In this case, in the feature vector generation step, the stimulus feature matrix generation unit 121 (feature vector generation unit) generates a feature vector (first feature vector) obtained by projecting an expression for the stimulus to the first feature space. Then, in the brain activity predicting step, the brain activity predicting unit 124 uses the feature vector generation step generated by the feature vector generating step for the new stimulus based on the encoder learning result learned using the vector instead of the matrix. The brain activity vector for a new stimulus is predicted from one feature vector.
The brain activity prediction method in this case does not need to measure brain activity in response to a new stimulus by fMRI or the like, as in the brain activity prediction method using the matrix described above, and is convenient in estimating perceptual and cognitive contents. Can be improved.

なお、深層学習のような近年の機械学習手法では、自然な動画像入力に対して、物体カテゴリ名や自然言語文でラベル付けを行う技術が提供されている。このような従来の技術では、例えば、動画や画像などに対するラベル情報を推定する場合に、機械学習に用いたラベル情報が推定対象となる。   In recent machine learning techniques such as deep learning, a technique for labeling a natural moving image input with an object category name or a natural language sentence is provided. In such a conventional technique, for example, when label information for a moving image or an image is estimated, the label information used for machine learning is an estimation target.

これに対して、上述した本実施形態による知覚認知内容推定システム1は、脳活動予測装置10のエンコーダと知覚認知内容推定装置20のデコーダとを直列に接続することにより、エンコーダ処理により脳活動を予測した後に、デコーダ処理によりラベル情報を推定する。
これにより、本実施形態による知覚認知内容推定システム1では、情感や印象といった人間の感性や行動に関わるラベル付けが可能になり、機械学習に用いたラベル情報以外のラベル付が可能になる。このように、本実施形態による知覚認知内容推定システム1は、より多様な知覚及び認知内容のラベル情報の推定が可能となり、機械学習を利用した動画や画像などの自動的なラベル付け技術の汎用性、及び利便性を向上させることができる。
On the other hand, the perceptual recognition content estimation system 1 according to the present embodiment described above connects the encoder of the brain activity prediction device 10 and the decoder of the perception recognition content estimation device 20 in series, thereby performing brain activity by encoder processing. After the prediction, the label information is estimated by the decoder process.
Thereby, in the perceptual recognition content estimation system 1 according to the present embodiment, labeling related to human sensitivity and behavior such as emotion and impression is possible, and labeling other than the label information used for machine learning is possible. As described above, the perceptual recognition content estimation system 1 according to the present embodiment can estimate label information of a wider variety of perception and perception content, and can be used as a general-purpose automatic labeling technology for moving images and images using machine learning. And convenience can be improved.

なお、上述した知覚認知内容推定システム1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した知覚認知内容推定システム1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した知覚認知内容推定システム1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each component included in the perceptual recognition content estimation system 1 described above has a computer system therein. Then, a program for realizing the function of each component included in the perceptual recognition content estimation system 1 described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. By doing so, you may perform the process in each structure with which the perceptual recognition content estimation system 1 mentioned above is provided. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices.
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に知覚認知内容推定システム1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. In addition, after dividing a program into a plurality of parts and downloading them at different timings, the composition of the perceptual recognition content estimation system 1 may be combined, or the distribution server that distributes each of the divided programs may be different. . Furthermore, a “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Moreover, you may implement | achieve part or all of the function mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

1 知覚認知内容推定システム
10 脳活動予測装置
11、21 記憶部
12、22 制御部
20 知覚認知内容推定装置
111、211 学習データ記憶部
112 刺激特徴行列記憶部
113 エンコーダ学習結果記憶部
114 予測脳活動記憶部
121 刺激特徴行列生成部
122、222 脳活動行列生成部
123 エンコーダ学習部
124 脳活動予測部
212 ラベル特徴ベクトル記憶部
213 デコーダ学習結果記憶部
214 推定結果記憶部
221 ラベル刺激特徴行列生成部
223 デコーダ学習部
224 刺激特徴予測部
225 知覚認知内容推定部
DESCRIPTION OF SYMBOLS 1 Perceptual recognition content estimation system 10 Brain activity prediction apparatus 11, 21 Storage part 12, 22 Control part 20 Perceptual recognition content estimation apparatus 111, 211 Learning data storage part 112 Stimulus feature matrix storage part 113 Encoder learning result storage part 114 Predictive brain activity Storage unit 121 Stimulus feature matrix generation unit 122, 222 Brain activity matrix generation unit 123 Encoder learning unit 124 Brain activity prediction unit 212 Label feature vector storage unit 213 Decoder learning result storage unit 214 Estimation result storage unit 221 Label stimulus feature matrix generation unit 223 Decoder learning unit 224 Stimulus feature prediction unit 225 Perceptual recognition content estimation unit

Claims (13)

刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成部と、
被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成部によって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測部と
を備えることを特徴とする脳活動予測装置。
A feature matrix generation unit that generates a first feature vector in which an expression for a stimulus is projected onto a first feature space, and generates a first stimulus feature matrix that summarizes the first feature vector in time series;
The first stimulus feature matrix for the learning stimulus given to the subject, and the brain activity matrix in which brain activity vectors generated based on the measurement data obtained by measuring the brain activity for the learning stimulus are collected in time series Generated by the feature matrix generation unit for a new stimulus based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model with set data as learning data A brain activity prediction device comprising: a brain activity prediction unit that predicts the brain activity matrix for the new stimulus from the first stimulus feature matrix.
前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列と、前記脳活動行列との前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、
前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する
ことを特徴とする請求項1に記載の脳活動予測装置。
The encoder learning result generates a combined feature vector obtained by combining the stimulus component that is the first feature vector with the autoregressive component that is the brain activity vector at a past time point, and generates the combined feature vector in a time series. Learning the set data of the first stimulus feature matrix and the brain activity matrix as learning data, and learning by the regression model including the autoregressive component,
The brain activity prediction unit calculates the brain activity matrix for the new stimulus from the first stimulus feature matrix for the new stimulus based on the encoder learning result learned by the regression model including the autoregressive component. The brain activity prediction apparatus according to claim 1, wherein prediction is performed.
前記特徴行列生成部は、前記脳活動予測部により予測された前記脳活動行列に基づく過去の時点の前記脳活動ベクトルと前記第1特徴ベクトルを結合して前記結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列を前記新たな刺激に対する前記第1刺激特徴行列として、前記エンコーダ学習結果に基づいて、更新された前記脳活動行列を生成する
ことを特徴とする請求項2に記載の脳活動予測装置。
The feature matrix generation unit generates the combined feature vector by combining the brain activity vector at the past time and the first feature vector based on the brain activity matrix predicted by the brain activity prediction unit, and the combination Generating the updated brain activity matrix based on the encoder learning result using the first stimulus feature matrix generated by collecting feature vectors in time series as the first stimulus feature matrix for the new stimulus. The brain activity prediction apparatus according to claim 2, wherein the brain activity prediction apparatus is characterized.
前記脳活動は、脳を分割した立方体の単位領域であるボクセルごとに計測されており、
前記脳活動予測部は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、前記ボクセルごとに選択した前記エンコーダ学習結果に基づいて、前記ボクセルごとに前記脳活動を予測する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の脳活動予測装置。
The brain activity is measured for each voxel that is a unit area of a cube that divides the brain,
The brain activity prediction unit is configured to select the brain for each voxel based on the encoder learning result selected for each voxel based on the prediction performance at the time of learning from the plurality of encoder learning results having different learning processes. The brain activity prediction apparatus according to any one of claims 1 to 3, wherein activity is predicted.
前記第1特徴ベクトルは、深層学習モデルで算出した中間層の活性化パターンである
ことを特徴とする請求項1から請求項4のいずれか一項に記載の脳活動予測装置。
The brain activity prediction apparatus according to any one of claims 1 to 4, wherein the first feature vector is an activation pattern of an intermediate layer calculated by a deep learning model.
前記エンコーダ学習結果を生成するエンコーダ学習部を備える
ことを特徴とする請求項1から請求項5のいずれか一項に記載の脳活動予測装置。
The brain activity prediction device according to claim 1, further comprising an encoder learning unit that generates the encoder learning result.
請求項1から請求項6のいずれか一項に記載の脳活動予測装置と、
前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトル又は当該第2特徴ベクトルを時系列にまとめた前記学習用の刺激に対する第2刺激特徴行列と、前記学習用の刺激に対する前記脳活動行列との組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1刺激特徴行列から予測された前記脳活動行列とに基づいて、前記新たな刺激に対する前記第2特徴ベクトル又は前記第2刺激特徴行列を予測する刺激特徴予測部と
を備えることを特徴とする知覚認知内容推定システム。
The brain activity prediction apparatus according to any one of claims 1 to 6,
For the learning stimulus, a second feature vector is generated by projecting a label indicating the meaning content of perception of the stimulus to the second feature space, and the second feature vector or the second feature vector is generated in time series. Learning the projection relationship from the brain activity to the second feature space using the set data of the second stimulus feature matrix for the learning stimulus and the brain activity matrix for the learning stimulus as summarized. The second feature vector for the new stimulus based on the result of the decoder learning and the brain activity matrix predicted from the first stimulus feature matrix for the new stimulus by the brain activity predictor. A perceptual recognition content estimation system comprising: a stimulus feature prediction unit that predicts the second stimulus feature matrix.
前記刺激特徴予測部が予測した前記第2刺激特徴行列に含まれる時系列の第2特徴ベクトル、又は前記刺激特徴予測部が予測した前記第2特徴ベクトルと、前記第2の特徴空間に投射された前記ラベルに対応する前記第2特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する知覚認知内容推定部を備える
ことを特徴とする請求項7に記載の知覚認知内容推定システム。
The time-series second feature vector included in the second stimulus feature matrix predicted by the stimulus feature prediction unit or the second feature vector predicted by the stimulus feature prediction unit and the second feature vector are projected onto the second feature space. The perceptual recognition content estimation unit according to claim 7, further comprising a perceptual recognition content estimation unit that estimates at least one of perception and perception content based on a distance from the second feature vector corresponding to the label. Estimation system.
特徴行列生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成ステップと、
脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成ステップによって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測ステップと
を含むことを特徴とする脳活動予測方法。
A feature matrix generating step for generating a first feature vector in which a feature matrix generation unit projects a representation of a stimulus to the first feature space, and generating a first stimulus feature matrix in which the first feature vectors are grouped in time series; ,
The brain activity prediction unit summarizes the first stimulus feature matrix for the learning stimulus given to the subject and the brain activity vectors generated based on the measurement data obtained by measuring the brain activity for the learning stimulus in a time series. Based on the encoder learning result obtained by learning the projection relationship from the first feature space to the brain activity by the regression model using the combination data with the brain activity matrix as the learning data, the feature matrix for the new stimulus A brain activity prediction method comprising: predicting the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the generation step.
刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成する特徴ベクトル生成部と、
被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成部によって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測部と
を備えることを特徴とする脳活動予測装置。
A feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space;
By using a regression model in which the combination data of the first feature vector for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus is used as learning data The new stimulus from the first feature vector generated by the feature vector generation unit for the new stimulus based on the encoder learning result obtained by learning the projection relationship from the first feature space to the brain activity And a brain activity prediction unit that predicts the brain activity vector for the brain activity prediction device.
前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルと、前記脳活動ベクトルとの前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、
前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する
ことを特徴とする請求項10に記載の脳活動予測装置。
The encoder learning result generates a combined feature vector obtained by combining the stimulus component that is the first feature vector with the autoregressive component that is the brain activity vector at a past time, the combined feature vector, the brain activity vector, The set data is learned as learning data by the regression model including the autoregressive component,
The brain activity prediction unit predicts the brain activity vector for the new stimulus from the first feature vector for the new stimulus based on the encoder learning result learned by the regression model including the autoregressive component. The brain activity prediction apparatus according to claim 10, wherein:
請求項10又は請求項11に記載の脳活動予測装置と、
前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトルと、前記学習用の刺激に対する前記脳活動ベクトルとの組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1特徴ベクトルから予測された前記脳活動ベクトルとに基づいて、前記新たな刺激に対する前記第2特徴ベクトルを予測する刺激特徴予測部と
を備えることを特徴とする知覚認知内容推定システム。
The brain activity prediction apparatus according to claim 10 or 11,
For the learning stimulus, a second feature vector is generated by projecting a label indicating the meaning content of perception of the stimulus to a second feature space, and the second feature vector and the brain for the learning stimulus are generated. The decoder learning result obtained by learning the projection relation from the brain activity to the second feature space using the combination data with the activity vector as learning data, and the brain activity predicting device, the first stimulation is applied to the first stimulus. A perceptual recognition content estimation system, comprising: a stimulus feature prediction unit that predicts the second feature vector for the new stimulus based on the brain activity vector predicted from a feature vector.
特徴ベクトル生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成する特徴ベクトル生成ステップと、
脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成ステップによって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測ステップと
を含むことを特徴とする脳活動予測方法。
A feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space;
The brain activity prediction unit learns a set data of the first feature vector for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus. The first feature generated by the feature vector generation step for a new stimulus based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model as data. A brain activity prediction method comprising: predicting the brain activity vector for the new stimulus from a vector.
JP2017154590A 2017-08-09 2017-08-09 Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method Active JP6928348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017154590A JP6928348B2 (en) 2017-08-09 2017-08-09 Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154590A JP6928348B2 (en) 2017-08-09 2017-08-09 Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method

Publications (2)

Publication Number Publication Date
JP2019032767A true JP2019032767A (en) 2019-02-28
JP6928348B2 JP6928348B2 (en) 2021-09-01

Family

ID=65523573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154590A Active JP6928348B2 (en) 2017-08-09 2017-08-09 Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method

Country Status (1)

Country Link
JP (1) JP6928348B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218493A1 (en) 2019-04-26 2020-10-29 国立大学法人大阪大学 Reference stimulus
CN112633099A (en) * 2020-12-15 2021-04-09 中国人民解放军战略支援部队信息工程大学 Gabornet-based brain low-level visual area signal processing method and system
WO2024029427A1 (en) * 2022-08-01 2024-02-08 国立研究開発法人情報通信研究機構 Brain response space generation device, evaluation device, and brain response space generation method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207038A (en) * 2014-04-17 2015-11-19 日本放送協会 Video image evaluation device and program
JP2017076193A (en) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method and brain activity analysis program
US20170196497A1 (en) * 2016-01-07 2017-07-13 The Trustees Of Dartmouth College System and method for identifying ictal states in a patient
JP2017129923A (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Viewing material evaluation method, viewing material evaluation system, and program
JP2017129924A (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Material evaluation method and material evaluation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207038A (en) * 2014-04-17 2015-11-19 日本放送協会 Video image evaluation device and program
JP2017076193A (en) * 2015-10-13 2017-04-20 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method and brain activity analysis program
US20170196497A1 (en) * 2016-01-07 2017-07-13 The Trustees Of Dartmouth College System and method for identifying ictal states in a patient
JP2017129923A (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Viewing material evaluation method, viewing material evaluation system, and program
JP2017129924A (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Material evaluation method and material evaluation device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020218493A1 (en) 2019-04-26 2020-10-29 国立大学法人大阪大学 Reference stimulus
CN112633099A (en) * 2020-12-15 2021-04-09 中国人民解放军战略支援部队信息工程大学 Gabornet-based brain low-level visual area signal processing method and system
WO2024029427A1 (en) * 2022-08-01 2024-02-08 国立研究開発法人情報通信研究機構 Brain response space generation device, evaluation device, and brain response space generation method

Also Published As

Publication number Publication date
JP6928348B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
Ma et al. Hand joints-based gesture recognition for noisy dataset using nested interval unscented Kalman filter with LSTM network
JP2019528511A (en) Method for training neuron network and active learning system
JP2021503662A (en) Neural network model training
US10856815B2 (en) Generating natural language representations of mental content from functional brain images
JP6928348B2 (en) Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method
KR20190056940A (en) Method and device for learning multimodal data
JP7070252B2 (en) Performance measuring device, performance measuring method and performance measuring program
US20220207807A1 (en) Modifying an appearance of hair
CN110367976B (en) Brain wave signal detection method, related device and storage medium
CN106663210B (en) Perception-based multimedia processing
KR102424403B1 (en) Method and apparatus for predicting user state
WO2023112384A1 (en) Computer system and emotion estimation method
JP5186656B2 (en) Operation evaluation apparatus and operation evaluation method
JP4876988B2 (en) Brain computer interface device
KR102142183B1 (en) Method for estimating emotion based on psychological activity and biosignal of user and system therefor
CN108460364A (en) Method and apparatus for generating information
JP6579353B1 (en) Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus
KR102413588B1 (en) Object recognition model recommendation method, system and computer program according to training data
JP6158053B2 (en) Learning support device, learning support method, and program
US20190114934A1 (en) System and method for evaluating actions performed to achieve communications
EP3406191B1 (en) Material evaluation method and material evaluation device
Puchert et al. A3GC-IP: Attention-oriented adjacency adaptive recurrent graph convolutions for human pose estimation from sparse inertial measurements
JP2020107138A (en) Classification device, classification system, classification method and program
WO2024029427A1 (en) Brain response space generation device, evaluation device, and brain response space generation method
JP7075045B2 (en) Estimating system and estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210728

R150 Certificate of patent or registration of utility model

Ref document number: 6928348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350