JP2019032767A - Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method - Google Patents
Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method Download PDFInfo
- Publication number
- JP2019032767A JP2019032767A JP2017154590A JP2017154590A JP2019032767A JP 2019032767 A JP2019032767 A JP 2019032767A JP 2017154590 A JP2017154590 A JP 2017154590A JP 2017154590 A JP2017154590 A JP 2017154590A JP 2019032767 A JP2019032767 A JP 2019032767A
- Authority
- JP
- Japan
- Prior art keywords
- brain activity
- stimulus
- feature
- learning
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000007177 brain activity Effects 0.000 title claims abstract description 441
- 238000000034 method Methods 0.000 title claims abstract description 81
- 230000008447 perception Effects 0.000 title claims abstract description 43
- 239000011159 matrix material Substances 0.000 claims abstract description 355
- 239000013598 vector Substances 0.000 claims abstract description 312
- 238000005259 measurement Methods 0.000 claims abstract description 46
- 230000000638 stimulation Effects 0.000 claims abstract description 17
- 230000008569 process Effects 0.000 claims description 57
- 210000004556 brain Anatomy 0.000 claims description 11
- 238000013136 deep learning model Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 description 63
- 238000013500 data storage Methods 0.000 description 32
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 29
- 230000001149 cognitive effect Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 11
- 238000012886 linear function Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 238000000513 principal component analysis Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002582 magnetoencephalography Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000005857 detection of stimulus Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000000004 hemodynamic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、脳活動予測装置、知覚認知内容推定システム、及び脳活動予測方法に関する。 The present invention relates to a brain activity prediction apparatus, a perceptual recognition content estimation system, and a brain activity prediction method.
近年、動画や画像などの刺激に対する脳活動から、知覚及び認知内容を推定する技術が知られている(例えば、特許文献1を参照)。このような従来の技術では、例えば、動画や画像などの刺激と、当該刺激に対する脳活動の計測データとのペアデータの対応関係の中間表現となる特徴空間を定義し、脳活動から特徴空間への投射関係をデータから学習する。そして、従来の技術では、学習した投射関係に基づいて、新たな刺激に対する脳活動の計測データから特徴空間への投射先を予測することにより、知覚及び認知内容を推定していた。 In recent years, a technique for estimating perceptual and cognitive contents from brain activity with respect to stimuli such as moving images and images has been known (see, for example, Patent Document 1). In such a conventional technique, for example, a feature space is defined as an intermediate representation of a pair data correspondence between a stimulus such as a moving image or an image and measurement data of brain activity corresponding to the stimulus. Learn the projection relationship of In the conventional technique, the perceptual and cognitive contents are estimated by predicting the projection destination to the feature space from the measurement data of the brain activity with respect to the new stimulus based on the learned projection relation.
しかしながら、従来の技術では、新たな刺激に対して知覚及び認知内容の推定を行うたびに、新たな刺激に対する脳活動を、例えば、fMRI(functional Magnetic Resonance Imaging)などにより計測する必要があった。そのため、従来の技術では、人的、金銭的、時間的なコストを多く費やす必要があり、利便性が悪いという課題があった。 However, in the conventional technique, it is necessary to measure the brain activity for a new stimulus by, for example, fMRI (functional Magnetic Resonance Imaging) every time the perception and cognitive contents are estimated for the new stimulus. Therefore, in the conventional technique, it is necessary to spend a lot of human, financial and time costs, and there is a problem that convenience is poor.
本発明は、上記問題を解決すべくなされたもので、その目的は、知覚及び認知内容を推定する上で利便性を向上させることができる脳活動予測装置、知覚認知内容推定システム、及び脳活動予測方法を提供することにある。 The present invention has been made to solve the above problems, and its purpose is to provide a brain activity prediction apparatus, a perceptual recognition content estimation system, and a brain activity that can improve convenience in estimating perception and perception content. It is to provide a prediction method.
上記問題を解決するために、本発明の一態様は、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成部と、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成部によって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測部とを備えることを特徴とする脳活動予測装置である。 In order to solve the above problem, according to one aspect of the present invention, a first feature vector is generated by projecting an expression for a stimulus to the first feature space, and the first feature vector is collected in time series. A feature matrix generation unit for generating a matrix, the first stimulus feature matrix for the learning stimulus given to the subject, and a brain activity vector generated based on measurement data obtained by measuring the brain activity for the learning stimulus. Based on the learning result of the encoder that learned the projection relationship from the first feature space to the brain activity using a regression model with the training data as a combination with the brain activity matrix compiled in time series, A brain activity prediction unit that predicts the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the feature matrix generation unit. It is a device.
また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列と、前記脳活動行列との前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測することを特徴とする。 In one embodiment of the present invention, in the above brain activity prediction apparatus, the encoder learning result is obtained by combining the stimulus component that is the first feature vector and the autoregressive component that is the brain activity vector at a past time point. A feature vector is generated, and the combined data of the first stimulus feature matrix generated by collecting the combined feature vectors in time series and the brain activity matrix is used as learning data, and the regression model including the autoregressive component is used. The brain activity prediction unit is learning, based on the encoder learning result learned by the regression model including the autoregressive component, from the first stimulus feature matrix for the new stimulus, to the new stimulus The brain activity matrix is predicted.
また、本発明の一態様は、上記の脳活動予測装置において、前記特徴行列生成部は、前記脳活動予測部により予測された前記脳活動行列に基づく過去の時点の前記脳活動ベクトルと前記第1特徴ベクトルを結合して前記結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した前記第1刺激特徴行列を前記新たな刺激に対する前記第1刺激特徴行列として、前記エンコーダ学習結果に基づいて、更新された前記脳活動行列を生成することを特徴とする。 Further, according to one aspect of the present invention, in the brain activity prediction apparatus, the feature matrix generation unit includes the brain activity vector of the past time point based on the brain activity matrix predicted by the brain activity prediction unit, and the first The encoder learning is performed by combining the one feature vector to generate the combined feature vector, and using the first stimulus feature matrix generated by collecting the combined feature vectors in time series as the first stimulus feature matrix for the new stimulus. The updated brain activity matrix is generated based on the result.
また、本発明の一態様は、上記の脳活動予測装置において、前記脳活動は、脳を分割した立方体の単位領域であるボクセルごとに計測されており、前記脳活動予測部は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、前記ボクセルごとに選択した前記エンコーダ学習結果に基づいて、前記ボクセルごとに前記脳活動を予測することを特徴とする。 In one embodiment of the present invention, in the above brain activity prediction apparatus, the brain activity is measured for each voxel that is a unit region of a cube obtained by dividing the brain, and the brain activity prediction unit performs learning processing. The brain activity is predicted for each voxel based on the encoder learning result selected for each voxel based on the prediction performance at the time of learning from among the plurality of different encoder learning results.
また、本発明の一態様は、上記の脳活動予測装置において、前記第1特徴ベクトルは、深層学習モデルで算出した中間層の活性化パターンであることを特徴とする。 In one embodiment of the present invention, in the brain activity prediction apparatus, the first feature vector is an activation pattern of an intermediate layer calculated by a deep learning model.
また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果を生成するエンコーダ学習部を備えることを特徴とする。 One embodiment of the present invention is characterized in that the brain activity prediction apparatus includes an encoder learning unit that generates the encoder learning result.
また、本発明の一態様は、上記の脳活動予測装置と、前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトル又は当該第2特徴ベクトルを時系列にまとめた前記学習用の刺激に対する第2刺激特徴行列と、前記学習用の刺激に対する前記脳活動行列との組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1刺激特徴行列から予測された前記脳活動行列とに基づいて、前記新たな刺激に対する前記第2特徴ベクトル又は前記第2刺激特徴行列を予測する刺激特徴予測部とを備えることを特徴とする知覚認知内容推定システムである。 According to another aspect of the present invention, a second feature vector is generated by projecting, onto the second feature space, a label indicating the meaning content of perception of a stimulus for the learning activity stimulus and the learning stimulus. Then, the second feature vector or a combination data of the second stimulus feature matrix for the learning stimulus that is a time series of the second feature vector and the brain activity matrix for the learning stimulus is used as learning data. The decoder learning result obtained by learning the projection relationship from the brain activity to the second feature space, and the brain activity predicted from the first stimulus feature matrix for the new stimulus by the brain activity predicting device And a stimulus feature prediction unit that predicts the second feature vector or the second stimulus feature matrix for the new stimulus based on a matrix. A.
また、本発明の一態様は、上記の知覚認知内容推定システムにおいて、前記刺激特徴予測部が予測した前記第2刺激特徴行列に含まれる時系列の第2特徴ベクトル、又は前記刺激特徴予測部が予測した前記第2特徴ベクトルと、前記第2の特徴空間に投射された前記ラベルに対応する前記第2特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する知覚認知内容推定部を備えることを特徴とする。 According to another aspect of the present invention, in the perceptual recognition content estimation system, the time-series second feature vector included in the second stimulus feature matrix predicted by the stimulus feature prediction unit, or the stimulus feature prediction unit Perceptual recognition content for estimating at least one of perception and recognition content based on the distance between the predicted second feature vector and the second feature vector corresponding to the label projected on the second feature space An estimator is provided.
また、本発明の一態様は、特徴行列生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成し、当該第1特徴ベクトルを時系列にまとめた第1刺激特徴行列を生成する特徴行列生成ステップと、脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成ステップによって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測ステップとを含むことを特徴とする脳活動予測方法である。 Further, according to one aspect of the present invention, the feature matrix generation unit generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space, and the first stimulus feature is obtained by collecting the first feature vectors in time series. A feature matrix generation step for generating a matrix, and a brain activity prediction unit generated based on the first stimulus feature matrix for the learning stimulus given to the subject and measurement data obtained by measuring the brain activity for the learning stimulus. Based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model in which the learning data is a combination data with a brain activity matrix in which the obtained brain activity vectors are collected in time series Predicting the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the feature matrix generating step for the new stimulus; It is a brain activity prediction method, which comprises.
また、本発明の一態様は、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルをする特徴ベクトル生成部と、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成部によって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測部とを備えることを特徴とする脳活動予測装置である。 Further, according to one aspect of the present invention, a feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space, the first feature vector for a learning stimulus given to a subject, Learning the projection relationship from the first feature space to the brain activity by using a regression model with the training data as a pair with brain activity vectors generated based on the measurement data obtained by measuring the brain activity with respect to the stimulus for learning A brain activity prediction unit that predicts the brain activity vector for the new stimulus from the first feature vector generated by the feature vector generation unit for the new stimulus based on the encoder learning result. It is a characteristic brain activity prediction device.
また、本発明の一態様は、上記の脳活動予測装置において、前記エンコーダ学習結果は、前記第1特徴ベクトルである刺激成分に過去の時点の前記脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルと、前記脳活動ベクトルとの前記組データを学習データとして、前記自己回帰成分を含む前記回帰モデルにより学習されており、前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測することを特徴とする。 In one embodiment of the present invention, in the above brain activity prediction apparatus, the encoder learning result is obtained by combining the stimulus component that is the first feature vector and the autoregressive component that is the brain activity vector at a past time point. A feature vector is generated, and the set data of the combined feature vector and the brain activity vector is used as learning data to be learned by the regression model including the autoregressive component, and the brain activity prediction unit The brain activity vector for the new stimulus is predicted from the first feature vector for the new stimulus based on the encoder learning result learned by the regression model including a regression component.
また、本発明の一態様は、上記の脳活動予測装置と、前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトルと、前記学習用の刺激に対する前記脳活動ベクトルとの組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1特徴ベクトルから予測された前記脳活動ベクトルとに基づいて、前記新たな刺激に対する前記第2特徴ベクトルを予測する刺激特徴予測部とを備えることを特徴とする知覚認知内容推定システムである。 According to another aspect of the present invention, a second feature vector is generated by projecting, onto the second feature space, a label indicating the meaning content of perception of a stimulus for the learning activity stimulus and the learning stimulus. A decoder learning result obtained by learning a projection relationship from the brain activity to the second feature space, using as a learning data a set data of the second feature vector and the brain activity vector for the learning stimulus; A stimulus feature prediction unit that predicts the second feature vector for the new stimulus based on the brain activity vector predicted from the first feature vector for the new stimulus by the brain activity prediction device; It is a perceptual recognition content estimation system characterized by comprising.
また、本発明の一態様は、特徴ベクトル生成部が、刺激に対する表現を第1の特徴空間に投射した第1特徴ベクトルを生成する特徴ベクトル生成ステップと、脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成ステップによって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測ステップとを含むことを特徴とする脳活動予測方法である。 Further, according to one aspect of the present invention, the feature vector generation unit generates a first feature vector in which an expression for a stimulus is projected on the first feature space, and the brain activity prediction unit gives the subject The first feature vector for the learning stimulus and the regression model using the combination data of the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus as the learning data. The brain activity for the new stimulus from the first feature vector generated by the feature vector generation step for the new stimulus based on the encoder learning result obtained by learning the projection relationship from the feature space to the brain activity A brain activity prediction method comprising: a brain activity prediction step for predicting a vector.
本発明によれば、知覚及び認知内容を推定する上で利便性を向上させることができる。 According to the present invention, convenience can be improved in estimating perceptual and perceived contents.
以下、本発明の一実施形態による脳活動予測装置、及び知覚認知内容推定システムについて、図面を参照して説明する。 Hereinafter, a brain activity prediction apparatus and a perceptual recognition content estimation system according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本実施形態による知覚認知内容推定システム1の一例を示す概略ブロック図である。
図1に示すように、知覚認知内容推定システム1は、脳活動予測装置10と、知覚認知内容推定装置20とを備えている。知覚認知内容推定システム1は、例えば、動画(映像)、画像、音などの被験者に与えた刺激に対して、知覚及び認知内容を推定する。
FIG. 1 is a schematic block diagram showing an example of a perceptual recognition
As shown in FIG. 1, the perceptual recognition
脳活動予測装置10は、被験者に与えた刺激(例えば、動画(映像)、画像、音など)に対する被験者の脳活動を予測するエンコーダとして機能する。脳活動予測装置10は、記憶部11と、制御部12とを備えている。
記憶部11は、脳活動予測装置10が実行する処理に利用される各種情報を記憶する。記憶部11は、学習データ記憶部111と、刺激特徴行列記憶部112と、エンコーダ学習結果記憶部113と、予測脳活動記憶部114とを備えている。
The brain
The
学習データ記憶部111は、エンコーダを学習するための学習データを記憶する。学習データ記憶部111は、例えば、刺激データと、脳活動の計測データとの組データ、及び、当該組データを変換したベクトルデータの組データ、及び行列データの組データを記憶する。ここで、刺激データは、動画データ、画像データ、音データなどである。また、脳活動の計測データは、当該刺激データによる刺激を被験者に与えた場合の脳活動を計測したデータであり、例えば、fMRI(functional Magnetic Resonance Imaging)の計測データである。なお、fMRIの計測データは、被験者の脳活動に関連した血流動態反応を視覚化するfMRI信号(脳活動信号)であり、例えば、2mm×2mm×2mmの立方体を最小単位(ボクセル)とした約数万箇所を所定の時間間隔(例えば、2秒間隔)で計測したfMRI信号である。学習データ記憶部111は、このような学習用の刺激データと当該刺激データに対する脳活動の計測データとの組データを記憶する。
The learning
また、学習データ記憶部111は、上述した学習用の刺激データを変換した刺激特徴行列(第1刺激特徴行列)と、脳活動の計測データを変換した脳活動行列との組データを、ベクトルデータの組データ、及び行列データの組データとして記憶する。なお、刺激特徴行列、及び脳活動行列の詳細については後述する。
In addition, the learning
刺激特徴行列記憶部112は、脳活動を予測する際に、刺激データの特徴を抽出した特徴ベクトル(第1特徴ベクトル)を、時系列にまとめた刺激特徴行列(第1刺激特徴行列)を記憶する。
エンコーダ学習結果記憶部113は、エンコーダを機械学習した学習結果(エンコーダ学習結果)を記憶する。
予測脳活動記憶部114は、刺激データから予測した脳活動を示す情報(予測結果)を記憶する。予測脳活動記憶部114は、予測結果を予測脳活動行列として記憶する。
The stimulus feature
The encoder learning
The predicted brain
制御部12は、例えば、CPU(Central Processing Unit)などを含むプロセッサであり、脳活動予測装置10を統括的に制御する。制御部12は、例えば、エンコーダを機械学習するエンコーダ学習処理と、学習したエンコーダを用いて、刺激から脳活動を予測する脳活動予測処理とを実行する。また、制御部12は、刺激特徴行列生成部121と、脳活動行列生成部122と、エンコーダ学習部123と、脳活動予測部124とを備えている。
The
刺激特徴行列生成部121(特徴行列生成部の一例)は、刺激データから刺激特徴行列を生成する。刺激特徴行列生成部121は、刺激に対する表現を所定の特徴空間(第1の特徴空間)に投射した特徴ベクトル(第1特徴ベクトル)を生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列(第1刺激特徴行列)を生成する。刺激特徴行列生成部121は、特徴ベクトルを生成する際に、例えば、刺激の画像データに対して、深層学習モデルで算出した中間層(複数層の畳み込みニューラルネットワーク(CNN)のうちの1層)の活性化パターンを特徴ベクトルとして生成する。なお、所定の特徴空間(第1の特徴空間)としては、深層学習モデルの中間層活性化パターンの他に、例えば、時空間周波数、脳活動パターンの時間的自己相関などや、それらの組み合わせが挙げられる。また、刺激特徴行列生成部121は、エンコーダ学習処理と、脳活動予測処理とのそれぞれにおいて、刺激データから刺激特徴行列を生成する。
The stimulus feature matrix generation unit 121 (an example of a feature matrix generation unit) generates a stimulus feature matrix from stimulus data. The stimulus feature
刺激特徴行列生成部121は、エンコーダ学習処理において、学習データ記憶部111が記憶する学習用の刺激データから、被験者に与えた学習用の刺激に対する刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した刺激特徴行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。
In the encoder learning process, the stimulus feature
また、刺激特徴行列生成部121は、脳活動予測処理において、入力された新たに刺激データから、新たな刺激に対応する刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した新たな刺激に対応する刺激特徴行列を刺激特徴行列記憶部112に記憶させる。
In addition, the stimulus feature
また、刺激特徴行列生成部121は、学習に自己回帰モデル(自己回帰成分を含む回帰モデル)を利用する場合には、過去の時点の脳活動ベクトルを組み込んだ刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した特徴ベクトルである刺激成分に、過去の時点(例えば、t−1、t−2、・・・、t−k)の脳活動ベクトル(R_t−1,R_t−2,・・・,R_t−k)である自己回帰成分を結合して新しい特徴ベクトル(結合特徴ベクトル)を生成し、結合特徴ベクトルを時系列にまとめて新たな刺激特徴行列を生成する。また、刺激特徴行列生成部121は、エンコーダ学習処理と、脳活動予測処理とのそれぞれにおいて、脳活動ベクトルを組み込んだ刺激特徴行列である自己回帰モデル用の刺激特徴行列を生成する。なお、自己回帰成分を含む回帰モデルの詳細については後述する。
In addition, when using an autoregressive model (regression model including an autoregressive component) for learning, the stimulus feature
刺激特徴行列生成部121は、エンコーダ学習処理において、生成した学習用の刺激特徴行列と、後述する脳活動行列生成部122が生成した脳活動ベクトルとに基づいて、自己回帰モデル用の刺激特徴行列を生成する。刺激特徴行列生成部121は、生成した自己回帰モデル用の刺激特徴行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。
The stimulus feature
また、刺激特徴行列生成部121は、脳活動予測処理において、後述する脳活動予測部124により予測された脳活動行列に基づく過去の時点の脳活動ベクトルと、新たに刺激データから生成した刺激特徴行列に含まれる特徴ベクトルを結合して結合特徴ベクトルを生成する。そして、刺激特徴行列生成部121は、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列を新たな刺激に対する刺激特徴行列として、刺激特徴行列記憶部112に記憶させる。
In addition, in the brain activity prediction process, the stimulus feature
脳活動行列生成部122は、刺激に対する脳活動を計測した計測データから脳活動行列を生成する。脳活動行列生成部122は、学習データ記憶部111が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部122は、当該脳活動ベクトルを時系列にまとめた脳活動行列を生成する。脳活動行列生成部122は、生成した脳活動行列を学習用の組データの一部として、学習データ記憶部111に記憶させる。
The brain activity
エンコーダ学習部123は、学習データ記憶部111が記憶する刺激特徴行列と脳活動行列との組データを学習データとした回帰モデルにより、上述した所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習して、学習結果であるエンコーダ学習結果(エンコードモデル)を生成する。エンコーダ学習部123は、例えば、上述した特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰成分を含まない回帰モデルによりエンコーダを学習し、エンコーダ学習結果(自己回帰成分を含まないエンコードモデル)を生成する。エンコーダ学習部123は、例えば、上述した結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰モデル(自己回帰成分を含む回帰モデル)によりエンコーダを学習し、エンコーダ学習結果(自己回帰成分を含むエンコードモデル)を生成する。エンコーダ学習部123は、生成したエンコーダ学習結果をエンコーダ学習結果記憶部113に記憶させる。
The
ここで、本実施形態における回帰モデルでは、上述した特徴ベクトル(第1特徴ベクトル)を刺激成分として、当該特徴ベクトルに基づいて、所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習する学習モデルである。本実施形態における回帰モデルには、自己回帰成分を含まない学習データにより学習する「自己回帰成分を含まない回帰モデル」と、自己回帰成分を含む学習データにより学習する「自己回帰成分を含む回帰モデル」とが含まれる。 Here, in the regression model in the present embodiment, the above-described feature vector (first feature vector) is used as a stimulus component, and projection from a predetermined feature space (first feature space) to brain activity is performed based on the feature vector. It is a learning model that learns relationships. The regression model in this embodiment includes a “regression model that does not include an autoregressive component” that is learned using learning data that does not include an autoregressive component, and a “regression model that includes an autoregressive component” that is learned using learning data that includes an autoregressive component. Is included.
脳活動予測部124は、エンコーダを用いて、新たな刺激に対する脳活動を予測する。すなわち、脳活動予測部124は、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。
なお、本実施形態では、自己回帰モデルを利用するため、脳活動予測部124は、刺激特徴行列生成部121に対して、一旦生成した脳活動行列に基づく過去の時点の脳活動ベクトルと、刺激特徴行列に含まれる特徴ベクトルを結合した刺激特徴行列を生成させる。脳活動予測部124は、自己回帰モデルにより学習されたエンコーダ学習結果に基づいて、この更新された刺激特徴行列から、新たな刺激に対する脳活動行列を再度予測する。
The brain
In the present embodiment, since the autoregressive model is used, the brain
脳活動予測部124は、予測した脳活動行列を、予測結果として、予測脳活動記憶部114に記憶させる。
なお、脳活動行列は、ボクセル数分の要素を持つ脳活動ベクトルを時系列にまとめたものであり、各要素が、各ボクセルのfMRI信号(脳活動信号)の値に対応する。
The brain
The brain activity matrix is a time series of brain activity vectors having elements for the number of voxels, and each element corresponds to the value of the fMRI signal (brain activity signal) of each voxel.
知覚認知内容推定装置20は、被験者に与えた刺激(例えば、動画(映像)、画像、音など)に対する被験者の知覚及び認知内容を推定する。知覚認知内容推定装置20は、被験者に与えた刺激に対する脳活動の計測データの代わりに、脳活動予測装置10から刺激に対する脳活動行列を取得し、予め機械学習したデコーダを用いて、当該脳活動行列から知覚及び認知内容を推定する。また、知覚認知内容推定装置20は、記憶部21と、制御部22とを備えている。
The perceptual recognition
記憶部21は、知覚認知内容推定装置20が実行する処理に利用される各種情報を記憶する。記憶部21は、学習データ記憶部211と、ラベル特徴ベクトル記憶部212と、デコーダ学習結果記憶部213と、推定結果記憶部214とを備えている。
The
学習データ記憶部211は、デコーダを機械学習するための学習データを記憶する。学習データ記憶部211は、例えば、刺激データに対する知覚の意味内容を示すラベル情報と、脳活動の計測データとの組データ、及び、当該組データを変換したベクトルデータの組データ、及び行列データの組データを記憶する。ここで、刺激データ及び脳活動の計測データは、上述したエンコーダを学習した際に用いたデータと同一のものを用いるものとする。また、ラベル情報は、例えば、画像データに対する印象を推定したい場合には、動画刺激を所定の時間間隔で画像分割し、各画像データを説明する説明文章を言語記述(アノテーション)でラベリングした情報である。ラベル情報は、例えば、「可愛い」、「優しい」、「面白い」などの単語であってもよいし、画像データの特徴を表現する文章であってもよいし、印象の数値評定であってもよいし、画像が誘起する行動の指標でもよい。
The learning
また、学習データ記憶部211は、上述した学習用の刺激データに対するラベル情報を変換したラベル刺激特徴行列(第2刺激特徴行列)と、脳活動の計測データを変換した脳活動行列との組データを、ベクトルデータの組データ、及び行列データの組データとして記憶する。なお、ラベル刺激特徴行列、及び脳活動行列の詳細については後述する。
Further, the learning
ラベル特徴ベクトル記憶部212は、知覚及び認知内容を推定する際に比較する、ラベル情報の特徴を抽出し、所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトル(第2特徴ベクトル)を予め記憶する。ラベル特徴ベクトル記憶部212は、ラベル情報(例えば、単語など)と、当該ラベル情報に対応するラベル特徴ベクトルとを対応付けて記憶する。また、ラベル特徴ベクトル記憶部212は、デコーダの学習などで使用した際のラベル情報及びラベル特徴ベクトルを含む複数のラベル特徴ベクトルを記憶しているものとする。
The label feature
デコーダ学習結果記憶部213は、デコーダを機械学習した学習結果(デコーダ学習結果)を記憶する。
推定結果記憶部214は、脳活動(脳活動行列)から推定したラベル情報、及びラベル情報に関する情報を推定結果として記憶する。
The decoder learning
The estimation
制御部22は、例えば、CPUなどを含むプロセッサであり、知覚認知内容推定装置20を統括的に制御する。制御部22は、例えば、デコーダを機械学習するデコーダ学習処理と、学習したデコーダを用いて、知覚及び認知内容の推定、及び行動の予測などを行う知覚認知内容推定処理とを実行する。また、制御部22は、ラベル刺激特徴行列生成部221と、脳活動行列生成部222と、デコーダ学習部223と、刺激特徴予測部224と知覚認知内容推定部225とを備えている。
The
ラベル刺激特徴行列生成部221は、上述したラベル情報からラベル刺激特徴行列を生成する。ラベル刺激特徴行列生成部221は、ラベルを所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列(第2刺激特徴行列)を生成する。ラベル刺激特徴行列生成部221は、例えば、ラベル情報が、言語記述(アノテーション)の文章である場合には、文章を形態素解析で単語に分解した上で、各単語をWikipedia(登録商標)などのコーパスで作られたSkip−gram等の空間に投射し、結果得られた単語のベクトルを加重平均することで、文章ラベルのラベル特徴ベクトルを算出する。
The label stimulus feature
ラベル刺激特徴行列生成部221は、学習データ記憶部211が記憶する学習用のラベル情報から、学習用の刺激に対するラベル刺激特徴行列を生成し、生成したラベル刺激特徴行列を学習用の組データの一部として、学習データ記憶部211に記憶させる。
なお、ここでの所定の特徴空間(第2の特徴空間)は、上述したエンコーダに用いた所定の特徴空間(第1の特徴空間)と同一である必要はなく、それぞれの特徴ベクトルに合った特徴空間を用いることが望ましい。
The label stimulus feature
Note that the predetermined feature space (second feature space) here does not have to be the same as the predetermined feature space (first feature space) used for the encoder described above, and is suitable for each feature vector. It is desirable to use a feature space.
脳活動行列生成部222は、刺激に対する脳活動を計測した計測データから脳活動行列を生成する。脳活動行列生成部222は、学習データ記憶部211が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部222は、当該脳活動ベクトルを時系列にまとめた脳活動行列を生成する。脳活動行列生成部222は、生成した脳活動行列を学習用の組データの一部として、学習データ記憶部211に記憶させる。
The brain activity
デコーダ学習部223は、学習データ記憶部211が記憶するラベル特徴ベクトル又はラベル刺激特徴行列と脳活動行列との組データを学習データとして、上述した脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習して、学習結果であるデコーダ学習結果(デコードモデル)を生成する。なお、デコーダ学習部223は、自己回帰モデルによりデコーダを学習し、デコーダ学習結果(デコードモデル)を生成するようにしてもよい。デコーダ学習部223は、生成したデコーダ学習結果をデコーダ学習結果記憶部213に記憶させる。
The
刺激特徴予測部224は、デコーダを用いて、新たな刺激に対するラベル刺激特徴行列又はラベル特徴ベクトルを予測する。刺激特徴予測部224は、例えば、デコーダ学習結果記憶部213が記憶するデコーダ学習結果に基づいて、新たな刺激に対して脳活動予測装置10によって生成された脳活動行列から新たな刺激に対するラベル刺激特徴行列又はラベル特徴ベクトルを予測する。すなわち、刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して生成された脳活動行列とに基づいて、新たな刺激に対するラベル特徴ベクトル又はラベル刺激特徴行列を予測する。
The stimulus
知覚認知内容推定部225は、刺激特徴予測部224が予測した予測刺激特徴行列に含まれる時系列の特徴ベクトル又は刺激特徴予測部224が予測したラベル特徴ベクトルと、所定の特徴空間(第2の特徴空間)に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する。すなわち、知覚認知内容推定部225は、ラベル特徴ベクトル記憶部212が記憶する複数のラベル特徴ベクトルのうちから、予測した予測刺激特徴行列(ラベル刺激特徴行列)に含まれる特徴ベクトルと距離が近いラベル特徴ベクトルを抽出し、当該ラベル特徴ベクトルに対応するラベル情報を知覚又は認知内容として推定する。なお、上述した刺激特徴予測部224がラベル特徴ベクトルを予測する場合には、知覚認知内容推定部225は、予測した特徴ベクトルと距離が近いラベル特徴ベクトルを抽出し、当該ラベル特徴ベクトルに対応するラベル情報を知覚又は認知内容として推定する。知覚認知内容推定部225は、推定したラベル情報、及びラベル情報に関する情報を推定結果として推定結果記憶部214に記憶させる。ここで、ラベル情報に関する情報には、例えば、ラベル情報に関係して推定される被験者の予測行動などが含まれる。
The perceptual recognition
なお、制御部22は、推定結果記憶部214が記憶する推定結果を、新たな刺激に対する知覚及び認知内容として、知覚認知内容推定装置20の外部に出力する。
The
次に、図面を参照して、本実施形態による知覚認知内容推定システム1の動作について説明する。
図2は、本実施形態におけるエンコーダの学習処理を説明する図である。
Next, the operation of the perceptual recognition
FIG. 2 is a diagram for explaining the learning process of the encoder in the present embodiment.
図2示すように、脳活動予測装置10は、機械学習により、動画、画像、及び音声などの刺激データから脳活動を予測するエンコーダを生成する。エンコーダ学習処理において、刺激データは、所定の特徴空間(第1の特徴空間)に投射されて、刺激特徴行列に変換される。また、一方で、fMRIなどを使用して、動画、画像、及び音声などの刺激を、被験者に与えた際の脳活動データを取得する。エンコーダは、所定の特徴空間(第1の特徴空間)から脳活動への投射関係を学習して、刺激特徴行列から脳活動データを予測する。
As shown in FIG. 2, the brain
次に、図3を参照して、本実施形態によるエンコーダ学習処理の詳細について説明する。
図3は、本実施形態におけるエンコーダの学習処理の一例を示すフローチャートである。
Next, the details of the encoder learning process according to the present embodiment will be described with reference to FIG.
FIG. 3 is a flowchart illustrating an example of an encoder learning process according to the present embodiment.
図3に示すように、まず、fMRIなどの計測装置が、学習用の刺激に対する脳活動を計測する(ステップS101)。例えば、fMRIは、ボクセルごとに所定の時間間隔(例えば、2秒間隔)で、学習用の刺激に対する脳活動を計測する。 As shown in FIG. 3, first, a measurement device such as fMRI measures brain activity with respect to a learning stimulus (step S101). For example, fMRI measures brain activity for stimuli for learning at a predetermined time interval (for example, every 2 seconds) for each voxel.
次に、脳活動予測装置10の制御部12は、学習用の刺激データと、脳活動の計測結果とを取得する(ステップS102)。制御部12は、学習用の刺激データと、fMRIが計測した計測結果である計測データとの組データを取得し、当該組データを学習データ記憶部111に記憶させる。
Next, the
次に、制御部12の刺激特徴行列生成部121は、学習用の刺激データから刺激特徴行列Seを生成する(ステップS103)。刺激特徴行列生成部121は、学習データ記憶部111が記憶する学習用の刺激データから所定の特徴空間(第1の特徴空間)に投射した時系列の特徴ベクトル(Se_t1,Se_t2,・・・,Se_tn)を生成する。そして、刺激特徴行列生成部121は、当該特徴ベクトルを時系列にまとめた刺激特徴行列Seを生成する。刺激特徴行列生成部121は、生成した刺激特徴行列Seを学習用の組データの一部として、学習データ記憶部111に記憶させる。
Next, the stimulus feature
また、制御部12の脳活動行列生成部122は、脳活動の計測結果から脳活動行列Rを生成する(ステップS104)。脳活動行列生成部122は、学習データ記憶部111が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部122は、当該特徴ベクトルを時系列にまとめた脳活動行列Rを生成する。脳活動行列生成部122は、生成した脳活動行列Rを学習用の組データの一部として、学習データ記憶部111に記憶させる。
Further, the brain activity
なお、ステップS103の処理と、ステップS104の処理とは、逆の順番で実行されてもよいし、並列に実行されてもよい。 In addition, the process of step S103 and the process of step S104 may be performed in the reverse order, and may be performed in parallel.
次に、制御部12のエンコーダ学習部123は、脳活動行列Rと刺激特徴行列Seとにより特徴空間から脳活動への投射関係を学習する(ステップS105)。ここで、例えば、任意の関数fe()で表現される刺激特徴行列Seと脳活動行列Rとの関係は、以下の式(1)により表される。
Next, the
R=fe(Se,θe) ・・・ (1) R = fe (Se, θe) (1)
ここで、θeは、エンコーダパラメータを示す。
エンコーダ学習部123は、上記の式(1)を満たすエンコーダパラメータθeを回帰分析(例えば、リッジ回帰)により推定し、当該エンコーダパラメータθeを、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
なお、関数fe()が、線形関数である場合には、以下の式(2)により表される。
Here, θe indicates an encoder parameter.
The
In addition, when the function fe () is a linear function, it is represented by the following equation (2).
R=Se×We ・・・ (2) R = Se × We (2)
ここで、Weは、重み付けを示す係数行列である。
この場合、エンコーダ学習部123は、上記の式(2)を満たす係数行列Weを推定し、当該係数行列Weを、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
Here, We is a coefficient matrix indicating weighting.
In this case, the
次に、刺激特徴行列生成部121は、脳活動の過去の時系列を特徴ベクトルに連結して、刺激特徴行列Se2を生成する(ステップS106)。刺激特徴行列生成部121は、刺激特徴行列Seに含まれる時系列の特徴ベクトル(Se_t1,Se_t2,・・・,Se_tn)と、過去の時系列(例えば、t−1、t−2、・・・、t−k)の脳活動ベクトル(R_t−1,R_t−2,・・・,R_t−k)を結合して新しい特徴ベクトルSe2_t(結合特徴ベクトル)を生成する。刺激特徴行列生成部121は、結合特徴ベクトルSe2_tを時系列にまとめて新たな刺激特徴行列Se2を生成する。すなわち、刺激特徴行列生成部121は、脳活動ベクトルを組み込んだ自己回帰モデル用の刺激特徴行列Se2を生成する。刺激特徴行列生成部121は、生成した自己回帰モデル用の刺激特徴行列Se2を学習用の組データの一部として、学習データ記憶部111に記憶させる。
Next, the stimulus feature
なお、刺激特徴行列生成部121は、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を結合する際に、全ボクセルの計測信号に対して所定の次元圧縮手法(例えば、主成分分析による圧縮手法)を適用して、次元圧縮した計測信号を用いて過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する。ここで、主成分分析による処理は、例えば、全脳の数万ボクセル(ボクセル数=N)で観測される計測信号を、N次元の表現とみなし、そのN次元の空間において時間方向の信号のばらつきを上手く説明するM次元(M<N、例えば、M=1000)の低次元空間(主成分空間)の推定を行っている。刺激特徴行列生成部121は、各時刻の全脳ボクセルの計測信号を、M次元空間での表現に変換した上で、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する。
この主成分分析により次元圧縮することにより、後述するエンコーダパラメータを計算する際のリソース不足を解消することができ、また、学習データ量の不足により精度の低いエンコーダが構築されることを防止している。
Note that the stimulus feature
By performing dimension compression by this principal component analysis, it is possible to eliminate the shortage of resources when calculating encoder parameters, which will be described later, and to prevent the construction of a low-precision encoder due to the lack of learning data amount. Yes.
次に、制御部12のエンコーダ学習部123は、脳活動行列Rと刺激特徴行列Se2とにより特徴空間から脳活動への投射関係を学習する(ステップS107)。ここで、例えば、任意の関数fe()で表現される刺激特徴行列Se2と脳活動行列Rとの関係は、以下の式(1)により表される。
Next, the
R=fe(Se2,θe2) ・・・ (3) R = fe (Se2, θe2) (3)
ここで、θe2は、エンコーダパラメータを示す。
エンコーダ学習部123は、上記の式(3)を満たすエンコーダパラメータθeを回帰分析(例えば、リッジ回帰)により推定し、当該エンコーダパラメータθe2を、自己回帰成分を含む回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
なお、関数fe()が、線形関数である場合には、以下の式(4)により表される。
Here, θe2 represents an encoder parameter.
The
In addition, when the function fe () is a linear function, it is represented by the following formula (4).
R=Se2×We2 ・・・ (4) R = Se2 × We2 (4)
ここで、We2は、重み付けを示す係数行列である。
この場合、エンコーダ学習部123は、上記の式(4)を満たす係数行列We2を推定し、当該係数行列We2を、自己回帰成分を含む回帰モデルによるエンコーダ学習結果として、エンコーダ学習結果記憶部113に記憶させる。
ステップS107の処理後に、エンコーダ学習部123は、エンコーダ学習処理を終了する。
Here, We2 is a coefficient matrix indicating weighting.
In this case, the
After the process of step S107, the
なお、本実施形態において、エンコーダは、ボクセルに応じて変更してもよく、その場合、上述したエンコーダ学習処理をボクセルに応じて、複数回行ってもよい。 In the present embodiment, the encoder may be changed according to the voxel, and in that case, the encoder learning process described above may be performed a plurality of times according to the voxel.
次に、図4は、本実施形態におけるデコーダの学習処理を説明する図である。
図4示すように、知覚認知内容推定装置20は、動画、画像、及び音声などの刺激データと脳活動の計測データとの組データについて、それらの対応関係の中間表現となる所定の特徴空間(第2の特徴空間)を定義し、機械学習により、脳活動から特徴空間への投射関係を組データから学習する。デコーダは、脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習して、脳活動行列からラベル刺激特徴行列を予測する。
Next, FIG. 4 is a diagram for explaining the learning process of the decoder in the present embodiment.
As shown in FIG. 4, the perceptual recognition
次に、図5を参照して、本実施形態によるデコーダ学習処理の詳細について説明する。
図5は、本実施形態におけるデコーダの学習処理の一例を示すフローチャートである。
Next, the details of the decoder learning process according to the present embodiment will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of the learning process of the decoder in the present embodiment.
図5に示すように、まず、fMRIなどの計測装置が、学習用の刺激に対する脳活動を計測する(ステップS201)。例えば、fMRIは、ボクセルごとに所定の時間間隔(例えば、2秒間隔)で、学習用の刺激に対する脳活動を計測する。 As shown in FIG. 5, first, a measurement device such as fMRI measures brain activity with respect to a learning stimulus (step S201). For example, fMRI measures brain activity for stimuli for learning at a predetermined time interval (for example, every 2 seconds) for each voxel.
学習用の刺激データに対してラベルを付与する(ステップS202)。すなわち、学習用の刺激データに対して推定対象としたい種類の任意のラベル情報を付与する。例えば、画像に対する印象を推定したい場合は、動画による刺激を所定の時間間隔で画像分割し、各画像を説明する説明文章を言語記述(アノテーション)でラベリングする。なお、既にラベル情報が付与されている刺激データを使用する場合は、本処理を省略してもよい。 A label is assigned to the stimulus data for learning (step S202). That is, arbitrary label information of a kind desired to be estimated is given to the stimulus data for learning. For example, when it is desired to estimate an impression on an image, a stimulus by a moving image is divided into images at a predetermined time interval, and explanatory text explaining each image is labeled with a language description (annotation). Note that this processing may be omitted when using stimulus data to which label information has already been assigned.
次に、知覚認知内容推定装置20の制御部22は、学習用の刺激データのラベル情報と、脳活動の計測結果とを取得する(ステップS203)。制御部22は、学習用の刺激データのラベル情報と、fMRIが計測した計測結果である計測データとの組データを取得し、当該組データを学習データ記憶部211に記憶させる。
Next, the
次に、制御部22のラベル刺激特徴行列生成部221は、ラベルを特徴空間に投射して
ラベル刺激特徴行列Sdを生成する(ステップS204)。ラベル刺激特徴行列生成部221は、学習データ記憶部211が記憶する学習用のラベル情報を所定の特徴空間(第2の特徴空間)に投射したラベル特徴ベクトルを生成し、当該ラベル特徴ベクトル(Sd_t1,Sd_t2,・・・,Sd_tn)を時系列にまとめた学習用の刺激に対するラベル刺激特徴行列Sdを生成する。なお、ラベル刺激特徴行列生成部221は、例えば、ラベル情報が、言語記述(アノテーション)の文章である場合には、文章を形態素解析で単語に分解した上で、各単語をWikipedia(登録商標)などのコーパスで作られたSkip−gram等の空間に投射し、結果得られた単語のベクトルを加重平均することで、文章ラベルのラベル特徴ベクトルを算出する。ラベル刺激特徴行列生成部221は、生成したラベル刺激特徴行列Sdを学習用の組データの一部として、学習データ記憶部211に記憶させる。
Next, the label stimulus feature
また、制御部22の脳活動行列生成部222は、脳活動の計測結果から脳活動行列Rを生成する(ステップS205)。脳活動行列生成部222は、学習データ記憶部211が記憶するボクセル数分のfMRIの計測データを要素とする脳活動ベクトルを生成し、時間(t1,t2,・・・,tn)における脳活動ベクトル(R_t1,R_t2,・・・,R_tn)を得る。そして、脳活動行列生成部222は、当該特徴ベクトルを時系列にまとめた脳活動行列Rを生成する。脳活動行列生成部222は、生成した脳活動行列Rを学習用の組データの一部として、学習データ記憶部211に記憶させる。
Further, the brain activity
なお、ステップS204の処理と、ステップS205の処理とは、逆の順番で実行されてもよいし、並列に実行されてもよい。 In addition, the process of step S204 and the process of step S205 may be performed in the reverse order, and may be performed in parallel.
次に、制御部22のデコーダ学習部223は、脳活動行列Rとラベル刺激特徴行列Sdとにより脳活動から所定の特徴空間(第2の特徴空間)への投射関係を学習する(ステップS206)。ここで、例えば、任意の関数fd()で表現されるラベル刺激特徴行列Sdと脳活動行列Rとの関係は、以下の式(5)により表される。
Next, the
Sd=fd(R,θd) ・・・ (5) Sd = fd (R, θd) (5)
ここで、θdは、デコーダパラメータを示す。
デコーダ学習部223は、上記の式(5)を満たすデコーダパラメータθdを推定し、当該デコーダパラメータθdをデコーダ学習結果として、デコーダ学習結果記憶部213に記憶させる。
なお、関数fd()が、線形関数である場合には、以下の式(6)により表される。
Here, θd represents a decoder parameter.
The
When the function fd () is a linear function, it is expressed by the following equation (6).
Sd=R×Wd ・・・ (6) Sd = R × Wd (6)
ここで、Wdは、重み付けを示す係数行列である。
この場合、デコーダ学習部223は、上記の式(6)を満たす係数行列Wdを推定し、当該係数行列Wdをデコーダ学習結果として、デコーダ学習結果記憶部213に記憶させる。
ステップS206の処理後に、デコーダ学習部223は、デコーダ学習処理を終了する。
Here, Wd is a coefficient matrix indicating weighting.
In this case, the
After the process of step S206, the
次に、図6を参照して、知覚認知内容推定システム1による新たな刺激に対して知覚及び認知内容を推定する処理について説明する。
図6は、本実施形態による知覚認知内容推定システム1の動作の一例を示すフローチャートである。
Next, with reference to FIG. 6, a process for estimating perception and cognitive content for a new stimulus by the perceptual perception
FIG. 6 is a flowchart showing an example of the operation of the perceptual recognition
図6に示すように、知覚認知内容推定システム1の脳活動予測装置10は、新たな刺激データを取得する(ステップS301)。
次に、脳活動予測装置10は、エンコーダにより新たな刺激データから予測脳活動データを生成する(ステップS302)。ここでのエンコーダは、上述した図2及び図3に示す処理によって学習されたものである。また、予測脳活動データは、予測された脳活動行列を示している。脳活動予測装置10は、生成した予測脳活動データを知覚認知内容推定装置20に出力する。なお、脳活動予測装置10によって、予測脳活動データを生成する処理の詳細については後述する。
As shown in FIG. 6, the brain
Next, the brain
次に、知覚認知内容推定装置20は、デコーダにより、予測脳活動データから知覚及び認知内容を推定する(ステップS303)。ここでのデコーダは、上述した図4及び図5に示す処理によって学習されたものである。なお、知覚認知内容推定装置20によって、知覚及び認知内容を推定する処理の詳細については後述する。
Next, the perceived and recognized
次に、知覚認知内容推定装置20は、推定結果を出力する(ステップS304)。ステップS304の処理後に、知覚認知内容推定システム1は、新たな刺激に対して知覚及び認知内容を推定する処理を終了する。
Next, the perceptual recognition
次に、図7を参照して、脳活動予測装置10による上述したステップS302の処理の詳細について説明する。
図7は、本実施形態における脳活動の予測処理の一例を示すフローチャートである。
Next, with reference to FIG. 7, the detail of the process of step S302 mentioned above by the brain
FIG. 7 is a flowchart showing an example of a brain activity prediction process in the present embodiment.
図7に示すように、脳活動予測装置10の制御部12は、新たな刺激データから刺激特徴行列Sを生成する(ステップS401)。制御部12の刺激特徴行列生成部121は、入力された新たに刺激データから、新たな刺激に対応する刺激特徴行列Sを生成する。刺激特徴行列生成部121は、生成した新たな刺激に対応する刺激特徴行列Sを刺激特徴行列記憶部112に記憶させる。
As shown in FIG. 7, the
次に、制御部12の脳活動予測部124は、エンコーダにより刺激特徴行列Sから予測される脳活動行列R*を一旦生成する(ステップS402)。脳活動予測部124は、刺激特徴行列記憶部112が記憶する刺激特徴行列Sと、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果であるエンコーダパラメータθeとに基づいて、下記の式(7)により、脳活動行列R*を予測する。なお、「R*」の「*」は、予測値であることを示している。以下の説明において、「*」は、予測値に付与されるものとして説明する。また、ここでのエンコーダパラメータθeは、自己回帰成分を含まない回帰モデルによるエンコーダ学習結果である。
Next, the brain
R*=fe(S,θe) ・・・ (7) R * = fe (S, θe) (7)
なお、脳活動予測部124は、関数fe()が、線形関数である場合には、以下の式(8)により、脳活動行列R*を予測する。
The brain
R*=S×We ・・・ (8) R * = S × We (8)
この場合、係数行列Weは、エンコーダ学習結果記憶部113が記憶する自己回帰成分を含まない回帰モデルによるエンコーダ学習結果である。
In this case, the coefficient matrix We is an encoder learning result based on a regression model that does not include the autoregressive component stored in the encoder learning
次に、刺激特徴行列生成部121は、脳活動行列R*から過去の時系列を特徴ベクトルに連結して、刺激特徴行列S2を生成する(ステップS403)。刺激特徴行列生成部121は、脳活動行列R*に基づいて、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成し、エンコーダ学習処理と同様に、当該過去の時系列の脳活動ベクトル(自己回帰ベクトル)と、刺激特徴行列Sの特徴ベクトルとを連結して、自己回帰モデル用の刺激特徴行列S2を生成する。なお、刺激特徴行列生成部121は、過去の時系列の脳活動ベクトル(自己回帰ベクトル)を生成する際に、上述したエンコーダ学習処理と同様に、主成分分析により次元圧縮する処理を実行する。
Next, the stimulus feature
次に、脳活動予測部124は、エンコーダにより刺激特徴行列S2から予測される脳活動行列R2*を生成する(ステップS404)。脳活動予測部124は、自己回帰モデル用の刺激特徴行列S2と、エンコーダ学習結果記憶部113が記憶するエンコーダ学習結果であるエンコーダパラメータθe2とに基づいて、下記の式(9)により、脳活動行列R2*を予測する。ここでのエンコーダパラメータθe2は、自己回帰成分を含む回帰モデルによるエンコーダ学習結果である。
Next, the brain
R2*=fe(S2,θe2) ・・・ (9) R2 * = fe (S2, θe2) (9)
なお、脳活動予測部124は、関数fe()が、線形関数である場合には、以下の式(10)により、脳活動行列R2*を予測する。
The brain
R2*=S2×We2 ・・・ (10) R2 * = S2 × We2 (10)
この場合、係数行列We2は、エンコーダ学習結果記憶部113が記憶する自己回帰成分を含む回帰モデルによるエンコーダ学習結果である。
ステップS404の処理後に、脳活動予測装置10は、脳活動の予測処理を終了する。
なお、ボクセルごとに、異なるエンコーダを用いる場合には、上述したステップS402からステップS404の処理を、ボクセルの数分繰り返してもよい。すなわち、脳活動予測部124は、学習処理の異なる複数のエンコーダ学習結果のうちから、学習時の予測性能に応じてボクセルごとに選択したエンコーダ学習結果に基づいて、ボクセルごとに脳活動を予測するようにしてもよい。
In this case, the coefficient matrix We2 is an encoder learning result based on a regression model including an autoregressive component stored in the encoder learning
After the process of step S404, the brain
In addition, when using a different encoder for every voxel, you may repeat the process of step S402 mentioned above from step S404 by the number of voxels. That is, the brain
また、脳活動予測部124は、例えば、学習時の予測性能に基づいて、ステップS402の処理のみ(自己回帰成分を含まない回帰モデルによって学習したエンコーダ)により脳活動を予測するのか、自己回帰モデルを使用したステップS402からステップS404の処理(自己回帰成分を含む回帰モデルによって学習したエンコーダ)により脳活動を予測するのか、を選択して実行してもよい。なお、脳活動予測部124は、自己回帰成分を含まない回帰モデルによって学習した場合には、予測の際に、自己回帰成分を含まない回帰モデルによって学習したエンコーダを選択し、自己回帰成分を含む回帰モデルによって学習した場合には、予測の際に、自己回帰成分を含む回帰モデルによって学習したエンコーダを選択する必要がある。すなわち、自己回帰成分を含むか否かの観点で、学習する回帰モデルと予測するエンコーダとを一致させる必要がある。また、ステップS402の処理のみにより脳活動を予測する場合には、脳活動予測装置10は、脳活動行列R*を脳活動行列R2*として出力する。
In addition, the brain
次に、図8及び図9を参照して、知覚認知内容推定装置20による上述したステップS303の処理の詳細について説明する。
図8は、本実施形態における知覚及び認知内容の推定処理の一例を示すフローチャートである。
Next, with reference to FIG.8 and FIG.9, the detail of the process of step S303 mentioned above by the perceptual recognition
FIG. 8 is a flowchart showing an example of perception and recognition content estimation processing in the present embodiment.
図8に示すように知覚認知内容推定装置20の制御部22は、予測した脳活動行列R2*を取得する(ステップS501)。制御部12は、脳活動予測装置10が新たに刺激データから予測した脳活動行列R2*を取得する。
As shown in FIG. 8, the
次に、制御部22の刺激特徴予測部224は、デコーダにより脳活動行列R2*から予測刺激特徴行列S*(ラベル刺激特徴行列)を生成する(ステップS502)。刺激特徴予測部224は、取得した脳活動行列R2*と、デコーダ学習結果記憶部213が記憶するデコーダ学習結果であるデコーダパラメータθdとに基づいて、下記の式(11)により予測刺激特徴行列S*を予測する。
Next, the stimulus
S*=fd(R2*,θd) ・・・ (11) S * = fd (R2 *, θd) (11)
なお、刺激特徴予測部224は、関数fd()が、線形関数である場合には、以下の式(12)により、予測刺激特徴行列S*を予測する。
Note that when the function fd () is a linear function, the stimulus
S*=R2*×Wd ・・・ (12) S * = R2 * × Wd (12)
この場合、係数行列Wdは、デコーダ学習結果記憶部213が記憶するデコーダ学習結果である。
In this case, the coefficient matrix Wd is a decoder learning result stored in the decoder learning
次に、制御部22の知覚認知内容推定部225は、予測刺激特徴行列S*に含まれる時系列の特徴ベクトルと、ラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容を推定する(ステップS503)。知覚認知内容推定部225は、例えば、予測刺激特徴行列S*に含まれる特徴ベクトルと、ラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルとの特徴空間(第2の特徴空間)上の距離を算出する。ここで、知覚認知内容推定部225は、特徴空間(第2の特徴空間)上の距離として、例えば、ユークリッド距離、マハラノビス距離などの統計的距離を算出する。知覚認知内容推定部225は、例えば、ラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルのうち、算出した距離が近い(例えば、最も近い)ラベル特徴ベクトルに対応するラベル情報を、推定結果として選定する。
Next, the perceptual recognition
なお、知覚認知内容推定部225は、図9に示すように、刺激特徴予測部224によって予測された特徴ベクトル、及びラベル特徴ベクトル記憶部212が記憶するラベル特徴ベクトルを、特徴空間(第2の特徴空間)上に投射する。特徴ベクトルとラベル特徴ベクトルとの距離を算出する。
As shown in FIG. 9, the perceptual recognition
ここで、図9は、本実施形態におけるラベルの特徴空間の一例を示す図である。
図9において、N次元のラベルの特徴空間(第2の特徴空間)を示している。また、特徴ベクトル(×印)は、刺激特徴予測部224によって予測された予測刺激特徴行列S*に含まれる特徴ベクトルの投射位置の一例を示している。また、「ラベルAベクトル」は、「ラベルA」に対応するラベル特徴ベクトルの投射位置を示し、「ラベルBベクトル」は、「ラベルB」に対応するラベル特徴ベクトルの投射位置を示している。また、「ラベルCベクトル」は、「ラベルC」に対応するラベル特徴ベクトルの投射位置を示している。
Here, FIG. 9 is a diagram illustrating an example of a feature space of a label in the present embodiment.
FIG. 9 shows a feature space (second feature space) of an N-dimensional label. The feature vector (x mark) shows an example of the projection position of the feature vector included in the predicted stimulus feature matrix S * predicted by the stimulus
図9に示す例では、「ラベルAベクトル」及び「ラベルBベクトル」と、特徴ベクトル(×印)との距離が近いため、知覚認知内容推定部225は、知覚及び認知内容として、最近傍の「ラベルA」、次に「ラベルB」を推定する。
In the example illustrated in FIG. 9, since the distance between the “label A vector” and the “label B vector” and the feature vector (× mark) is short, the perceptual recognition
ステップS503の処理後に、知覚認知内容推定装置20は、知覚及び認知内容の推定処理を終了する。
After the process of step S503, the perceptual recognition
以上説明したように、本実施形態による脳活動予測装置10は、刺激特徴行列生成部121(特徴行列生成部)と、脳活動予測部124とを備える。刺激特徴行列生成部121は、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列(第1刺激特徴行列)を生成する。脳活動予測部124は、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、第1の特徴空間から脳活動への投射関係を学習した学習結果である。
As described above, the brain
これにより、本実施形態による脳活動予測装置10は、例えば、新たな刺激に対する脳活動から知覚及び認知内容を推定する際に、脳活動を予測するため、新たな刺激に対する脳活動をfMRIなどにより計測する必要がない。そのため、本実施形態による脳活動予測装置10は、fMRIなどによる脳活動の計測に要していた、人的、金銭的、時間的なコストを低減することができ、知覚及び認知内容を推定する上で利便性を向上させることができる。また、本実施形態による脳活動予測装置10は、脳活動に基づく知覚及び認知内容、行動などの推定技術の汎用性を向上させることができる。
Thereby, the brain
また、本実施形態では、エンコーダ学習結果は、特徴ベクトルである刺激成分に過去の時点の脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列と、脳活動行列との組データを学習データとして、自己回帰モデル(自己回帰成分を含む回帰モデル)により学習されている。そして、脳活動予測部124は、自己回帰モデル(自己回帰成分を含む回帰モデル)により学習されたエンコーダ学習結果に基づいて、新たな刺激に対する刺激特徴行列から新たな刺激に対する脳活動行列を予測する。また、刺激特徴行列生成部121は、脳活動予測部124により予測された脳活動行列に基づく過去の時点の脳活動ベクトルと特徴ベクトルを結合して結合特徴ベクトルを生成し、当該結合特徴ベクトルを時系列にまとめて生成した刺激特徴行列を新たな刺激に対する刺激特徴行列として、エンコーダ学習結果に基づいて、更新された脳活動行列を生成する。
In this embodiment, the encoder learning result is generated by combining a stimulus component that is a feature vector with an autoregressive component that is a brain activity vector at a past time point and combining the combined feature vectors in time series. The learning is performed by using an autoregressive model (regression model including an autoregressive component) using the combination data of the stimulus feature matrix and the brain activity matrix generated as learning data. Then, the brain
これにより、本実施形態による脳活動予測装置10は、脳活動の内因的な時間的依存性をモデル化した自己回帰モデル(自己回帰成分を含む回帰モデル)を取り入れ、外因性と内因性との予測モデルを組み合わせることで、脳活動の予測精度をさらに向上させることができる。
Thereby, the brain
また、本実施形態では、脳活動は、脳を分割した立方体の単位領域であるボクセルごとに計測されている。脳活動予測部124は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、ボクセルごとに選択したエンコーダ学習結果に基づいて、ボクセルごとに脳活動を予測するようにしてもよい。
これにより、本実施形態による脳活動予測装置10は、ボクセルごと適切なエンコーダを使用して脳活動を予測するため、脳活動の予測精度をさらに向上させることができる。
In the present embodiment, the brain activity is measured for each voxel, which is a cubic unit region obtained by dividing the brain. The brain
Thereby, since the brain
また、本実施形態では、特徴ベクトルは、深層学習モデルで算出した中間層の活性化パターンである。
これにより、本実施形態による脳活動予測装置10は、既に有効性が分かっている中間層の活性化パターンを利用することができるため、簡易な手法により、脳活動の予測精度をさらに向上させることができる。
In the present embodiment, the feature vector is an activation pattern of the intermediate layer calculated by the deep learning model.
Thereby, since the brain
また、本実施形態による脳活動予測装置10は、エンコーダ学習結果を生成するエンコーダ学習部123を備える。
これにより、本実施形態による脳活動予測装置10は、自装置においてエンコーダの学習が可能になるため、知覚及び認知内容を推定する上でさらに利便性を向上させることができる。
Moreover, the brain
Thereby, since the brain
また、本実施形態による知覚認知内容推定システム1は、上述した脳活動予測装置10と、刺激特徴予測部224とを備える。刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して刺激特徴行列(第1刺激特徴行列)から予測された脳活動行列とに基づいて、新たな刺激に対するラベル特徴ベクトル(第2特徴ベクトル)又はラベル刺激特徴行列(第2刺激特徴行列)を予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトル(第2特徴ベクトル)又は当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列(第2刺激特徴行列)と、学習用の刺激に対する脳活動行列との組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。
In addition, the perceptual recognition
これにより、本実施形態による知覚認知内容推定システム1は、例えば、新たな刺激に対する脳活動から知覚及び認知内容を推定する際に、脳活動予測装置10が予測した脳活動である脳活動行列を使用するため、新たな刺激に対する脳活動をfMRIなどにより計測する必要がない。よって、本実施形態による知覚認知内容推定システム1は、上述した本実施形態による脳活動予測装置10と同様に、知覚及び認知内容を推定する上で利便性を向上させることができる。
Thereby, the perceptual recognition
また、本実施形態による知覚認知内容推定システム1は、刺激特徴予測部224が予測したラベル刺激特徴行列(予測刺激特徴行列)に含まれる時系列の特徴ベクトル、又は刺激特徴予測部224が予測したラベル特徴ベクトルと、第2の特徴空間に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する知覚認知内容推定部225を備える。
これにより、本実施形態による知覚認知内容推定システム1は、新たな刺激に対する脳活動をfMRIなどにより計測する必要なしに、第2の特徴空間の距離を用いるという簡易な手法により、知覚及び認知内容を適切に推定することできる。
Further, the perceptual recognition
As a result, the perceptual and perceptual
また、本実施形態による脳活動予測方法は、特徴行列生成ステップと、予測する脳活動予測ステップとを含む。特徴行列生成ステップにおいて、刺激特徴行列生成部121が、刺激に対する表現を第1の特徴空間に投射した特徴ベクトルを生成し、当該特徴ベクトルを時系列にまとめた刺激特徴行列を生成する。予測する脳活動予測ステップにおいて、脳活動予測部124が、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された刺激特徴行列から新たな刺激に対する脳活動行列を予測する。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとして、第1の特徴空間から脳活動への投射関係を学習した学習結果である。
これにより、本実施形態による脳活動予測方法は、上述した本実施形態による脳活動予測装置10と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
The brain activity prediction method according to the present embodiment includes a feature matrix generation step and a brain activity prediction step for prediction. In the feature matrix generation step, the stimulus feature
Accordingly, the brain activity prediction method according to the present embodiment estimates the perceptual and cognitive contents without the need to measure the brain activity with respect to a new stimulus by fMRI or the like, similar to the brain
また、本実施形態による知覚認知内容推定方法は、上述した特徴行列生成ステップ及び予測する脳活動予測ステップと、刺激特徴予測ステップと、知覚認知内容推定ステップとを含む。刺激特徴予測ステップにおいて、刺激特徴予測部224が、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して刺激特徴行列から予測された脳活動行列とに基づいて、新たな刺激に対するラベル刺激特徴行列を予測刺激特徴行列として予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトルを生成し、当該ラベル特徴ベクトルを時系列にまとめた学習用の刺激に対するラベル刺激特徴行列と、学習用の刺激に対する脳活動行列との組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。そして、知覚認知内容推定ステップにおいて、刺激特徴予測部224が予測した予測刺激特徴行列に含まれる時系列の特徴ベクトルと、第2の特徴空間に投射されたラベルに対応するラベル特徴ベクトルとの距離に基づいて、知覚及び認知内容のいずれかを少なくとも推定する。
これにより、本実施形態による知覚認知内容推定方法は、上述した本実施形態による脳活動予測方法と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
The perceptual recognition content estimation method according to the present embodiment includes the above-described feature matrix generation step, the predicted brain activity prediction step, the stimulus feature prediction step, and the perceptual recognition content estimation step. In the stimulus feature prediction step, the stimulus
As a result, the perceptual recognition content estimation method according to the present embodiment does not need to measure brain activity in response to a new stimulus by fMRI or the like, similar to the brain activity prediction method according to the present embodiment described above, and estimates perception and perception content. The convenience can be improved.
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記実施形態の知覚認知内容推定システム1は、脳活動予測装置10と、知覚認知内容推定装置20とを備える例を説明したが、これに限定されるものではない。例えば、知覚認知内容推定装置20に、脳活動予測装置10が含まれる構成であってもよい。
The present invention is not limited to the above embodiments, and can be modified without departing from the spirit of the present invention.
For example, although the perceptual recognition
また、上記実施形態の脳活動予測装置10は、エンコーダ学習部123を備える例を説明したが、エンコーダ学習部123を備えない構成であってもよい。また、脳活動予測装置10は、内部に記憶部11を備える例を説明したが、記憶部11の一部又は全部を、脳活動予測装置10の外部に備えてもよい。例えば、記憶部11の一部又は全部をネットワーク上の記憶装置の内部に備えてもよい。
また、上記実施形態の脳活動予測装置10は、1台の装置として説明したが、複数の装置で構成されるようにしてもよい。
Moreover, although the example provided with the
Moreover, although the brain
また、上記実施形態の知覚認知内容推定装置20は、デコーダ学習部223を備える例を説明したが、デコーダ学習部223を備えない構成であってもよい。また、知覚認知内容推定装置20は、内部に記憶部21を備える例を説明したが、記憶部21の一部又は全部を、知覚認知内容推定装置20の外部に備えてもよい。例えば、記憶部21の一部又は全部をネットワーク上の記憶装置の内部に備えてもよい。
また、上記実施形態の知覚認知内容推定装置20は、1台の装置として説明したが、複数の装置で構成されるようにしてもよい。
Further, although the example in which the perceptual recognition
Moreover, although the perceptual recognition
また、上記実施形態において、エンコーダの学習処理に、自己回帰成分を含む回帰モデル(自己回帰モデル)を利用する例を説明したが、自己回帰成分を含まない回帰モデルによりエンコーダを学習してもよい。また、自己回帰成分を含む回帰モデル(自己回帰モデル)を利用する際に、自己回帰ベクトルを、主成分分析により次元圧縮する例を説明したが、これに限定されるものではなく、エンコーダパラメータを計算する際のリソース不足が問題にならなければ、次元圧縮を行わない形態であってもよい。 In the above embodiment, an example in which a regression model including an autoregressive component (autoregressive model) is used for the learning process of the encoder has been described. However, the encoder may be learned using a regression model that does not include an autoregressive component. . In addition, when using a regression model including an autoregressive component (autoregressive model), an example in which the autoregressive vector is dimensionally compressed by principal component analysis has been described. However, the present invention is not limited to this. If a shortage of resources at the time of calculation does not become a problem, a form in which dimension compression is not performed may be used.
また、上記実施形態において、脳活動を計測する手段としてfMRIを用いる例を説明したが、これに限定されるものではない。例えば、fMRIの代わりに、MEG(脳磁図:Magnetoencephalography)やEEG(脳波計:Electroencephalogram)、等を用いてもよい。なお、脳活動を計測する手段としてMEG又はEEGを用いた場合には、脳波の強度、脳波の各周波数帯におけるパワーや位相などを計測データとして、脳活動行列が生成されるようにしてもよい。 Moreover, although the example which uses fMRI as a means to measure a brain activity was demonstrated in the said embodiment, it is not limited to this. For example, MEG (magnetoencephalography) or EEG (electroencephalogram) may be used instead of fMRI. When MEG or EEG is used as a means for measuring brain activity, a brain activity matrix may be generated using the intensity of brain waves, power and phase in each frequency band of brain waves as measurement data. .
また、上記実施形態において、学習モデルとして深層学習モデルを用いて特徴ベクトルを生成する例を説明したが、これに限定されるものではなく、他の学習モデルを用いて特徴ベクトルを生成するようにしてもよい。例えば、運動エネルギーモデルを用いた場合には、動画に含まれる運動成分(時空間周波数成分)を特徴ベクトルとして利用してもよい。また、例えば、ガボールモデルを用いた場合は、動画像に含まれる空間周波数成分を特徴ベクトルとして利用してもよい。また、深層学習以外の既存のコンピュータビジョンのモデル(例えば、SHIFT、HMAXなど)を利用して特徴ベクトルを生成するようにしてもよい。また、刺激データは、動画及び画像などの視覚成分に限定されるものではなく、聴覚成分など他の感覚種の信号を用いて特徴ベクトルを生成するようにしてもよい。 In the above-described embodiment, the example in which the feature vector is generated using the deep learning model as the learning model has been described. However, the present invention is not limited to this, and the feature vector is generated using another learning model. May be. For example, when a kinetic energy model is used, a kinetic component (a spatio-temporal frequency component) included in a moving image may be used as a feature vector. For example, when a Gabor model is used, a spatial frequency component included in a moving image may be used as a feature vector. Further, a feature vector may be generated using an existing computer vision model (for example, SHIFT, HMAX, etc.) other than deep learning. The stimulus data is not limited to visual components such as moving images and images, and feature vectors may be generated using signals of other sensory types such as auditory components.
また、例えば、音声信号の基本的な特徴(周波数、強度、時間的パターン)などを抽出し、特徴ベクトルとして用いるようにしてもよいし、音声認識などを用いて検出した動画及び音声刺激内で提示された言葉の内容を検出し、特徴ベクトルとして用いるようにしてもよい。このような聴覚成分のモデルは、視覚成分のモデルと組み合わせて用いることが可能であり、多種の感覚種のモデルを組み合わせたうえで、一つの回帰モデルを作成するようにしてもよい。 Also, for example, basic features (frequency, intensity, temporal pattern) of an audio signal may be extracted and used as a feature vector, or within a moving image and audio stimulus detected using audio recognition or the like. The content of the presented word may be detected and used as a feature vector. Such an auditory component model can be used in combination with a visual component model, and a single regression model may be created after combining models of various sensory species.
また、上記実施形態において、式(1)又は式(2)により、自己回帰成分を含まない回帰モデルにより学習した結果を、図7のステップS402の処理で利用する例を説明したが、これに限定されるものではない。例えば、己回帰成分を含む回帰モデルにより学習した結果から、自己回帰成分を含まない回帰モデルに対応する成分を抽出し、この抽出成分を学習結果として、図7のステップS402において利用してもよい。この場合には、図3のステップS105の自己回帰成分を含まない回帰モデルによる学習処理を実行しなくてもよい。 Moreover, in the said embodiment, although the example used by the process of step S402 of FIG. 7 demonstrated the result learned by the regression model which does not contain an autoregressive component by Formula (1) or Formula (2), It is not limited. For example, a component corresponding to a regression model that does not include an autoregressive component is extracted from the result of learning using a regression model that includes a self-regressive component, and this extracted component may be used as a learning result in step S402 in FIG. . In this case, it is not necessary to execute the learning process using the regression model that does not include the autoregressive component in step S105 in FIG.
また、上記実施形態において、エンコーダは、学習する際の学習データを刺激特徴行列(第1刺激特徴行列)と脳活動行列との組データとし、刺激特徴行列(第1刺激特徴行列)から脳活動行列を予測するものとしたが、これに限定されるものではない。例えば、エンコーダは、学習する際の学習データを特徴ベクトル(第1特徴ベクトル)と脳活動ベクトルとの組データとし、特徴ベクトル(第1特徴ベクトル)から脳活動ベクトルを予測するようにしてもよい。また、デコーダについて、同様に、学習データ、入力データ、及び予測データに、行列の代わりにベクトルを用いるようにしてもよい。 In the above embodiment, the encoder uses learning data at the time of learning as set data of a stimulus feature matrix (first stimulus feature matrix) and a brain activity matrix, and the brain activity from the stimulus feature matrix (first stimulus feature matrix). Although the matrix is assumed to be predicted, the present invention is not limited to this. For example, the encoder may use learning data for learning as set data of a feature vector (first feature vector) and a brain activity vector, and predict the brain activity vector from the feature vector (first feature vector). . Similarly, a decoder may use a vector instead of a matrix for learning data, input data, and prediction data.
例えば、刺激特徴行列生成部121(特徴ベクトル生成部)は、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成する。脳活動予測部124は、エンコーダ学習結果に基づいて、新たな刺激に対して刺激特徴行列生成部121によって生成された特徴ベクトルから新たな刺激に対する脳活動ベクトルを予測するようにしてもよい。ここで、エンコーダ学習結果は、被験者に与えた学習用の刺激に対する特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、特徴ベクトルから脳活動への投射関係を学習した学習結果である。脳活動予測装置10は、このような刺激特徴行列生成部121(特徴ベクトル生成部)と脳活動予測部124とを備えてもよい。
この場合の脳活動予測装置10は、上述した行列を用いた脳活動予測装置10と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
For example, the stimulus feature matrix generation unit 121 (feature vector generation unit) generates a feature vector (first feature vector) obtained by projecting an expression for a stimulus to the first feature space. The brain
The brain
また、例えば、上述のエンコーダ学習結果は、特徴ベクトル(第1特徴ベクトル)である刺激成分に過去の時点の脳活動ベクトルである自己回帰成分を結合した結合特徴ベクトルを生成し、当該結合特徴ベクトルと、脳活動ベクトルとの組データを学習データとして、自己回帰成分を含む回帰モデルにより学習されてもよい。そして、脳活動予測部124は、自己回帰成分を含む回帰モデルにより学習されたエンコーダ学習結果に基づいて、新たな刺激に対する特徴ベクトル(第1特徴ベクトル)から新たな刺激に対する脳活動ベクトルを予測するようにしてもよい。
Further, for example, the encoder learning result described above generates a combined feature vector in which an autoregressive component that is a brain activity vector at a past time is combined with a stimulus component that is a feature vector (first feature vector), and the combined feature vector Further, learning may be performed by a regression model including an autoregressive component, using the combination data of the brain activity vector as learning data. Then, the brain
また、例えば、知覚認知内容推定システム1は、行列の代わりにベクトルを用いた脳活動予測装置と、刺激特徴予測部224とを備えてもよい。ここでの刺激特徴予測部224は、デコーダ学習結果と、脳活動予測装置10によって、新たな刺激に対して特徴ベクトル(第1特徴ベクトル)から予測された脳活動ベクトルとに基づいて、新たな刺激に対するラベル特徴ベクトル(第2特徴ベクトル)を予測する。ここで、デコーダ学習結果は、学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射したラベル特徴ベクトル(第2特徴ベクトル)を生成し、当該ラベル特徴ベクトル(第2特徴ベクトル)と、学習用の刺激に対する脳活動ベクトルとの組データを学習データとして、脳活動から第2の特徴空間への投射関係を学習した学習結果である。
In addition, for example, the perceptual recognition
また、例えば、本実施形態の脳活動予測方法は、特徴ベクトル生成ステップと、脳活動予測ステップとを含んでもよい。この場合、特徴ベクトル生成ステップにおいて、刺激特徴行列生成部121(特徴ベクトル生成部)が、刺激に対する表現を第1の特徴空間に投射した特徴ベクトル(第1特徴ベクトル)を生成する。そして、脳活動予測ステップにおいて、脳活動予測部124は、行列の代わりにベクトルを用いて学習したエンコーダ学習結果に基づいて、新たな刺激に対して特徴ベクトル生成ステップによって生成された特徴ベクトル(第1特徴ベクトル)から新たな刺激に対する脳活動ベクトルを予測する。
この場合の脳活動予測方法は、上述した行列を用いた脳活動予測方法と同様に、新たな刺激に対する脳活動をfMRIなどにより計測する必要がなく、知覚及び認知内容を推定する上で利便性を向上させることができる。
For example, the brain activity prediction method of the present embodiment may include a feature vector generation step and a brain activity prediction step. In this case, in the feature vector generation step, the stimulus feature matrix generation unit 121 (feature vector generation unit) generates a feature vector (first feature vector) obtained by projecting an expression for the stimulus to the first feature space. Then, in the brain activity predicting step, the brain
The brain activity prediction method in this case does not need to measure brain activity in response to a new stimulus by fMRI or the like, as in the brain activity prediction method using the matrix described above, and is convenient in estimating perceptual and cognitive contents. Can be improved.
なお、深層学習のような近年の機械学習手法では、自然な動画像入力に対して、物体カテゴリ名や自然言語文でラベル付けを行う技術が提供されている。このような従来の技術では、例えば、動画や画像などに対するラベル情報を推定する場合に、機械学習に用いたラベル情報が推定対象となる。 In recent machine learning techniques such as deep learning, a technique for labeling a natural moving image input with an object category name or a natural language sentence is provided. In such a conventional technique, for example, when label information for a moving image or an image is estimated, the label information used for machine learning is an estimation target.
これに対して、上述した本実施形態による知覚認知内容推定システム1は、脳活動予測装置10のエンコーダと知覚認知内容推定装置20のデコーダとを直列に接続することにより、エンコーダ処理により脳活動を予測した後に、デコーダ処理によりラベル情報を推定する。
これにより、本実施形態による知覚認知内容推定システム1では、情感や印象といった人間の感性や行動に関わるラベル付けが可能になり、機械学習に用いたラベル情報以外のラベル付が可能になる。このように、本実施形態による知覚認知内容推定システム1は、より多様な知覚及び認知内容のラベル情報の推定が可能となり、機械学習を利用した動画や画像などの自動的なラベル付け技術の汎用性、及び利便性を向上させることができる。
On the other hand, the perceptual recognition
Thereby, in the perceptual recognition
なお、上述した知覚認知内容推定システム1が備える各構成は、内部に、コンピュータシステムを有している。そして、上述した知覚認知内容推定システム1が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した知覚認知内容推定システム1が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
Each component included in the perceptual recognition
Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に知覚認知内容推定システム1が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. In addition, after dividing a program into a plurality of parts and downloading them at different timings, the composition of the perceptual recognition
また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Moreover, you may implement | achieve part or all of the function mentioned above as integrated circuits, such as LSI (Large Scale Integration). Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.
1 知覚認知内容推定システム
10 脳活動予測装置
11、21 記憶部
12、22 制御部
20 知覚認知内容推定装置
111、211 学習データ記憶部
112 刺激特徴行列記憶部
113 エンコーダ学習結果記憶部
114 予測脳活動記憶部
121 刺激特徴行列生成部
122、222 脳活動行列生成部
123 エンコーダ学習部
124 脳活動予測部
212 ラベル特徴ベクトル記憶部
213 デコーダ学習結果記憶部
214 推定結果記憶部
221 ラベル刺激特徴行列生成部
223 デコーダ学習部
224 刺激特徴予測部
225 知覚認知内容推定部
DESCRIPTION OF
Claims (13)
被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成部によって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測部と
を備えることを特徴とする脳活動予測装置。 A feature matrix generation unit that generates a first feature vector in which an expression for a stimulus is projected onto a first feature space, and generates a first stimulus feature matrix that summarizes the first feature vector in time series;
The first stimulus feature matrix for the learning stimulus given to the subject, and the brain activity matrix in which brain activity vectors generated based on the measurement data obtained by measuring the brain activity for the learning stimulus are collected in time series Generated by the feature matrix generation unit for a new stimulus based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model with set data as learning data A brain activity prediction device comprising: a brain activity prediction unit that predicts the brain activity matrix for the new stimulus from the first stimulus feature matrix.
前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する
ことを特徴とする請求項1に記載の脳活動予測装置。 The encoder learning result generates a combined feature vector obtained by combining the stimulus component that is the first feature vector with the autoregressive component that is the brain activity vector at a past time point, and generates the combined feature vector in a time series. Learning the set data of the first stimulus feature matrix and the brain activity matrix as learning data, and learning by the regression model including the autoregressive component,
The brain activity prediction unit calculates the brain activity matrix for the new stimulus from the first stimulus feature matrix for the new stimulus based on the encoder learning result learned by the regression model including the autoregressive component. The brain activity prediction apparatus according to claim 1, wherein prediction is performed.
ことを特徴とする請求項2に記載の脳活動予測装置。 The feature matrix generation unit generates the combined feature vector by combining the brain activity vector at the past time and the first feature vector based on the brain activity matrix predicted by the brain activity prediction unit, and the combination Generating the updated brain activity matrix based on the encoder learning result using the first stimulus feature matrix generated by collecting feature vectors in time series as the first stimulus feature matrix for the new stimulus. The brain activity prediction apparatus according to claim 2, wherein the brain activity prediction apparatus is characterized.
前記脳活動予測部は、学習処理の異なる複数の前記エンコーダ学習結果のうちから、学習時の予測性能に基づいて、前記ボクセルごとに選択した前記エンコーダ学習結果に基づいて、前記ボクセルごとに前記脳活動を予測する
ことを特徴とする請求項1から請求項3のいずれか一項に記載の脳活動予測装置。 The brain activity is measured for each voxel that is a unit area of a cube that divides the brain,
The brain activity prediction unit is configured to select the brain for each voxel based on the encoder learning result selected for each voxel based on the prediction performance at the time of learning from the plurality of encoder learning results having different learning processes. The brain activity prediction apparatus according to any one of claims 1 to 3, wherein activity is predicted.
ことを特徴とする請求項1から請求項4のいずれか一項に記載の脳活動予測装置。 The brain activity prediction apparatus according to any one of claims 1 to 4, wherein the first feature vector is an activation pattern of an intermediate layer calculated by a deep learning model.
ことを特徴とする請求項1から請求項5のいずれか一項に記載の脳活動予測装置。 The brain activity prediction device according to claim 1, further comprising an encoder learning unit that generates the encoder learning result.
前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトル又は当該第2特徴ベクトルを時系列にまとめた前記学習用の刺激に対する第2刺激特徴行列と、前記学習用の刺激に対する前記脳活動行列との組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1刺激特徴行列から予測された前記脳活動行列とに基づいて、前記新たな刺激に対する前記第2特徴ベクトル又は前記第2刺激特徴行列を予測する刺激特徴予測部と
を備えることを特徴とする知覚認知内容推定システム。 The brain activity prediction apparatus according to any one of claims 1 to 6,
For the learning stimulus, a second feature vector is generated by projecting a label indicating the meaning content of perception of the stimulus to the second feature space, and the second feature vector or the second feature vector is generated in time series. Learning the projection relationship from the brain activity to the second feature space using the set data of the second stimulus feature matrix for the learning stimulus and the brain activity matrix for the learning stimulus as summarized. The second feature vector for the new stimulus based on the result of the decoder learning and the brain activity matrix predicted from the first stimulus feature matrix for the new stimulus by the brain activity predictor. A perceptual recognition content estimation system comprising: a stimulus feature prediction unit that predicts the second stimulus feature matrix.
ことを特徴とする請求項7に記載の知覚認知内容推定システム。 The time-series second feature vector included in the second stimulus feature matrix predicted by the stimulus feature prediction unit or the second feature vector predicted by the stimulus feature prediction unit and the second feature vector are projected onto the second feature space. The perceptual recognition content estimation unit according to claim 7, further comprising a perceptual recognition content estimation unit that estimates at least one of perception and perception content based on a distance from the second feature vector corresponding to the label. Estimation system.
脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1刺激特徴行列と、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルを時系列にまとめた脳活動行列との組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴行列生成ステップによって生成された前記第1刺激特徴行列から前記新たな刺激に対する前記脳活動行列を予測する脳活動予測ステップと
を含むことを特徴とする脳活動予測方法。 A feature matrix generating step for generating a first feature vector in which a feature matrix generation unit projects a representation of a stimulus to the first feature space, and generating a first stimulus feature matrix in which the first feature vectors are grouped in time series; ,
The brain activity prediction unit summarizes the first stimulus feature matrix for the learning stimulus given to the subject and the brain activity vectors generated based on the measurement data obtained by measuring the brain activity for the learning stimulus in a time series. Based on the encoder learning result obtained by learning the projection relationship from the first feature space to the brain activity by the regression model using the combination data with the brain activity matrix as the learning data, the feature matrix for the new stimulus A brain activity prediction method comprising: predicting the brain activity matrix for the new stimulus from the first stimulus feature matrix generated by the generation step.
被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成部によって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測部と
を備えることを特徴とする脳活動予測装置。 A feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space;
By using a regression model in which the combination data of the first feature vector for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus is used as learning data The new stimulus from the first feature vector generated by the feature vector generation unit for the new stimulus based on the encoder learning result obtained by learning the projection relationship from the first feature space to the brain activity And a brain activity prediction unit that predicts the brain activity vector for the brain activity prediction device.
前記脳活動予測部は、前記自己回帰成分を含む前記回帰モデルにより学習された前記エンコーダ学習結果に基づいて、前記新たな刺激に対する前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する
ことを特徴とする請求項10に記載の脳活動予測装置。 The encoder learning result generates a combined feature vector obtained by combining the stimulus component that is the first feature vector with the autoregressive component that is the brain activity vector at a past time, the combined feature vector, the brain activity vector, The set data is learned as learning data by the regression model including the autoregressive component,
The brain activity prediction unit predicts the brain activity vector for the new stimulus from the first feature vector for the new stimulus based on the encoder learning result learned by the regression model including the autoregressive component. The brain activity prediction apparatus according to claim 10, wherein:
前記学習用の刺激に対して、刺激に対する知覚の意味内容を示すラベルを第2の特徴空間に投射した第2特徴ベクトルを生成し、当該第2特徴ベクトルと、前記学習用の刺激に対する前記脳活動ベクトルとの組データを学習データとして、前記脳活動から前記第2の特徴空間への投射関係を学習したデコーダ学習結果と、前記脳活動予測装置によって、前記新たな刺激に対して前記第1特徴ベクトルから予測された前記脳活動ベクトルとに基づいて、前記新たな刺激に対する前記第2特徴ベクトルを予測する刺激特徴予測部と
を備えることを特徴とする知覚認知内容推定システム。 The brain activity prediction apparatus according to claim 10 or 11,
For the learning stimulus, a second feature vector is generated by projecting a label indicating the meaning content of perception of the stimulus to a second feature space, and the second feature vector and the brain for the learning stimulus are generated. The decoder learning result obtained by learning the projection relation from the brain activity to the second feature space using the combination data with the activity vector as learning data, and the brain activity predicting device, the first stimulation is applied to the first stimulus. A perceptual recognition content estimation system, comprising: a stimulus feature prediction unit that predicts the second feature vector for the new stimulus based on the brain activity vector predicted from a feature vector.
脳活動予測部が、被験者に与えた学習用の刺激に対する前記第1特徴ベクトルと、当該学習用の刺激に対する脳活動を計測した計測データに基づいて生成された脳活動ベクトルとの組データを学習データとした回帰モデルにより、前記第1の特徴空間から前記脳活動への投射関係を学習したエンコーダ学習結果に基づいて、新たな刺激に対して前記特徴ベクトル生成ステップによって生成された前記第1特徴ベクトルから前記新たな刺激に対する前記脳活動ベクトルを予測する脳活動予測ステップと
を含むことを特徴とする脳活動予測方法。 A feature vector generation unit that generates a first feature vector obtained by projecting an expression for a stimulus to the first feature space;
The brain activity prediction unit learns a set data of the first feature vector for the learning stimulus given to the subject and the brain activity vector generated based on the measurement data obtained by measuring the brain activity for the learning stimulus. The first feature generated by the feature vector generation step for a new stimulus based on an encoder learning result obtained by learning a projection relationship from the first feature space to the brain activity by using a regression model as data. A brain activity prediction method comprising: predicting the brain activity vector for the new stimulus from a vector.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017154590A JP6928348B2 (en) | 2017-08-09 | 2017-08-09 | Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017154590A JP6928348B2 (en) | 2017-08-09 | 2017-08-09 | Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032767A true JP2019032767A (en) | 2019-02-28 |
JP6928348B2 JP6928348B2 (en) | 2021-09-01 |
Family
ID=65523573
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017154590A Active JP6928348B2 (en) | 2017-08-09 | 2017-08-09 | Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6928348B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020218493A1 (en) | 2019-04-26 | 2020-10-29 | 国立大学法人大阪大学 | Reference stimulus |
CN112633099A (en) * | 2020-12-15 | 2021-04-09 | 中国人民解放军战略支援部队信息工程大学 | Gabornet-based brain low-level visual area signal processing method and system |
WO2024029427A1 (en) * | 2022-08-01 | 2024-02-08 | 国立研究開発法人情報通信研究機構 | Brain response space generation device, evaluation device, and brain response space generation method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207038A (en) * | 2014-04-17 | 2015-11-19 | 日本放送協会 | Video image evaluation device and program |
JP2017076193A (en) * | 2015-10-13 | 2017-04-20 | 株式会社国際電気通信基礎技術研究所 | Brain activity analysis device, brain activity analysis method and brain activity analysis program |
US20170196497A1 (en) * | 2016-01-07 | 2017-07-13 | The Trustees Of Dartmouth College | System and method for identifying ictal states in a patient |
JP2017129923A (en) * | 2016-01-18 | 2017-07-27 | 国立研究開発法人情報通信研究機構 | Viewing material evaluation method, viewing material evaluation system, and program |
JP2017129924A (en) * | 2016-01-18 | 2017-07-27 | 国立研究開発法人情報通信研究機構 | Material evaluation method and material evaluation device |
-
2017
- 2017-08-09 JP JP2017154590A patent/JP6928348B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015207038A (en) * | 2014-04-17 | 2015-11-19 | 日本放送協会 | Video image evaluation device and program |
JP2017076193A (en) * | 2015-10-13 | 2017-04-20 | 株式会社国際電気通信基礎技術研究所 | Brain activity analysis device, brain activity analysis method and brain activity analysis program |
US20170196497A1 (en) * | 2016-01-07 | 2017-07-13 | The Trustees Of Dartmouth College | System and method for identifying ictal states in a patient |
JP2017129923A (en) * | 2016-01-18 | 2017-07-27 | 国立研究開発法人情報通信研究機構 | Viewing material evaluation method, viewing material evaluation system, and program |
JP2017129924A (en) * | 2016-01-18 | 2017-07-27 | 国立研究開発法人情報通信研究機構 | Material evaluation method and material evaluation device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020218493A1 (en) | 2019-04-26 | 2020-10-29 | 国立大学法人大阪大学 | Reference stimulus |
CN112633099A (en) * | 2020-12-15 | 2021-04-09 | 中国人民解放军战略支援部队信息工程大学 | Gabornet-based brain low-level visual area signal processing method and system |
WO2024029427A1 (en) * | 2022-08-01 | 2024-02-08 | 国立研究開発法人情報通信研究機構 | Brain response space generation device, evaluation device, and brain response space generation method |
Also Published As
Publication number | Publication date |
---|---|
JP6928348B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | Hand joints-based gesture recognition for noisy dataset using nested interval unscented Kalman filter with LSTM network | |
JP2019528511A (en) | Method for training neuron network and active learning system | |
JP2021503662A (en) | Neural network model training | |
US10856815B2 (en) | Generating natural language representations of mental content from functional brain images | |
JP6928348B2 (en) | Brain activity prediction device, perceptual cognitive content estimation system, and brain activity prediction method | |
KR20190056940A (en) | Method and device for learning multimodal data | |
JP7070252B2 (en) | Performance measuring device, performance measuring method and performance measuring program | |
US20220207807A1 (en) | Modifying an appearance of hair | |
CN110367976B (en) | Brain wave signal detection method, related device and storage medium | |
CN106663210B (en) | Perception-based multimedia processing | |
KR102424403B1 (en) | Method and apparatus for predicting user state | |
WO2023112384A1 (en) | Computer system and emotion estimation method | |
JP5186656B2 (en) | Operation evaluation apparatus and operation evaluation method | |
JP4876988B2 (en) | Brain computer interface device | |
KR102142183B1 (en) | Method for estimating emotion based on psychological activity and biosignal of user and system therefor | |
CN108460364A (en) | Method and apparatus for generating information | |
JP6579353B1 (en) | Information processing apparatus, information processing method, dimension data calculation apparatus, and product manufacturing apparatus | |
KR102413588B1 (en) | Object recognition model recommendation method, system and computer program according to training data | |
JP6158053B2 (en) | Learning support device, learning support method, and program | |
US20190114934A1 (en) | System and method for evaluating actions performed to achieve communications | |
EP3406191B1 (en) | Material evaluation method and material evaluation device | |
Puchert et al. | A3GC-IP: Attention-oriented adjacency adaptive recurrent graph convolutions for human pose estimation from sparse inertial measurements | |
JP2020107138A (en) | Classification device, classification system, classification method and program | |
WO2024029427A1 (en) | Brain response space generation device, evaluation device, and brain response space generation method | |
JP7075045B2 (en) | Estimating system and estimation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6928348 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |