JP2022096561A - Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program - Google Patents
Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program Download PDFInfo
- Publication number
- JP2022096561A JP2022096561A JP2020209743A JP2020209743A JP2022096561A JP 2022096561 A JP2022096561 A JP 2022096561A JP 2020209743 A JP2020209743 A JP 2020209743A JP 2020209743 A JP2020209743 A JP 2020209743A JP 2022096561 A JP2022096561 A JP 2022096561A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- points
- point
- target person
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 304
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000010365 information processing Effects 0.000 title claims description 5
- 238000012545 processing Methods 0.000 claims abstract description 97
- 238000004458 analytical method Methods 0.000 claims abstract description 90
- 210000004556 brain Anatomy 0.000 claims abstract description 45
- 230000009471 action Effects 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 24
- 230000008878 coupling Effects 0.000 claims description 23
- 238000010168 coupling process Methods 0.000 claims description 23
- 238000005859 coupling reaction Methods 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 6
- 238000010187 selection method Methods 0.000 claims 1
- 230000006399 behavior Effects 0.000 abstract description 64
- 230000009467 reduction Effects 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 45
- 210000005069 ears Anatomy 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 230000003321 amplification Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000000692 Student's t-test Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000012353 t test Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
特許法第30条第2項適用申請有り 令和1年12月18日に慶應義塾大学大学院メディアデザイン研究科後期博士論文公聴会にて発表
本発明は、行動推定システム、計測点選択装置、行動推定装置、情報処理装置の制御方法、行動推定装置の制御方法、及びプログラムに関する。 The present invention relates to a behavior estimation system, a measurement point selection device, a behavior estimation device, a control method of an information processing device, a control method of a behavior estimation device, and a program.
映像コンテンツの評価において、再生中の場面が、視聴者が記憶するなど、視聴者の印象に残るものであるか否かは重要な観点となっている。例えば従来から、番組放送データの内容の品質向上等のために有用なマーケティング情報を、データ放送を利用して放送局側で取得する技術が知られている(特許文献1)。 In the evaluation of video content, it is an important point of view whether or not the scene being played is memorable to the viewer and leaves an impression on the viewer. For example, conventionally, there has been known a technique for acquiring marketing information useful for improving the quality of program broadcast data on the broadcasting station side by using data broadcasting (Patent Document 1).
しかしながら、上記従来の技術では、専ら主観的な評価に頼ることとなり、また、動画の放映中、あるいは放映後すぐに、印象に残る場面があったか否かを推定することも困難であった。 However, the above-mentioned conventional technique relies exclusively on subjective evaluation, and it is also difficult to estimate whether or not there is a memorable scene during or immediately after the video is being broadcast.
本発明は上記実情に鑑みて為されたもので、行動に関する推定の処理負荷の軽減を支援し、また処理負荷の少ない方法で行動に関する推定を行うことを可能とした行動推定システム、計測点選択装置、行動推定装置、情報処理装置の制御方法、行動推定装置の制御方法、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and is a behavior estimation system and measurement point selection that supports reduction of the processing load of estimation regarding behavior and enables estimation of behavior by a method with less processing load. One of the purposes thereof is to provide a device, a behavior estimation device, a control method of an information processing device, a control method of the behavior estimation device, and a program.
上記従来例の問題点を解決する本発明の一態様は、予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、を含み、当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供することとしたものである。 One aspect of the present invention that solves the problems of the above-mentioned conventional example is to collect brain wave data of a measurement target person performing a predetermined type of behavior at a predetermined N point (N is N>) of the subject's head. Functions related to the brain wave data at a measurement means for measuring at a measurement point (an integer of 2), a reference measurement point at M point (M is a natural number), and a pair of measurement points selected from the N point measurement points. The representative includes a target coupling analysis and a selection means for selecting at least a pair of measurement points of the N points as a representative point set based on the result of the action presented by the measurement target person. The information that identifies the point set is at n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. It is decided to acquire the brain wave data and use it for the process of estimating the result of the behavior of the measurement target person.
本発明によると、比較的少数のn点での脳波データに基づいて行動の結果を推定させることが可能となり、例えば映像の視聴中であっても、脳波データに基づく客観性のある評価を、処理負荷の少ない処理により行うことができ、映像視聴等の行動に関する推定の処理負荷が軽減される。 According to the present invention, it is possible to estimate the result of an action based on brain wave data at a relatively small number of n points. For example, even while viewing a video, an objective evaluation based on the brain wave data can be performed. It can be performed by processing with a small processing load, and the processing load of estimation regarding behavior such as video viewing is reduced.
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る行動推定システム1は、図1に例示するように、計測点選択装置10と、行動推定装置20とを含んで構成される。ここで計測点選択装置10と、行動推定装置20とはいずれもコンピュータ等の情報処理装置である。また、以下の説明では計測点選択装置10と行動推定装置20とは別体の装置であるものとしているが、一つのコンピュータ装置をそれぞれの装置として機能させることとしても構わない。 An embodiment of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the behavior estimation system 1 according to the embodiment of the present invention includes a measurement point selection device 10 and a behavior estimation device 20. Here, both the measurement point selection device 10 and the behavior estimation device 20 are information processing devices such as a computer. Further, in the following description, it is assumed that the measurement point selection device 10 and the behavior estimation device 20 are separate devices, but one computer device may be made to function as each device.
本実施の形態の行動推定システム1は、計測点選択装置10を用いて、脳波の計測点を選択する計測点選択段階と、行動推定装置20を用いて行動の結果を推定する推定処理段階とで異なる処理を行う。 The behavior estimation system 1 of the present embodiment includes a measurement point selection step of selecting a measurement point of an electroencephalogram using the measurement point selection device 10 and an estimation processing step of estimating a behavior result using the behavior estimation device 20. Perform different processing with.
計測点選択段階では、予め選抜した計測対象者(実験に協力した者、以下、実験対象者と呼ぶ)に動画の視聴等の行動を行ってもらいつつ、その脳波データを多数の計測点で計測し、また別途、実験対象者に行動の結果の情報提供を受けて(動画のうち印象に残った場面を申告してもらうなどして)、上記多数の計測点のうち、一部の計測点を、代表的な計測点として選択する。 At the measurement point selection stage, the brain wave data is measured at a large number of measurement points while having the measurement target person selected in advance (the person who cooperated with the experiment, hereinafter referred to as the experiment target person) perform actions such as watching a video. In addition, we received information on the results of the behavior from the experiment subject (for example, by asking them to declare the scene that left an impression on the video), and some of the above-mentioned measurement points were measured. Is selected as a representative measurement point.
また推定処理段階では、上記実験対象者と同種の行動を行っている計測対象者(以下、推定対象者と呼ぶ)について、上記選択された代表的な計測点での脳波データを計測する。そして当該計測した脳波データに基づいて行動の結果(動画のうち印象に残った場面を特定する情報等)を推定する。すなわち、推定処理段階では、計測点選択段階で計測した脳波データよりも少ない計測点での脳波データのみを対象として処理を行うため、処理の負荷が軽減され、結果としてより多数の推定対象者を対象とした推定が可能となるものである。 Further, in the estimation processing stage, the electroencephalogram data at the selected representative measurement point is measured for the measurement target person (hereinafter referred to as the estimation target person) who is performing the same behavior as the experiment target person. Then, the result of the action (information for identifying the memorable scene in the moving image, etc.) is estimated based on the measured EEG data. That is, in the estimation processing stage, processing is performed only for the brain wave data at the measurement points, which is smaller than the brain wave data measured in the measurement point selection stage, so that the processing load is reduced, and as a result, a larger number of estimation targets are used. The target estimation is possible.
[各装置の構成]
図1に例示されるように、計測点選択段階で用いられる計測点選択装置10は、制御部11,記憶部12,操作部13,出力部14,入出力部15を含んで構成され、行動推定装置20は、制御部21,記憶部22,操作部23,出力部24,入出力部25を含んで構成される。
[Configuration of each device]
As illustrated in FIG. 1, the measurement point selection device 10 used in the measurement point selection stage is configured to include a
また本実施の形態のある例では、計測点選択装置10には、多チャンネル脳波計30が接続され、また行動推定装置20には、多チャンネル脳波計30よりもチャンネル数(計測点)の少ない脳波計40が接続される。
Further, in an example of the present embodiment, the
計測点選択装置10の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態のある例では、この制御部11は、入出力部15を介して、多チャンネル脳波計30から、所定の行動を行っている実験対象者の脳波の情報を受け入れる。
The
ここで多チャンネル脳波計30は、実験対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とにおける脳波を計測して出力するものであり、制御部11は、これらN点の計測点における計測結果としての脳波データを受け入れて、当該受け入れた脳波データ(計測結果)を記憶部12に記録する。
Here, the
またこの制御部11は、上記N点の計測点から選択される一対の計測点(2つの計測点の組)で計測した脳波データに関する機能的結合解析と、対応する実験対象者が提供する上記行動の結果に係る情報とに基づいて、N点の計測点のうち少なくとも一対の点を代表点組として選択する処理を実行する。この制御部11の詳しい処理の内容については後に述べる。
Further, the
記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。本実施の形態の例では、このプログラムは、コンピュータ可読かつ、非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作し、上記計測結果である脳波データ等を保持する。
The
操作部13は、マウスやキーボード等であり、計測点選択装置10のユーザが行った操作の内容を受け入れて、当該操作の内容を表す情報を、制御部11に出力する。出力部14は、ディスプレイ等であり、制御部11から入力される指示に従って画面の表示などを行う。
The
入出力部15は、インタフェース装置等であり、多チャンネル脳波計30に接続される。またこの入出力部15は、多チャンネル脳波計30から入力される計測結果(脳波データ)を制御部11に出力する。
The input /
また本実施の形態のある例では、この入出力部15は、実験対象者が提供した行動の結果に係る情報を受け入れる装置(例えば光学スキャナ装置等)に接続され、当該装置が出力する情報を受け入れて、制御部11に出力することとしてもよい。
Further, in an example of the present embodiment, the input /
また推定処理段階で用いられる行動推定装置20の制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態のある例では、この制御部21は、上記実験対象者が行った行動と同じ種類の行動を行っている推定対象者の脳波データを、脳波計40から、入出力部25を介して受け入れる。ここで脳波計40は、計測点選択装置10が選択した代表点組を含むn点(nはN>n≧2なる整数)での推定対象者の脳波データを計測して出力するよう、推定対象者に取り付けられているものとする。
Further, the
制御部21は、そして、当該取得した脳波データに基づいて推定対象者の行動の結果を推定する。この制御部21の動作についても、後に詳しく述べる。
The
記憶部22は、メモリデバイスやディスクデバイス等であり、制御部21によって実行されるプログラムを保持する。本実施の形態の例では、このプログラムは、コンピュータ可読かつ、非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作し、上記脳波の計測結果の情報等を保持する。
The
操作部23は、マウスやキーボード等であり、行動推定装置20のユーザが行った操作の内容を受け入れて、当該操作の内容を表す情報を、制御部21に出力する。出力部24は、ディスプレイ等であり、制御部21から入力される指示に従って情報の表示などを行う。
The
入出力部25は、インタフェース装置等であり、脳波計40に接続される。またこの入出力部25は、脳波計40から入力される計測結果の情報を制御部21に出力する。
The input /
[計測点選択装置の機能的構成]
次に、計測点選択段階における計測点選択装置10の制御部11の動作について説明する。この制御部11は、記憶部12に格納されたプログラムを実行することで、図2に例示するように、計測結果受入部31と、計測結果記録部32と、情報受入部33と、分析処理部34と、選択処理部35と、出力処理部36とを機能的に含む構成を実現する。
[Functional configuration of measurement point selection device]
Next, the operation of the
またここでは、実験対象者が行う行動は、動画の視聴であるものとし、実験対象者に視聴させる動画は10分ないし90分程度の長さの動画であるものとする。また、この動画については、所定の時間(例えば1分)単位で当該動画を切り分けて「シーン」として、それぞれ固有のシーン識別子を付与しておくものとする。 Further, here, it is assumed that the action performed by the experiment subject is the viewing of a moving image, and the moving image to be viewed by the experiment subject is a moving image having a length of about 10 to 90 minutes. Further, for this moving image, the moving image is divided into "scenes" in units of predetermined time (for example, 1 minute), and a unique scene identifier is assigned to each.
また、計測点選択段階における計測点選択装置10には、多チャンネル脳波計30が接続されており、この多チャンネル脳波計30は、実験対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とに配された電極に接続されている。なお、実験対象者の頭皮と、多チャンネル脳波計30の各電極との間には導電性ジェルを注入し、接触インピーダンスが10kΩ以下になるよう調整して計測を行うものとする。
Further, a
本実施の形態の例では、拡張国際10/20法により決定される30個の計測点を用い、N点の計測点は、両耳の耳介における計測点A1,A2を除く28点(つまりN=28)とし、M点の参照計測点は、両耳の耳介における計測点A1,A2とする(つまりM=2)。 In the example of this embodiment, 30 measurement points determined by the extended international 10/20 method are used, and the measurement points of N points are 28 points (that is, excluding the measurement points A1 and A2 in the pinna of both ears). N = 28), and the reference measurement points at point M are the measurement points A1 and A2 in the pinna of both ears (that is, M = 2).
この多チャンネル脳波計30は、脳波アンプ及び脳波計測用のPC(パーソナルコンピュータ)を含んで構成されており、各計測点に取り付けられる電極はケーブルを介して脳波アンプに接続されている。そして多チャンネル脳波計30は、M点の参照計測点の少なくとも一つを参照データとして用い、N点の計測点で計測された各計測データ(生データ)から、参照データを差引いて脳波アンプにて増幅し、各計測点での脳波データを得る(差動増幅)。
The
また多チャンネル脳波計30は、別途行われる眼電位計測によって、行動中の実験対象者の眼の動きや瞬目を併せて記録する。多チャンネル脳波計30は、脳波アンプにて差動増幅された各計測点での脳波データを脳波計測用のPCに計測結果の脳波データとして入力する。脳波計測用のPCは、計測結果である脳波データをモニタするとともに、本実施の形態の計測点選択装置10に対して当該計測結果となった脳波データを出力する。
Further, the
この多チャンネル脳波計30は、実験対象者が所定の行動を行っている間、上記各計測点での脳波を計測して得た、計測結果となった脳波データを、逐次的に計測点選択装置10に出力する。
The
計測結果受入部31は、計測点選択装置10の利用者(操作者)から、実験対象者を特定する対象者特定情報の入力を受け入れる。
The measurement
また、この計測結果受入部31は、実験対象者が動画を視聴している間、多チャンネル脳波計30が出力する計測結果の情報(上記N点の各計測点での計測結果である脳波データ。以下、すべての計測点での脳波データのまとまりを、多チャンネル脳波情報と呼ぶ)を逐次的に受け入れて、対象者特定情報とともに計測結果記録部32に出力する。なお、以下の説明では脳波データは、どの計測点での脳波データであるかが識別可能な状態で、計測点選択装置10に入力されるものとする。
Further, the measurement
計測結果記録部32は、対象者特定情報を計測結果受入部31から受け入れるとともに、多チャンネル脳波情報の入力を逐次的に受けて、この多チャンネル脳波情報を、受け入れた対象者特定情報に関連付けて記憶部12に格納する。このとき計測結果記録部32は、多チャンネル脳波情報に関連付けて計測時点を特定する情報(時刻情報)を記録する。ここでの例では、時刻情報は、行動の開始時点(ここでは動画再生の開始時点)を0として、当該行動の開始時点から計測時点までの経過時間をTとする。
The measurement
この計測結果記録部32の動作により、記憶部12には、実験対象者ごとに、N点の計測点での計測結果である脳波データが時系列に格納された状態となる。
Due to the operation of the measurement
情報受入部33は、各実験対象者から行動の結果に係る情報を受け入れる。ここでの例では、実験対象者から、少なくとも印象に残った(例えば「記憶している」)と回答されたシーンを特定する情報を受け入れるものとする。また情報受入部33は、実験対象者から、印象に残っていない(例えば「記憶していない」)と回答されたシーンを特定する情報をさらに受け入れてもよい。以下、当該印象に残ったと回答されたシーンを記憶シーンと呼び、記憶シーンを特定するシーン識別子を記憶シーン情報と呼ぶ。また印象に残っていないと回答されたシーンを非記憶シーンと呼び、当該非記憶シーンを特定するシーン識別子を非記憶シーン情報と呼ぶ。
The
具体的に、この回答は次のようにして取得するものとする。すなわちここでは計測点選択装置10の操作者が、実験対象者に対し、実験対象者が動画を視聴した後で、当該視聴した動画のシーンごとに予め選択したキー画像(静止画でよい)を提示する。そして実験対象者に対し、最もよく記憶している(印象に残った)キー画像を少なくとも1つ(例えば5つ)回答してもらうこととする。 Specifically, this answer shall be obtained as follows. That is, here, the operator of the measurement point selection device 10 gives the experiment target a key image (still image may be used) selected in advance for each scene of the viewed video after the experiment target has watched the moving image. Present. Then, the experiment subject is asked to answer at least one (for example, five) key images that he / she remembers best (impressive).
計測点選択装置10の操作者は、ここで回答されたキー画像に係るシーンを、記憶シーンとして、当該記憶シーンを特定する記憶シーン情報を、計測点選択装置10に入力する。 The operator of the measurement point selection device 10 inputs the storage scene information for specifying the storage scene to the measurement point selection device 10 by using the scene related to the key image answered here as a storage scene.
また情報受入部33が、非記憶シーンを特定する情報を受け入れる場合には、計測点選択装置10の操作者は、実験対象者に、先に提示したキー画像から記憶していない(印象に残っていない)キー画像を少なくとも1つ(例えば5つ)回答してもらう。そしてこの場合、計測点選択装置10の操作者は、当該回答されたキー画像に係るシーンを、非記憶シーンとして、当該非記憶シーンを特定する非記憶シーン情報を、計測点選択装置10に入力する。
Further, when the
情報受入部33は、対象者特定情報に関連付けて、当該回答に基づいて入力された記憶シーン情報を回答情報として記憶部12に格納する。なお、非記憶シーン情報を受け入れる場合は、情報受入部33は、上記記憶シーン情報とともに非記憶シーン情報を回答情報として、対象者特定情報に関連付けて記憶部12に格納する。
The
分析処理部34は、記憶部12に格納された多チャンネル脳波情報と回答情報とを記憶部12から読み出し、各対象者特定情報に関連付けられた多チャンネル脳波情報を順次、処理対象として選択して次の処理を行う。
The
分析処理部34は、処理対象として選択した多チャンネル脳波情報に含まれる各脳波データに対して前処理を行う。ここで前処理は、まばたき中の脳波データから、まばたきの影響を除去する処理(独立成分分析を用いる処理でよい)など、脳波データの前処理として広く知られた処理を行うものでよい。
The
そして分析処理部34は、前処理した脳波データのうち、N点の計測点での脳波データをそれぞれ、各シーンを視聴していた間の(単位行動あたりの)脳波のデータに分割する。ここでは、シーンは動画の再生開始からの経過時間1分ごとに分割されているものとしているので、ここでは脳波データを、対応して記録されている時刻情報に基づいてシーンごとに分割すればよい。
Then, the
以下では説明を分かりやすくするため、処理対象となった脳波データに係る実験対象者をu(u=u1,u2,…)とし、計測点をk(k=1,2,…N)とし、シーンを識別するシーン識別子をi(i=1,2,…)とする。このようにすると、実験対象者uの計測点kでの脳波データのうち、実験対象者uがシーン識別子iのシーンを視聴していたときの、分割された脳波データをE_u(k,i)と書くこととする。またこの分割して得られた脳波データE_u(k,i)を、区別のため、分割脳波データと呼ぶ。 In the following, in order to make the explanation easier to understand, the experiment target person related to the electroencephalogram data to be processed is u (u = u1, u2, ...), And the measurement point is k (k = 1, 2, ... N). Let i (i = 1, 2, ...) be the scene identifier that identifies the scene. In this way, among the electroencephalogram data at the measurement point k of the experiment subject u, the divided electroencephalogram data when the experiment subject u is viewing the scene of the scene identifier i is E_u (k, i). I will write. Further, the electroencephalogram data E_u (k, i) obtained by this division is referred to as an electroencephalogram data for the sake of distinction.
分析処理部34は、実験対象者uに係る分割脳波データE_u(k,i)のそれぞれについて、予め定めたフィルタリングなどの処理、例えばシータ帯域(4から7Hz)のバンドパスフィルタを適用するなどの処理を行う。そして、当該処理後の脳波(ここではシータ帯域の成分)T_u(k,i)を抽出する。以下、ここで抽出された(ここではシータ帯域の成分の)脳波データを、分析対象脳波データと呼ぶ。
The
分析処理部34は、実験対象者uに係る分析対象脳波データT_u(k,i)のうちから、互いに異なる2つの計測点での分析対象脳波データの組{T_u(p,i),T_u(q,i)}(i=1,2,…、p,q=1,2,…N,ただしp≠q)を得る。ここでは分析処理部34は、すべての可能な一対の計測点の組に係る分析対象脳波データの組{T_u(p,i),T_u(q,i)}を得ることとする。
The
分析処理部34は、当該組とした一対の計測点での分析対象脳波データをそれぞれ選択し、当該選択した一対の分析対象脳波データT_u(p,i),T_u(q,i)に対して機能的結合解析を行い、解析結果C_u(p,q,i)を得る。
The
機能的結合解析は、例えば選択した一対の分析対象脳波データT_u(p,i),T_u(q,i)間の位相差に基づく位相同期度を評価するものであり、この位相同期度の具体例として、PLV(Phase Locking Value)、またはPLVを取得する方法から派生した方法で取得されるiPLV(imaginary PLV)、ciPLV(corrected imaginary PLV)などの情報、あるいは、PLI(Phase Lag Index)、またはPLIを取得する方法から派生した方法で取得されるwPLI(weighted PLI)、dwPLI(debiased wPLI)などの情報、あるいは、PPC(Pairwise Phase Consistency)、またはPPCを取得する方法から派生した方法で取得されるwPPC(weighted PPC)などの情報のいずれかの情報等が利用できる。またこの機能的結合解析の処理は、位相同期度の評価に限られず、振幅位相カップリングやグレンジャー因果、移動エントロピー、PSI(Phase Slope Index)、コヒーレンスなどを解析する処理であってもよい。以下の説明では、位相同期度を評価する場合を例とする。 The functional coupling analysis evaluates, for example, the phase synchronization degree based on the phase difference between the selected pair of analysis target brain wave data T_u (p, i) and T_u (q, i), and the specific of this phase synchronization degree. For example, PLV (Phase Locking Value), information such as iPLV (imaginary PLV), ciPLV (corrected imaginary PLV) acquired by a method derived from the method of acquiring PLV, or PLI (Phase Lag Index), or Information such as wPLI (weighted PLI) and dwPLI (debiased wPLI) obtained by a method derived from the method of obtaining PLI, or obtained by a method derived from PPC (Pairwise Phase Consistency) or a method of obtaining PPC. Any information such as wPPC (weighted PPC) can be used. Further, the processing of this functional coupling analysis is not limited to the evaluation of the phase synchronization degree, and may be the processing of analyzing the amplitude phase coupling, the Granger causality, the mobile entropy, the PSI (Phase Slope Index), the coherence, and the like. In the following description, the case of evaluating the phase synchronization degree will be taken as an example.
また分析処理部34は、処理対象とした対象者特定情報に関連付けられた回答情報から実験対象者uに係る記憶シーン情報(i=Mu1,Mu2,…)を取り出す。そして分析処理部34は、上記機能的結合解析の解析結果C_u(p,q,i)のうち、当該記憶シーン情報に係る解析結果C_u(p,q,Mu1),…,C_u(p,q,Mu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値(例えば平均)CM_u(p,q)を求める。以下では、分析処理部34は統計値として平均を演算するものとし、ここで求めた統計値を、記憶時位相同期度平均CM_u(p,q)と呼ぶ。
Further, the
また分析処理部34は、実験対象者uについての、記憶シーン以外のシーンに係る機能的結合解析の解析結果C_u(p,q,j)(ただしjは、M1,M2,…のいずれでもない)を抽出して、その統計値の一例である非記憶時位相同期度平均CN_u(p,q)を求める。
Further, the
分析処理部34は、実験対象者ごとに上記の処理を行い、各実験対象者についての記憶時位相同期度平均と非記憶時位相同期度平均とを得る。
The
選択処理部35は、2つの計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して、これらの差が統計的に、予め定めた有意水準で有意であると判断される計測点の組み合わせ(p,q)を代表点組として選択する。
The
また本実施の形態の一例において特徴的なことの一つは、選択処理部35が、記憶時位相同期度平均と非記憶時位相同期度平均との差が有意であるとして代表点組を選択する際、記憶時位相同期度平均と非記憶時位相同期度平均とのいずれの値が大きいかを表す判定基準情報を生成して、代表点組を特定する情報(一対の計測点を特定する情報)とともに出力することである。この判定基準情報は、例えば記憶時位相同期度平均が非記憶時位相同期度平均より大きい場合に「+」、記憶時位相同期度平均が非記憶時位相同期度平均よりも小さい場合に「-」といった情報であるとする。
Further, one of the characteristics in one example of the present embodiment is that the
このように本実施の形態では、複数の実験対象者に係る位相同期度の統計量を用いた演算を行うことで、個人差の影響を除いて、記憶時とそうでないときとで有意に差のある、より少数の計測点を選択している。 As described above, in the present embodiment, by performing the calculation using the statistics of the phase synchronization degree for a plurality of experimental subjects, there is a significant difference between the time of storage and the time of non-memory, excluding the influence of individual differences. You have selected a smaller number of measurement points.
出力処理部36は、選択処理部35が選択した計測点の組み合わせを特定する情報(計測点の組み合わせを特定する情報(p,q)を少なくとも1つ以上含む情報)を、代表点組として出力する。一例として出力処理部36は、選択処理部35が選択した代表点組を特定する情報(計測点の組み合わせを表す情報)を、記憶部12に格納してもよい。
The
[分析処理・選択処理の他の例]
また、ここでの説明では、分析処理部34は、実験対象者が、記憶シーンを視聴していた間の脳波データと、記憶シーン以外のシーンを視聴していた間の脳波データとに基づいて、一対の計測点での脳波データの位相同期度を求めていたが、本実施の形態は、この例に限られない。
[Other examples of analysis processing / selection processing]
Further, in the description here, the
例えば、既に述べたように、実験対象者に対し、記憶シーン情報とともに、非記憶シーン情報(印象に残っていないと実験対象者が回答したシーンの情報)を得ている場合、次のように処理を行ってもよい。 For example, as already mentioned, when non-memory scene information (information on the scene that the experiment subject answered that it did not leave an impression) is obtained for the experiment subject together with the memory scene information, as follows. Processing may be performed.
この例では分析処理部34は、まず、記憶シーンに関しては上述と同様に処理する。つまり分析処理部34は、処理対象とした対象者特定情報に関連付けられた回答情報から実験対象者uに係る記憶シーン情報(i=Mu1,Mu2,…)を取り出す。そして分析処理部34は、上記機能的結合解析の解析結果C_u(p,q,i)のうち、当該記憶シーン情報に係る解析結果C_u(p,q,Mu1),…,C_u(p,q,Mu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値である記憶時位相同期度平均CM_u(p,q)を求める。
In this example, the
また分析処理部34は、各実験対象者uについての、非記憶シーン情報(j=Nu1,Nu2…)に係る機能的結合解析の解析結果C_u(p,q,Nu1),…,C_u(p,q,Nu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値である非記憶時位相同期度平均CN_u(p,q)を求める。
Further, the
そして選択処理部35は、2つの計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して、これらの差が統計的に、予め定めた有意水準で有意であると判断される計測点の組み合わせ(p,q)を代表点組として選択する。
Then, the
[計測点選択装置の動作]
次に、以上の構成に係る計測点選択装置10の動作について説明する。複数の実験対象者u1,u2…のそれぞれの頭部表面の、拡張国際10/20法により決定される30個の計測点(参照計測点であるA1,A2の2点のほか、Fp1,Fp2,F7,F3,Fz,F4,F8,FC5,FC1,FC2,FC6,T7,T8,C3,Cz,C4,CP5,CP1,CP2,CP6,P7,P3,Pz,P4,P8,O1,Oz,O2の28点)に、導電性ジェルを塗布して接触インピーダンスが10kΩ以下になるよう調整した電極を配し、多チャンネル脳波計30に接続する。
[Operation of measurement point selection device]
Next, the operation of the measurement point selection device 10 according to the above configuration will be described. 30 measurement points (2 points of reference measurement points A1 and A2, as well as Fp1 and Fp2) determined by the extended international 10/20 method on the head surface of each of a plurality of experimental subjects u1, u2 ... , F7, F3, Fz, F4, F8, FC5, FC1, FC2, FC6, T7, T8, C3, Cz, C4, CP5, CP1, CP2, CP6, P7, P3, Pz, P4, P8, O1, Oz , 28 points of O2), an electrode adjusted to have a contact impedance of 10 kΩ or less by applying a conductive gel is arranged and connected to a
ここで多チャンネル脳波計30は、例えばドイツのブレイン・プロダクツ社のLiveAmp(登録商標)等を用いることができる。
Here, as the
そして各実験対象者に、25分の動画を視聴させつつ、25分間にわたって多チャンネル脳波計30により、上記各計測点での脳波データを取得する。
Then, while letting each experiment subject watch a 25-minute video, the electroencephalogram data at each of the above measurement points is acquired by the
多チャンネル脳波計30は、実験対象者ごとに、参照電極(ここでは両耳の耳介における計測点A1,A2に配した電極として予め定めておく)で計測された脳波データを参照データとして、参照電極以外の28点の計測点での、動画視聴中の実験対象者の脳波データを差動増幅により得る。
The
そして多チャンネル脳波計30は、この差動増幅して得た実験対象者ごとの脳波データの組を、各実験対象者の多チャンネル脳波情報として逐次的に出力する。
Then, the
計測点選択装置10の操作者は、実験対象者を特定する対象者特定情報を入力するとともに、多チャンネル脳波計30が逐次的に出力する、当該対象者特定情報で特定される実験対象者の多チャンネル脳波情報を計測点選択装置10に受け入れさせる。
The operator of the measurement point selection device 10 inputs the target person identification information for identifying the test target person, and the
計測点選択装置10は、操作者の指示により図3に例示する処理を行い、対象者特定情報の入力を受けるとともに、多チャンネル脳波情報の入力を逐次的に受けて、この多チャンネル脳波情報を、受け入れた対象者特定情報に関連付けて記憶部12に格納していく(S11)。これにより、記憶部12には、図4に例示するように、実験対象者ごとに、N点の計測点でのそれぞれの脳波データが時系列に格納された状態となる。
The measurement point selection device 10 performs the process illustrated in FIG. 3 according to the instruction of the operator, receives the input of the target person specific information, and sequentially receives the input of the multi-channel electroencephalogram information, and receives the multi-channel electroencephalogram information. , It is stored in the
一方、計測点選択装置10の操作者は、25分の動画の視聴を終了した実験対象者に対し、動画のシーン(ここでは動画を1分ごとに分割してそれぞれ別のシーンとする)ごとに選択されたキー画像を提示して、最もよく記憶している(印象に残った)キー画像5つと、記憶していない(印象に残っていない)キー画像5つとを回答するよう求める。 On the other hand, the operator of the measurement point selection device 10 asks the experiment target person who has finished watching the 25-minute video for each video scene (here, the video is divided into 1-minute intervals and used as different scenes). Presents the selected key images to and asks them to answer the five most memorized (impressive) key images and the five unmemorized (not memorable) key images.
また、計測点選択装置10の操作者は、実験対象者uから回答を得ると、最もよく記憶している(印象に残った)と回答したキー画像に係るシーンを特定する情報Mu1,Mu2,Mu3,Mu4,Mu5と、記憶していない(印象に残っていない)と回答したキー画像に係るシーンを特定する情報Nu1,Nu2,Nu3,Nu4,Nu5とを、それぞれ記憶シーン情報、非記憶シーン情報として、回答した実験対象者を特定する対象者特定情報とともに計測点選択装置10に入力する。 Further, when the operator of the measurement point selection device 10 receives an answer from the experiment target person u, the information Mu1, Mu2, which identifies the scene related to the key image, which is the most memorable (impressive). Mu3, Mu4, Mu5 and information Nu1, Nu2, Nu3, Nu4, Nu5 for specifying the scene related to the key image that is not memorized (not left in the impression) are stored scene information and non-memory scene, respectively. As the information, it is input to the measurement point selection device 10 together with the target person identification information for specifying the responded experiment target person.
計測点選択装置10は、当該記憶シーン情報と非記憶シーン情報とを含む回答情報と、対象者特定情報とを受け入れて、これらを関連付けて記憶部12に格納する(S12)。
The measurement point selection device 10 receives the response information including the storage scene information and the non-storage scene information, and the target person identification information, and stores them in the
計測点選択装置10は、すべての実験対象者についての多チャンネル脳波情報と、回答情報とが入力されるまでステップS11,S12を繰り返して実行し、すべての実験対象者についての情報入力が終了したときに、操作者の指示により、以下の処理を開始する。 The measurement point selection device 10 repeatedly executed steps S11 and S12 until the multi-channel electroencephalogram information and the response information for all the experiment subjects were input, and the information input for all the experiment subjects was completed. Occasionally, the following processing is started according to the instruction of the operator.
すなわち計測点選択装置10は、記憶部12に格納された多チャンネル脳波情報と回答情報とを記憶部12から読み出し、対象者特定情報によって特定される各実験対象者を順次、対象者として選択して(S13)、以下の処理を実行する。
That is, the measurement point selection device 10 reads out the multi-channel electroencephalogram information and the answer information stored in the
計測点選択装置10は、選択した対象者uの対象者特定情報に関連付けられた多チャンネル脳波情報を読み出し、当該多チャンネル脳波情報に含まれる各脳波データに対して、まばたきの影響を除去する処理などの前処理を行う(S14)。 The measurement point selection device 10 reads out the multi-channel electroencephalogram information associated with the subject-specific information of the selected subject u, and removes the influence of blinking on each electroencephalogram data included in the multi-channel electroencephalogram information. Preprocessing such as (S14).
計測点選択装置10は、前処理した脳波データのうち、N点の計測点での脳波データをそれぞれ、動画の視聴開始の時点から1分間ごとの脳波データに分割して、分割脳波データE_u(k,i)を得る(S15)。ここでの例では、動画は1分ごとにシーンとして分割されるものとしているので、この処理は、各シーンを視聴していた間の脳波データに分割する処理に相当する。なお、ここではk(k=1,2,…N)は計測点を表し、iはシーン識別子(i=1,2,…)に対応するものとする。 The measurement point selection device 10 divides the brain wave data at the measurement points of N points among the preprocessed brain wave data into the brain wave data every minute from the start of viewing the moving image, and divides the brain wave data E_u ( k, i) is obtained (S15). In the example here, since the moving image is divided into scenes every minute, this process corresponds to the process of dividing into brain wave data while viewing each scene. Here, k (k = 1, 2, ... N) represents a measurement point, and i corresponds to a scene identifier (i = 1, 2, ...).
計測点選択装置10は、ステップS15で得た分割脳波データE_u(k,i)のそれぞれについて、シータ帯域(4から7Hz)のバンドパスフィルタを適用し、そのシータ帯域の成分である分析対象脳波データT_u(k,i)を抽出する(S16)。 The measurement point selection device 10 applies a bandpass filter in the theta band (4 to 7 Hz) to each of the divided electroencephalogram data E_u (k, i) obtained in step S15, and the electroencephalogram to be analyzed, which is a component of the theta band. The data T_u (k, i) is extracted (S16).
次に、計測点選択装置10は、分析処理を実行する(S17)。この分析処理では、計測点選択装置10は、図5に示すように、互いに異なる一対の計測点の組(p,q)を列挙する(S31)。ここでの例では、計測点(参照計測点を除く)はFp1,Fp2,F7,F3,Fz,F4,F8,FC5,FC1,FC2,FC6,T7,T8,C3,Cz,C4,CP5,CP1,CP2,CP6,P7,P3,Pz,P4,P8,O1,Oz,O2の28点あるので、
(Fp1,Fp2)の組、
(Fp1,F7)の組、
…
(Fp1,O2)の組、
(Fp2,F7)の組、
…
(Oz,O2)の組
というように、28点から2点を取り出す組み合わせの数である378通りの組み合わせがある。計測点選択装置10は、この組み合わせを列挙したうえで、対象者uの回答情報に含まれるシーン識別子Mu1,Mu2,Mu3,Mu4,Mu5、Nu1,Nu2,Nu3,Nu4,Nu5ごとに、各組み合わせに係る分析対象脳波データの組
{T_u(Fp1,i),T_u(Fp2,i)},
{T_u(Fp1,i),T_u(F7,i)},…
の378組を得る。そして、各組の分析対象脳波データについて機能的結合解析の解析結果としてのdwPLI値:
C_u(Fp1,Fp2,i),
C_u(Fp1,F7,i),…
を得る(S32)。ただしi=Mu1,Mu2,Mu3,Mu4,Mu5、Nu1,Nu2,Nu3,Nu4,Nu5とする。これにより計測点選択装置10は、対象者uについて記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果と、非記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果とを得る。
Next, the measurement point selection device 10 executes the analysis process (S17). In this analysis process, the measurement point selection device 10 lists a pair of measurement points (p, q) that are different from each other (S31), as shown in FIG. In the example here, the measurement points (excluding the reference measurement points) are Fp1, Fp2, F7, F3, Fz, F4, F8, FC5, FC1, FC2, FC6, T7, T8, C3, Cz, C4, CP5, Since there are 28 points of CP1, CP2, CP6, P7, P3, Pz, P4, P8, O1, Oz, O2,
(Fp1, Fp2) set,
(Fp1, F7) set,
…
(Fp1, O2) set,
(Fp2, F7) set,
…
There are 378 combinations, such as the set of (Oz, O2), which is the number of combinations for extracting 2 points from 28 points. After enumerating these combinations, the measurement point selection device 10 enumerates each combination for each of the scene identifiers Mu1, Mu2, Mu3, Mu4, Mu5, Nu1, Nu2, Nu3, Nu4, Nu5 included in the response information of the target person u. {T_u (Fp1, i), T_u (Fp2, i)},
{T_u (Fp1, i), T_u (F7, i)}, ...
378 pairs of. Then, the dwPLI value as the analysis result of the functional coupling analysis for each set of EEG data to be analyzed:
C_u (Fp1, Fp2, i),
C_u (Fp1, F7, i), ...
Is obtained (S32). However, i = Mu1, Mu2, Mu3, Mu4, Mu5, Nu1, Nu2, Nu3, Nu4, Nu5. As a result, the measurement point selection device 10 functionally binds the analysis result of the analysis target brain wave data of the analysis target brain wave data when viewing the storage scene of the subject u and the analysis target brain wave data of the analysis target brain wave data when viewing the non-memory scene. Obtain the analysis result of the analysis.
計測点選択装置10は、分析対象脳波データの組ごとに、記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果であるdwPLI値の平均(記憶時位相同期度平均)
CM_u(Fp1,Fp2),
CM_u(Fp1,F7),…
を得る(S33)。
The measurement point selection device 10 averages the dwPLI values (average of phase synchronization during storage), which is the analysis result of the functional coupling analysis of the electroencephalogram data to be analyzed at the time of viewing the storage scene, for each set of the electroencephalogram data to be analyzed.
CM_u (Fp1, Fp2),
CM_u (Fp1, F7), ...
Is obtained (S33).
また計測点選択装置10は、分析対象脳波データの組ごとに、非記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果であるdwPLI値の平均(非記憶時位相同期度平均)
CN_u(Fp1,Fp2),
CN_u(Fp1,F7),…
を得る(S34)。
Further, the measurement point selection device 10 averages the dwPLI values (phase synchronization degree at the time of non-memory) which is the analysis result of the functional coupling analysis of the electroencephalogram data to be analyzed at the time of viewing the non-memory scene for each set of the electroencephalogram data to be analyzed. average)
CN_u (Fp1, Fp2),
CN_u (Fp1, F7), ...
(S34).
計測点選択装置10は、図3のステップS18に戻り、すべての実験対象者について処理するまで、ステップS13に戻って、これまで未選択の対象者uを新たに選択してステップS14からS17の処理を繰り返し行う。 The measurement point selection device 10 returns to step S18 in FIG. 3, returns to step S13 until all the experimental subjects are processed, newly selects the previously unselected subject u, and steps S14 to S17. Repeat the process.
計測点選択装置10は、すべての実験対象者についての記憶時位相同期度平均と非記憶時位相同期度平均とを求めると、ステップS31にて列挙したものと同じ一対の計測点の組み合わせ(p,q)=(Fp1,Fp2),(Fp1,F7),…ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して(S19)、これらの差が統計的に、予め定めた有意水準で有意であるか否かを判断する。 When the measurement point selection device 10 obtains the storage phase synchronization degree average and the non-storage phase synchronization degree average for all the experimental subjects, the same pair of measurement points as those listed in step S31 (p). , Q) = (Fp1, Fp2), (Fp1, F7), ... For each experimental subject u (u = u1, u2, ...), Average phase synchronization degree at storage CM_u1 (p, q), CM_u2 (P, q), ... And the non-memory phase synchronization average CN_u1 (p, q), CN_u2 (p, q), ... were compared (S19), and the difference between them was statistically determined in advance. Determine if it is significant at the significance level.
そして計測点選択装置10は、上記記憶時位相同期度平均と非記憶時位相同期度平均との差が統計的に予め定めた有意水準で有意であると判断される一対の計測点の組み合わせを、代表点組として選択し(S20)、当該選択した代表点組を出力する(S21)。 Then, the measurement point selection device 10 combines a pair of measurement points that are determined to have a significant difference between the storage phase synchronization degree average and the non-storage phase synchronization degree average at a statistically predetermined significance level. , Select as a representative point set (S20), and output the selected representative point set (S21).
なお、計測点選択装置10は、このステップS19において代表点組を選択する際、その差が有意であった記憶時位相同期度平均と非記憶時位相同期度平均とのいずれの値が大きいかを表す判定基準情報を生成し、ステップS20にて、代表点組を特定する情報(一対の計測点を特定する情報)とともに出力する。この判定基準情報は、例えば記憶時位相同期度平均が非記憶時位相同期度平均より大きい場合に「+」、記憶時位相同期度平均が非記憶時位相同期度平均よりも小さい場合に「-」といった情報である。 When the measurement point selection device 10 selects the representative point set in step S19, which value is larger, the storage phase synchronization degree average or the non-storage phase synchronization degree average, in which the difference is significant. Is generated, and in step S20, it is output together with the information for specifying the representative point set (information for specifying the pair of measurement points). This criterion information is, for example, "+" when the storage phase synchronization degree average is larger than the non-storage phase synchronization degree average, and "-" when the storage time phase synchronization degree average is smaller than the non-storage phase synchronization degree average. It is information such as.
具体的に本実施の形態のある例では、計測点選択装置10は、一対の計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…の分布と、非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…の分布との間に統計的に有意な差がないとの帰無仮説を、t検定により検定し、所定の有意水準(例えば5%または1%)で棄却できるか否かを判断する。そして計測点選択装置10は、上記帰無仮説を、所定の有意水準で棄却できた計測点の組み合わせ(p,q)を代表点組として選択する。 Specifically, in an example of the present embodiment, the measurement point selection device 10 stores the memory of each experimental subject u (u = u1, u2, ...) For each combination of a pair of measurement points (p, q). Distribution of time-phase synchronization average CM_u1 (p, q), CM_u2 (p, q), ... And distribution of non-memory phase synchronization average CN_u1 (p, q), CN_u2 (p, q), ... The null hypothesis that there is no statistically significant difference between them is tested by t-test, and it is determined whether or not it can be rejected at a predetermined significance level (for example, 5% or 1%). Then, the measurement point selection device 10 selects the combination of measurement points (p, q) that can reject the null hypothesis at a predetermined significance level as a representative point set.
本実施の形態の一例では、有意水準を5%とした場合には、計測点選択装置10は、
・(FC5,Fp2)(+)
・(O2,Fp2)(-)
・(P7,T7)(+)
・(T7,CP5)(+)
・(CP5,FC6)(+)
・(FC2,FC6)(-)
・(FC6,F4)(-)
・(FC5,FC6)(+)
・(Pz,CP6)(+)
・(CP2,CP6)(+)
・(CP1,FC5)(-)
・(CP1,FC2)(-)
・(C4,Fp2)(+)
の13の組で有意な差があったものとして、これらを代表点組として選択した。ここで(+)または(-)は判定基準情報であり、非記憶時位相同期度平均よりも記憶時位相同期度平均が大きい場合に(+)となり、非記憶時位相同期度平均が、記憶時位相同期度平均よりも大きい場合には(-)となるものとしている。
In one example of this embodiment, when the significance level is 5%, the measurement point selection device 10 is
・ (FC5, Fp2) (+)
・ (O2, Fp2) (-)
・ (P7, T7) (+)
・ (T7, CP5) (+)
・ (CP5, FC6) (+)
・ (FC2, FC6) (-)
・ (FC6, F4) (-)
・ (FC5, FC6) (+)
・ (Pz, CP6) (+)
・ (CP2, CP6) (+)
・ (CP1, FC5) (-)
・ (CP1, FC2) (-)
・ (C4, Fp2) (+)
As there was a significant difference among the 13 sets of, these were selected as the representative point set. Here, (+) or (-) is the judgment reference information, and becomes (+) when the storage phase synchronization degree average is larger than the non-storage phase synchronization degree average, and the non-storage phase synchronization degree average is stored. If it is larger than the average time-phase synchronization degree, it is assumed to be (-).
また有意水準を1%とした場合には、計測点選択装置10は、(FC5,Fp2)(+)の組み合わせのみを有意な差があったものとして、この組を代表点組として選択した。 Further, when the significance level was set to 1%, the measurement point selection device 10 selected only the combination of (FC5, Fp2) and (+) as the representative point set, assuming that there was a significant difference.
つまり本実施の形態は、ここでの例のように動画のシーンを記憶している場合と、記憶していない場合とで脳波の位相同期度に有意差がみられたチャンネル対間には機能的結合が存在すると考えて、これら機能的結合が存在すると判断されたチャンネルの対を、代表点組とするものである。 That is, the present embodiment functions between the channel pairs in which the phase synchronization degree of the brain wave is significantly different between the case where the moving image scene is memorized and the case where the moving image scene is not memorized as in the example here. The pair of channels judged to have these functional connections, which are considered to exist, is used as a representative point set.
[代表点組の他の例]
またここまでの説明においては、代表点組は、一対の計測点での脳波データの位相同期度に基づいて選択されるため、計測点の対として選択されることとなっているが、本実施の形態はこれに限られない。
[Other examples of representative point set]
Further, in the description so far, since the representative point set is selected based on the phase synchronization degree of the electroencephalogram data at the pair of measurement points, it is selected as the pair of measurement points. The form of is not limited to this.
例えば、3以上の計測点の組み合わせごとの脳波データ間の位相同期度を評価し、記憶シーン視聴中、他の計測点の組み合わせに係る脳波データ間の位相同期度に対して、その位相同期度に有意差のある計測点の組み合わせを見出して、当該見出した組み合わせに係る計測点を代表点組として選択してもよい。 For example, the phase synchronization degree between the brain wave data for each combination of three or more measurement points is evaluated, and the phase synchronization degree with respect to the phase synchronization degree between the brain wave data related to the combination of other measurement points while viewing the storage scene. A combination of measurement points having a significant difference may be found, and the measurement points related to the found combination may be selected as a representative point set.
[行動推定装置の機能的構成]
次に、行動推定装置20の制御部21の動作について説明する。制御部21は、記憶部22に格納されたプログラムを実行することで、図6に例示するように、脳波情報取得部41と、推定処理部42と、出力処理部43とを機能的に含む構成を実現する。
[Functional configuration of behavior estimation device]
Next, the operation of the
またこの行動推定装置20に接続される脳波計40は、計測点選択装置10が選択した代表点組に含まれる少なくとも一対の計測点間のネットワークに着目して、当該計測点での脳波データを計測するものである。従って、この脳波計40は、多チャンネル脳波計30に比して簡便なものであり、装置コストも計測に要する負担も比較的軽度なものとなる。
Further, the
本実施の形態の一例では、この脳波計40は、行動中の推定対象者の脳波データを逐次的に取得するものであり、推定対象者の頭部表面上の計測点のうち、FC5,Fp2の2点(有意水準1%で計測点選択装置10が選択した計測点)、及び、参照計測点となる両耳の耳介における計測点A1,A2の合計4つの計測点での脳波データを計測する。そして脳波計40は、FC5,Fp2の2点で計測した各脳波データ(生データ)からそれぞれ参照データとなる計測点A1またはA2で計測した脳波データを差引いて増幅して、上記FC5,Fp2の各点での脳波データとして出力する。なお、ここでFC5,Fp2は、いずれも拡張国際10/20法で規定される計測点である。
In one example of the present embodiment, the
また以下では説明を容易にするため、行動は動画の視聴であるものとし、行動推定装置20は、動画に含まれるシーンが、推定対象者にとって印象に残るものであったか(記憶シーンとなったか)否かを推定するものであるとする。 Further, in the following, in order to facilitate the explanation, the behavior is assumed to be the viewing of a moving image, and in the behavior estimation device 20, was the scene included in the moving image memorable to the estimation target person (whether it became a memory scene)? It is assumed that it is to estimate whether or not it is.
脳波情報取得部41は、行動中の推定対象者の、上記FC5,Fp2の各点での脳波データの入力を、脳波計40から逐次的に受け入れる。なお、以下の説明では脳波データは、どの計測点での脳波データであるかが識別可能な状態で、行動推定装置20に入力されるものとする。
The electroencephalogram
推定処理部42は、計測点選択装置10が所定の行動に関して選択した代表点組を特定する情報と、当該代表点組における判定基準情報との入力を受け入れて記憶しておく。そしてこの推定処理部42は、脳波情報取得部41が各脳波データを逐次的に受け入れると、当該脳波データのそれぞれを、所定のタイミングごとに分割して行動の単位ごと(動画視聴の場合は視聴しているシーンごと)の分割脳波データE(k,i)(kは計測点を表し、iは行動の単位を識別する識別子であり、ここでの例ではシーン識別子であってi=1,2,…であるものとする)を得る。例えばこの推定処理部42は、1分ごとに過去1分間で受け入れた各点での脳波データを、それぞれの計測点での分割脳波データとして取り出す。
The
推定処理部42は、取り出した分割脳波データのそれぞれに対して、所定のフィルタリング等の処理(計測点選択装置10で施した処理と同等のもの、ここでは例えばシータ帯域(4から7Hz)のバンドパスフィルタを適用する処理)を行い、各分割脳波データE(k,i)から(ここではそのシータ帯域の成分を抽出して)、分析対象脳波データT(k,i)を得る。
The
推定処理部42は、そして、計測点選択装置10が選択した代表点組を含む少なくとも一対の計測点の組を分析対象として、当該分析対象に係る一対の計測点(p,q)での分析対象脳波データT(p,i)とT(q,i)とに対して機能的結合解析を行い、その解析結果C(p,q,i)を得る。
The
この推定処理部42が行う機能的結合解析は、計測点選択装置10におけるものと同様のものであり、例えば分析対象とした一対の分析対象脳波データ間の位相差に基づく位相同期度を評価するものである。具体的にこの機能的結合解析は、PLV(Phase Locking Value)、及びそれから派生したiPLV(imaginary PLV)、ciPLV(corrected imaginary PLV)など、またはPLI(Phase Lag Index)、及びそれから派生したwPLI(weighted PLI)、dwPLI(debiased wPLI)など、またはPPC(Pairwise Phase Consistency)、及びそれから派生したwPPC(weighted PPC)などの情報のうちいずれかの情報を求める広く知られた方法を採用して行われる。またこの機能的結合解析の処理は、位相同期度の評価に限られず、振幅位相カップリングやグレンジャー因果、移動エントロピー、PSI(Phase Slope Index)、コヒーレンスなどを解析する処理であってもよい。
The functional coupling analysis performed by the
推定処理部42は、代表点組ごとに、各シーン識別子に対応する機能的結合解析の結果C(p,q,i)(例えばdwPLIの値)と対応する判定基準情報とを参照し、シーン識別子i=1,2,…に対応する代表点組(p,q)の解析結果C(p,q,i)のうち、代表点組(p,q)に対応する判定基準情報が示す判定基準を満足するシーン識別子を検索する。
The
具体的に推定処理部42は、判定基準情報が「+」であるときには、例えば代表点組(p,q)に係る解析結果C(p,q,i)の平均CM(p,q)に対し、C(p,q,j)>CM(p,q)であり、かつ、C(p,q,j)-CM(p,q)が所定のしきい値より大きいシーン識別子jを検索する。そして推定処理部42は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子で識別されるシーンが、印象に残るシーンであると判断する。
Specifically, when the determination criterion information is "+", the
またこの場合、推定処理部42は、判定基準情報が「-」である代表点組(p,q)については、当該代表点組(p,q)に係る解析結果C(p,q,i)の平均CM(p,q)に対し、C(p,q,j)<CM(p,q)であり、かつ、CM(p,q)-C(p,q,j)が所定のしきい値より大きいシーン識別子jを検索する。そして推定処理部42は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子で識別されるシーンが、印象に残るシーンであると判断する。
Further, in this case, the
推定処理部42は、このような処理により、印象に残ると推定されるシーンのシーン識別子を見出す。そして出力処理部43は、推定処理部42が見出したシーン識別子を出力する。
The
[行動推定装置の動作]
次に、行動推定装置20の動作について説明する。本実施の形態の例では予め、脳波データを計測する比較的少数の計測点を、計測点選択装置10により選択させておく。既に述べたように、計測点選択装置10は、所定の行動を行う実験対象者のN箇所の計測点での脳波データを用いて、少なくとも一対の計測点を代表点組として選択する。
[Operation of behavior estimation device]
Next, the operation of the behavior estimation device 20 will be described. In the example of this embodiment, a relatively small number of measurement points for measuring EEG data are selected in advance by the measurement point selection device 10. As described above, the measurement point selection device 10 selects at least a pair of measurement points as a representative point set by using the electroencephalogram data at the N measurement points of the experiment subject who performs a predetermined action.
行動推定装置20の利用者(推定対象者の行動に関する推定を行う作業者)は、計測対象者(推定対象者)の頭部の、上記代表点組を少なくとも一対含む計測点と、参照計測点とに脳波計40の電極を配する。この推定対象者は、この代表点組の選択時に実験対象者が行っていた行動と同じ行動を行うものとする。
The user of the behavior estimation device 20 (the worker who estimates the behavior of the estimation target person) is a measurement point including at least one pair of the above representative point sets on the head of the measurement target person (estimation target person) and a reference measurement point. The electrodes of the
具体的に以下の例では、既に述べた例と同様、動画を視聴する行動を行うものとし、動画中のシーン(ここでは視聴する動画を1分ごとに分割したものを、それぞれシーンとする)のうち、シーンを記憶したとの行動(印象に残るシーンを視聴したこと)があったか否かを推定して、印象に残るシーンがどれであったかを検出することとする。 Specifically, in the following example, the action of watching the video is assumed as in the example already described, and the scene in the video (here, the scene in which the video to be watched is divided into 1 minute is referred to as each scene). Of these, it is estimated whether or not there was an action of memorizing the scene (viewing a memorable scene), and which was the memorable scene is detected.
なお、この行動推定装置20の利用に先立って、計測点選択装置10により代表点組を選択させるにあたり、脳波データを取得した実験対象者が視聴した動画と、この行動推定装置20に入力する脳波データを取得する推定対象者が視聴する動画とは異なっていてよい。 Prior to the use of the behavior estimation device 20, when the representative point set is selected by the measurement point selection device 10, the moving image watched by the experiment subject who acquired the brain wave data and the brain wave input to the behavior estimation device 20. It may be different from the video viewed by the estimated target person who acquires the data.
行動推定装置20は、脳波計40が計測した脳波データを受け入れる。ここでは脳波計40は、計測点選択装置10が選択した代表点組に含まれる少なくとも一対の計測点間のネットワークに着目して、動画を視聴している推定対象者の当該計測点での脳波データを計測して出力しているものとする。なお以下では、脳波計40は、推定対象者の頭部表面上の計測点のうち、代表点組としてのFC5,Fp2の2点(有意水準1%で計測点選択装置10が選択した計測点)、及び、参照計測点となる両耳の耳介における計測点A1,A2の合計4つの計測点での脳波データを計測するものとする。また上記代表点組(FC5,Fp2)に対応する判定基準情報は「+」であるものとする。
The behavior estimation device 20 receives the electroencephalogram data measured by the
行動推定装置20は、脳波計40から脳波データを逐次的に受け入れて、図7に例示する処理を行う。この行動推定装置20は、予め、計測点選択装置10が動画視聴の行動に関して選択した代表点組を特定する情報と、当該代表点組における判定基準情報との入力を受け入れて記憶しておく。
The behavior estimation device 20 sequentially receives the electroencephalogram data from the
行動推定装置20は、脳波計40から逐次的に受け入れた、各計測点での脳波データのそれぞれに対して前処理(計測点選択装置10のステップS14と同じ処理でよい)を行った後、シーンごと(ここでは1分間ごと)の脳波データに分割する。そして行動推定装置20は、シーンごとの分割脳波データE(FC5,i),E(Fp2,i)(iは行動の単位を識別する識別子であり、ここでの例ではシーン識別子であってi=1,2,…であるものとする)を得る(S51)。
The behavior estimation device 20 performs preprocessing (same processing as step S14 of the measurement point selection device 10) for each of the electroencephalogram data at each measurement point sequentially received from the
行動推定装置20は、ステップS51で取り出した分割脳波データのそれぞれに対して、シータ帯域(4から7Hz)のバンドパスフィルタを適用し、各分割脳波データE(FC5,i),E(Fp2,i)シータ帯域の成分を抽出して、分析対象脳波データT(FC5,i),T(Fp2,i)を得る(S52)。 The behavior estimation device 20 applies a bandpass filter in the theta band (4 to 7 Hz) to each of the divided electroencephalogram data extracted in step S51, and each divided electroencephalogram data E (FC5, i), E (Fp2,). i) The components of the theta band are extracted to obtain the electroencephalogram data T (FC5, i) and T (Fp2, i) to be analyzed (S52).
そして行動推定装置20は、計測点選択装置10が選択した代表点組に含まれる計測点をそれぞれ分析対象として、分析対象ごと、かつ、シーン識別子ごとに、以下の処理を繰り返す。 Then, the behavior estimation device 20 repeats the following processing for each analysis target and for each scene identifier, with the measurement points included in the representative point set selected by the measurement point selection device 10 as analysis targets.
この繰り返しの処理の過程で、行動推定装置20は、分析対象に係る一対の計測点(FC5,Fp2)での分析対象脳波データT(FC5,i)とT(Fp2,i)とに対して機能的結合解析として例えばdwPLIを求める処理を行い、その解析結果C(FC5,Fp2,i)を得る(S53)。 In the process of this repetitive processing, the behavior estimation device 20 receives the analysis target electroencephalogram data T (FC5, i) and T (Fp2, i) at the pair of measurement points (FC5, Fp2) related to the analysis target. As a functional coupling analysis, for example, a process for obtaining dwPLI is performed, and the analysis result C (FC5, Fp2, i) is obtained (S53).
また行動推定装置20は、すべてのシーンについての解析結果Cが得られた後、代表点組ごとに、各シーン識別子に対応するdwPLIの値C(FC5,Fp2,i)と、代表点組に対応する判定基準情報(ここでは「+」)とを参照し、シーン識別子i=1,2,…に対応する代表点組(FC5,Fp2)の解析結果C(FC5,Fp2,i)のうち、代表点組(FC5,Fp2)に対応する判定基準情報「+」が示す判定基準を満足するシーン識別子を検索する(S54)。 Further, after the analysis results C for all the scenes are obtained, the behavior estimation device 20 sets the dwPLI value C (FC5, Fp2, i) corresponding to each scene identifier and the representative point set for each representative point set. Of the analysis results C (FC5, Fp2, i) of the representative point set (FC5, Fp2) corresponding to the scene identifiers i = 1, 2, ... With reference to the corresponding determination criterion information (here, "+"). , Search for a scene identifier that satisfies the determination criteria indicated by the determination criteria information "+" corresponding to the representative point set (FC5, Fp2) (S54).
つまり、ここでは行動推定装置20は、代表点組(FC5,Fp2)に係る解析結果C(FC5,Fp2,i)の平均CM(FC5,Fp2)に対し、C(FC5,Fp2,j)>CM(FC5,Fp2)であり、かつ、C(FC5,Fp2,j)-CM(FC5,Fp2)が所定のしきい値より大きいシーン識別子jを検索する。そして行動推定装置20は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子jを出力する(S55)。 That is, here, the behavior estimation device 20 has C (FC5, Fp2, j)> with respect to the average CM (FC5, Fp2) of the analysis result C (FC5, Fp2, i) relating to the representative point set (FC5, Fp2). The scene identifier j which is CM (FC5, Fp2) and whose C (FC5, Fp2, j) -CM (FC5, Fp2) is larger than a predetermined threshold value is searched. Then, when such a scene identifier j is found, the behavior estimation device 20 outputs the found scene identifier j (S55).
これにより、行動推定装置20の利用者は、推定対象者の印象に残ると推定されるシーンのシーン識別子を得る。 As a result, the user of the behavior estimation device 20 obtains a scene identifier of a scene that is estimated to leave an impression on the estimation target person.
そして複数の互いに異なる推定対象者を対象として上記の処理を繰り返して行い、各推定対象者にとって印象に残ると推定されたシーンの識別子を得て、動画中、どの部分が最も印象に残るシーンとなっているかを分析するなどの処理に供する。 Then, the above processing is repeated for a plurality of different estimation target persons, and the identifier of the scene estimated to be memorable for each estimation target person is obtained, and which part of the video is the most memorable scene. It is used for processing such as analyzing whether it is.
本実施の形態によると、行動に関してアンケート調査を行うことなく、客観的な分析を行うことが可能となる。また、多チャンネル脳波計を用いることなく、予め所定の行動時に特徴的な脳波データが検出可能な一対の測定点を選択するため、チャンネル数の少ない簡易な脳波計を用いた行動の推定が可能となっている。 According to this embodiment, it is possible to perform an objective analysis without conducting a questionnaire survey on behavior. In addition, since a pair of measurement points that can detect characteristic electroencephalograph data at a predetermined action are selected in advance without using a multi-channel electroencephalograph, it is possible to estimate an action using a simple electroencephalograph with a small number of channels. It has become.
また処理を行うチャンネル数が少ないため、比較的負荷の軽い処理により、シーンの記憶に関する推定を行うことができ、従来よりも多数の推定対象者から推定結果を収集可能となる。 In addition, since the number of channels to be processed is small, it is possible to estimate the memory of the scene by processing with a relatively light load, and it is possible to collect estimation results from a larger number of estimation targets than before.
さらにこのようにして推定された結果を用いると、提示した動画等のコンテンツがどの程度印象に残るものであるかについて客観的な評価を提供でき、より印象的な動画の提供や、より期待感を与え得る動画の提供などといった目的にも資することが可能となる。 Furthermore, by using the results estimated in this way, it is possible to provide an objective evaluation of how memorable the content such as the presented video is, and to provide a more impressive video and a more promising feeling. It is also possible to contribute to the purpose such as providing videos that can give.
また、個人で脳波計を用いて測定を行い、上記処理により、自らの記憶に残りやすいシーンを分析することで、各個人に対するコンテンツの推薦等の処理にも利用できる。 In addition, it can be used for processing such as recommendation of contents for each individual by measuring by an individual using an electroencephalograph and analyzing a scene that is likely to remain in his / her own memory by the above processing.
1 行動推定システム、10 計測点選択装置、11 制御部、12 記憶部、13 操作部、14 出力部、15 入出力部、20 行動推定装置、21 制御部、22 記憶部、23 操作部、24 出力部、25 入出力部、30 多チャンネル脳波計、31 計測結果受入部、32 計測結果記録部、33 情報受入部、34 分析処理部、35 選択処理部、36 出力処理部、40 脳波計、41 脳波情報取得部、42 推定処理部、43 出力処理部。
1 Behavior estimation system, 10 Measurement point selection device, 11 Control unit, 12 Storage unit, 13 Operation unit, 14 Output unit, 15 Input / output unit, 20 Behavior estimation device, 21 Control unit, 22 Storage unit, 23 Operation unit, 24 Output unit, 25 input / output unit, 30 multi-channel electrosurgical unit, 31 measurement result receiving unit, 32 measurement result recording unit, 33 information receiving unit, 34 analysis processing unit, 35 selection processing unit, 36 output processing unit, 40 electrosurgical unit, 41 Brain wave information acquisition unit, 42 estimation processing unit, 43 output processing unit.
Claims (10)
前記計測点選択装置が、
前記予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、
前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
を含み、
前記行動推定装置が、
前記予め定めた種類の行動を行っている計測対象者の、前記計測点選択装置が選択した代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
を含む行動推定システム。 It is a behavior estimation system that estimates the result of a predetermined type of behavior performed by a measurement target person by measuring brain waves, and includes a measurement point selection device and a behavior estimation device.
The measurement point selection device
The electroencephalogram data of the measurement target person performing the predetermined type of behavior is the measurement point of the predetermined N point (N is an integer where N> 2) of the subject's head and the M point (M is a natural number). ) Reference measurement point and measurement means to measure,
The measurement points at the N points are based on the functional connection analysis of the EEG data at the pair of measurement points selected from the measurement points at the N points and the result of the action presented by the measurement target person. A selection means for selecting at least a pair of points as a representative point set, and
Including
The behavior estimation device
Acquisition of acquisition of brain wave data at n points (n is an integer such that N> n ≧ 2) including the representative point set selected by the measurement point selection device of the measurement target person performing the predetermined type of behavior. Means and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
Behavior estimation system including.
前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
を含み、
当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供される計測点選択装置。 The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. Measurement means to measure with the reference measurement point of
The measurement points at the N points are based on the functional connection analysis of the EEG data at the pair of measurement points selected from the measurement points at the N points and the result of the action presented by the measurement target person. A selection means for selecting at least a pair of points as a representative point set, and
Including
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A measurement point selection device that is used for processing to acquire the brain wave data in the device and estimate the result of the behavior of the measurement target person.
前記選択手段は、前記N点の計測点から選択され得るすべての2点の計測点の組み合わせについて、前記機能的結合解析の処理として、PLV(Phase Locking Value)、またはPLVを取得する方法から派生した方法で取得される情報、あるいはPLI(Phase Lag Index)、またはPLIを取得する方法から派生した方法で取得される情報、あるいはPPC(Pairwise Phase Consistency)、またはPPCを取得する方法から派生した方法で取得される情報のいずれかの情報に基づく位相同期解析を行って、当該位相同期解析の結果と前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する計測点選択装置。 The measurement point selection device according to claim 2.
The selection means is derived from a method of acquiring a PLV (Phase Locking Value) or PLV as a process of the functional coupling analysis for a combination of all two measurement points that can be selected from the N points of measurement points. Information obtained by the method obtained, or information obtained by a method derived from the method of obtaining PLI (Phase Lag Index) or PLI, or a method derived from PPC (Pairwise Phase Consistency) or a method of obtaining PPC. Perform a phase-locked analysis based on any of the information acquired in, and based on the result of the phase-locked analysis and the result of the action presented by the measurement target person, the measurement point of the N point is A measurement point selection device that selects at least a pair of points as a representative point set.
前記選択手段は、前記機能的結合解析の処理として、前記行動の結果が所定の条件を満足する結果である場合の機能的結合解析の結果と、前記行動の結果が所定の条件を満足しない結果である場合の機能的結合解析の結果との対比により、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する計測点選択装置。 The measurement point selection device according to claim 2 or 3.
The selection means is a process of the functional binding analysis, in which the result of the functional binding analysis when the result of the action satisfies the predetermined condition and the result of the result of the action not satisfying the predetermined condition. A measurement point selection device that selects at least a pair of measurement points among the N points as a representative point set by comparison with the result of the functional coupling analysis in the case of.
前記行動は、動画に含まれるシーンごとに、その内容を記憶する行動であり、
前記選択手段は、シーンごとに、前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち2点を代表点組候補として選択し、当該シーンごとの選択結果に基づき、前記N点の計測点のうち2点を代表点として選択する計測点選択装置。 The measurement point selection device according to any one of claims 2 to 4.
The above-mentioned action is an action of memorizing the contents of each scene included in the video.
The selection means is based on a functional connection analysis of brain wave data at two measurement points selected from the N measurement points for each scene, and the result of the action presented by the measurement target person. Then, a measurement point selection device that selects two of the N points of measurement points as representative point set candidates and selects two of the N points of measurement points as representative points based on the selection result for each scene. ..
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
を含む行動推定装置。 It is a behavior estimation device that estimates the results of predetermined types of behavior performed by the measurement target by measuring brain waves.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is n) including the representative point set specified by the information. An acquisition means for acquiring EEG data with N> n ≧ 2) and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
Behavior estimation device including.
前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択工程と、
を含み、
当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供される情報処理装置の制御方法。 The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. The measurement process measured at the reference measurement point of
Based on the functional coupling analysis of the electroencephalogram data at the two measurement points selected from the N point measurement points and the result of the action presented by the measurement target person, the N point measurement point A selection process that selects at least a pair of points as a representative point set,
Including
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A control method for an information processing device that is used for processing to acquire the brain wave data in the above and estimate the result of the behavior of the measurement target person.
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得させる工程と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定させる工程と、を含む行動推定装置の制御方法。 It is a control method of a behavior estimation device that causes a behavior estimation device to estimate the result of a predetermined type of behavior performed by a measurement target person by measuring brain waves.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is) including the representative point set specified by the information. The process of acquiring EEG data with N> n ≧ 2) and
A control method of a behavior estimation device including a step of estimating a behavior result of the measurement target person based on the acquired electroencephalogram data.
予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、
前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
として機能させ、
当該代表点組を特定する情報を、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供するプログラム。 Computer,
The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. Measurement means to measure with the reference measurement point of
Based on the functional coupling analysis of the electroencephalogram data at the two measurement points selected from the N point measurement points and the result of the action presented by the measurement target person, the N point measurement point A selection method for selecting at least a pair of points as a representative point set,
To function as
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A program that acquires brain wave data in the above and uses it for processing to estimate the result of the behavior of the person to be measured.
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
として機能させるプログラム。
A program that causes a computer to function by measuring brain waves to estimate the results of predetermined types of actions performed by a person to be measured.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is n) including the representative point set specified by the information. An acquisition means for acquiring EEG data with N> n ≧ 2) and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
A program that functions as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020209743A JP2022096561A (en) | 2020-12-17 | 2020-12-17 | Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020209743A JP2022096561A (en) | 2020-12-17 | 2020-12-17 | Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022096561A true JP2022096561A (en) | 2022-06-29 |
Family
ID=82163923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209743A Pending JP2022096561A (en) | 2020-12-17 | 2020-12-17 | Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022096561A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116421187A (en) * | 2023-03-30 | 2023-07-14 | 之江实验室 | Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence |
-
2020
- 2020-12-17 JP JP2020209743A patent/JP2022096561A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116421187A (en) * | 2023-03-30 | 2023-07-14 | 之江实验室 | Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence |
CN116421187B (en) * | 2023-03-30 | 2023-10-13 | 之江实验室 | Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Amitay et al. | A comparison of adaptive procedures for rapid and reliable threshold assessment and training in naive listeners | |
Antons et al. | Analyzing speech quality perception using electroencephalography | |
US8560360B2 (en) | Method, system and computer program for automated interpretation of measurements in response to stimuli | |
Kovalenko et al. | A pool of pairs of related objects (POPORO) for investigating visual semantic integration: Behavioral and electrophysiological validation | |
CN107274223B (en) | Advertisement evaluation method integrating electroencephalogram signal and gaze tracking characteristics | |
Bosse et al. | Brain-computer interfacing for multimedia quality assessment | |
WO2009073634A1 (en) | Correlating media instance information with physiological responses from participating subjects | |
Arndt et al. | Review on using physiology in quality of experience | |
CN113554597B (en) | Image quality evaluation method and device based on electroencephalogram characteristics | |
WO2018088187A1 (en) | Information processing device, information processing method, and program | |
US11006834B2 (en) | Information processing device and information processing method | |
JP5799351B1 (en) | Evaluation apparatus and evaluation method | |
JP2015229040A (en) | Emotion analysis system, emotion analysis method, and emotion analysis program | |
CN110279415B (en) | Image distortion threshold coefficient estimation method based on electroencephalogram signals | |
US20210022637A1 (en) | Method for predicting efficacy of a stimulus by measuring physiological response to stimuli | |
KR101595546B1 (en) | Apparatus, method and program for measuring visual fatigue | |
JP2022096561A (en) | Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program | |
Arnau-González et al. | Perceptual video quality evaluation by means of physiological signals | |
Kroupi et al. | Predicting subjective sensation of reality during multimedia consumption based on EEG and peripheral physiological signals | |
Bonacci et al. | Nonspatial features reduce the reliance on sustained spatial auditory attention | |
Beim et al. | No effects of attention or visual perceptual load on cochlear function, as measured with stimulus-frequency otoacoustic emissions | |
Donley et al. | Analysing the Quality of Experience of multisensory media from measurements of physiological responses | |
Wisniewski et al. | Enhanced auditory spatial performance using individualized head-related transfer functions: An event-related potential study | |
Arndt et al. | Does low quality audiovisual content increase fatigue of viewers | |
US20150317647A1 (en) | Method And Apparatus For Correlating Biometric Responses To Analyze Audience Reactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20210115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231201 |