JP2022096561A - Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program - Google Patents

Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program Download PDF

Info

Publication number
JP2022096561A
JP2022096561A JP2020209743A JP2020209743A JP2022096561A JP 2022096561 A JP2022096561 A JP 2022096561A JP 2020209743 A JP2020209743 A JP 2020209743A JP 2020209743 A JP2020209743 A JP 2020209743A JP 2022096561 A JP2022096561 A JP 2022096561A
Authority
JP
Japan
Prior art keywords
measurement
points
point
target person
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020209743A
Other languages
Japanese (ja)
Inventor
敦 青山
Atsushi Aoyama
大貴 石井
Daiki Ishii
敬章 吉賀
Takaaki Yoshiga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Locon Corp
Keio University
Tokyo Broadcasting System Television Inc
Original Assignee
Locon Corp
Keio University
Tokyo Broadcasting System Television Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Locon Corp, Keio University, Tokyo Broadcasting System Television Inc filed Critical Locon Corp
Priority to JP2020209743A priority Critical patent/JP2022096561A/en
Publication of JP2022096561A publication Critical patent/JP2022096561A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To enable estimation about a behavior with a method having a low processing load by supporting the reduction of a processing load of estimation about the behavior.SOLUTION: Brain wave data of an object person to be measured performing a predetermined kind of behaviors is measured at prescribed N (N is an integer N>2) measurement points of the head of the object person and M (M is a natural number) reference measurement points. At least a pair of points among the N measurement points is selected as a representative point combination on the basis of a result of a functional connection analysis about the brain wave data and a result of behaviors presented by the object person to be measured at the pair of measurement points selected from among the N measurement points, and is used for estimation processing.SELECTED DRAWING: Figure 1

Description

特許法第30条第2項適用申請有り 令和1年12月18日に慶應義塾大学大学院メディアデザイン研究科後期博士論文公聴会にて発表Patent Law Article 30, Paragraph 2 Application Applicable Presented at Keio University Graduate School of Media Design Doctoral Dissertation Hearing on December 18, 1st year

本発明は、行動推定システム、計測点選択装置、行動推定装置、情報処理装置の制御方法、行動推定装置の制御方法、及びプログラムに関する。 The present invention relates to a behavior estimation system, a measurement point selection device, a behavior estimation device, a control method of an information processing device, a control method of a behavior estimation device, and a program.

映像コンテンツの評価において、再生中の場面が、視聴者が記憶するなど、視聴者の印象に残るものであるか否かは重要な観点となっている。例えば従来から、番組放送データの内容の品質向上等のために有用なマーケティング情報を、データ放送を利用して放送局側で取得する技術が知られている(特許文献1)。 In the evaluation of video content, it is an important point of view whether or not the scene being played is memorable to the viewer and leaves an impression on the viewer. For example, conventionally, there has been known a technique for acquiring marketing information useful for improving the quality of program broadcast data on the broadcasting station side by using data broadcasting (Patent Document 1).

特開2014-217024号公報Japanese Unexamined Patent Publication No. 2014-217024

しかしながら、上記従来の技術では、専ら主観的な評価に頼ることとなり、また、動画の放映中、あるいは放映後すぐに、印象に残る場面があったか否かを推定することも困難であった。 However, the above-mentioned conventional technique relies exclusively on subjective evaluation, and it is also difficult to estimate whether or not there is a memorable scene during or immediately after the video is being broadcast.

本発明は上記実情に鑑みて為されたもので、行動に関する推定の処理負荷の軽減を支援し、また処理負荷の少ない方法で行動に関する推定を行うことを可能とした行動推定システム、計測点選択装置、行動推定装置、情報処理装置の制御方法、行動推定装置の制御方法、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and is a behavior estimation system and measurement point selection that supports reduction of the processing load of estimation regarding behavior and enables estimation of behavior by a method with less processing load. One of the purposes thereof is to provide a device, a behavior estimation device, a control method of an information processing device, a control method of the behavior estimation device, and a program.

上記従来例の問題点を解決する本発明の一態様は、予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、を含み、当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供することとしたものである。 One aspect of the present invention that solves the problems of the above-mentioned conventional example is to collect brain wave data of a measurement target person performing a predetermined type of behavior at a predetermined N point (N is N>) of the subject's head. Functions related to the brain wave data at a measurement means for measuring at a measurement point (an integer of 2), a reference measurement point at M point (M is a natural number), and a pair of measurement points selected from the N point measurement points. The representative includes a target coupling analysis and a selection means for selecting at least a pair of measurement points of the N points as a representative point set based on the result of the action presented by the measurement target person. The information that identifies the point set is at n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. It is decided to acquire the brain wave data and use it for the process of estimating the result of the behavior of the measurement target person.

本発明によると、比較的少数のn点での脳波データに基づいて行動の結果を推定させることが可能となり、例えば映像の視聴中であっても、脳波データに基づく客観性のある評価を、処理負荷の少ない処理により行うことができ、映像視聴等の行動に関する推定の処理負荷が軽減される。 According to the present invention, it is possible to estimate the result of an action based on brain wave data at a relatively small number of n points. For example, even while viewing a video, an objective evaluation based on the brain wave data can be performed. It can be performed by processing with a small processing load, and the processing load of estimation regarding behavior such as video viewing is reduced.

本発明の実施の形態に係る行動推定システムの例を表す構成ブロック図である。It is a block diagram which shows the example of the behavior estimation system which concerns on embodiment of this invention. 本発明の実施の形態に係る計測点選択装置の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the measurement point selection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る計測点選択装置の動作例を表すフローチャート図である。It is a flowchart which shows the operation example of the measurement point selection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る計測点選択装置が保持する情報の例を表す説明図である。It is explanatory drawing which shows the example of the information which the measurement point selection apparatus which concerns on embodiment of this invention holds. 本発明の実施の形態に係る計測点選択装置の分析処理の例を表すフローチャート図である。It is a flowchart which shows the example of the analysis process of the measurement point selection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る行動推定装置の例を表す機能ブロック図である。It is a functional block diagram which shows the example of the behavior estimation apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る行動推定装置の動作例を表すフローチャート図である。It is a flowchart which shows the operation example of the behavior estimation apparatus which concerns on embodiment of this invention.

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る行動推定システム1は、図1に例示するように、計測点選択装置10と、行動推定装置20とを含んで構成される。ここで計測点選択装置10と、行動推定装置20とはいずれもコンピュータ等の情報処理装置である。また、以下の説明では計測点選択装置10と行動推定装置20とは別体の装置であるものとしているが、一つのコンピュータ装置をそれぞれの装置として機能させることとしても構わない。 An embodiment of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the behavior estimation system 1 according to the embodiment of the present invention includes a measurement point selection device 10 and a behavior estimation device 20. Here, both the measurement point selection device 10 and the behavior estimation device 20 are information processing devices such as a computer. Further, in the following description, it is assumed that the measurement point selection device 10 and the behavior estimation device 20 are separate devices, but one computer device may be made to function as each device.

本実施の形態の行動推定システム1は、計測点選択装置10を用いて、脳波の計測点を選択する計測点選択段階と、行動推定装置20を用いて行動の結果を推定する推定処理段階とで異なる処理を行う。 The behavior estimation system 1 of the present embodiment includes a measurement point selection step of selecting a measurement point of an electroencephalogram using the measurement point selection device 10 and an estimation processing step of estimating a behavior result using the behavior estimation device 20. Perform different processing with.

計測点選択段階では、予め選抜した計測対象者(実験に協力した者、以下、実験対象者と呼ぶ)に動画の視聴等の行動を行ってもらいつつ、その脳波データを多数の計測点で計測し、また別途、実験対象者に行動の結果の情報提供を受けて(動画のうち印象に残った場面を申告してもらうなどして)、上記多数の計測点のうち、一部の計測点を、代表的な計測点として選択する。 At the measurement point selection stage, the brain wave data is measured at a large number of measurement points while having the measurement target person selected in advance (the person who cooperated with the experiment, hereinafter referred to as the experiment target person) perform actions such as watching a video. In addition, we received information on the results of the behavior from the experiment subject (for example, by asking them to declare the scene that left an impression on the video), and some of the above-mentioned measurement points were measured. Is selected as a representative measurement point.

また推定処理段階では、上記実験対象者と同種の行動を行っている計測対象者(以下、推定対象者と呼ぶ)について、上記選択された代表的な計測点での脳波データを計測する。そして当該計測した脳波データに基づいて行動の結果(動画のうち印象に残った場面を特定する情報等)を推定する。すなわち、推定処理段階では、計測点選択段階で計測した脳波データよりも少ない計測点での脳波データのみを対象として処理を行うため、処理の負荷が軽減され、結果としてより多数の推定対象者を対象とした推定が可能となるものである。 Further, in the estimation processing stage, the electroencephalogram data at the selected representative measurement point is measured for the measurement target person (hereinafter referred to as the estimation target person) who is performing the same behavior as the experiment target person. Then, the result of the action (information for identifying the memorable scene in the moving image, etc.) is estimated based on the measured EEG data. That is, in the estimation processing stage, processing is performed only for the brain wave data at the measurement points, which is smaller than the brain wave data measured in the measurement point selection stage, so that the processing load is reduced, and as a result, a larger number of estimation targets are used. The target estimation is possible.

[各装置の構成]
図1に例示されるように、計測点選択段階で用いられる計測点選択装置10は、制御部11,記憶部12,操作部13,出力部14,入出力部15を含んで構成され、行動推定装置20は、制御部21,記憶部22,操作部23,出力部24,入出力部25を含んで構成される。
[Configuration of each device]
As illustrated in FIG. 1, the measurement point selection device 10 used in the measurement point selection stage is configured to include a control unit 11, a storage unit 12, an operation unit 13, an output unit 14, and an input / output unit 15, and acts. The estimation device 20 includes a control unit 21, a storage unit 22, an operation unit 23, an output unit 24, and an input / output unit 25.

また本実施の形態のある例では、計測点選択装置10には、多チャンネル脳波計30が接続され、また行動推定装置20には、多チャンネル脳波計30よりもチャンネル数(計測点)の少ない脳波計40が接続される。 Further, in an example of the present embodiment, the multi-channel electroencephalograph 30 is connected to the measurement point selection device 10, and the number of channels (measurement points) is smaller in the behavior estimation device 20 than the multi-channel electroencephalograph 30. The electroencephalograph 40 is connected.

計測点選択装置10の制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態のある例では、この制御部11は、入出力部15を介して、多チャンネル脳波計30から、所定の行動を行っている実験対象者の脳波の情報を受け入れる。 The control unit 11 of the measurement point selection device 10 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In one example of the present embodiment, the control unit 11 receives information on the brain waves of the experimental subject performing a predetermined action from the multi-channel electroencephalograph 30 via the input / output unit 15.

ここで多チャンネル脳波計30は、実験対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とにおける脳波を計測して出力するものであり、制御部11は、これらN点の計測点における計測結果としての脳波データを受け入れて、当該受け入れた脳波データ(計測結果)を記憶部12に記録する。 Here, the multi-channel electroencephalograph 30 measures the electroencephalogram at a predetermined N point (N is an integer where N> 2) and a reference measurement point at M point (M is a natural number) on the head of the experiment subject. The control unit 11 receives the electroencephalogram data as the measurement result at these N points of measurement points, and records the received electroencephalogram data (measurement result) in the storage unit 12.

またこの制御部11は、上記N点の計測点から選択される一対の計測点(2つの計測点の組)で計測した脳波データに関する機能的結合解析と、対応する実験対象者が提供する上記行動の結果に係る情報とに基づいて、N点の計測点のうち少なくとも一対の点を代表点組として選択する処理を実行する。この制御部11の詳しい処理の内容については後に述べる。 Further, the control unit 11 provides functional coupling analysis related to EEG data measured at a pair of measurement points (a set of two measurement points) selected from the above N measurement points, and the above-mentioned experimental subject provided by the corresponding experiment subject. Based on the information related to the result of the action, a process of selecting at least a pair of measurement points of N points as a representative point set is executed. The details of the processing of the control unit 11 will be described later.

記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。本実施の形態の例では、このプログラムは、コンピュータ可読かつ、非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作し、上記計測結果である脳波データ等を保持する。 The storage unit 12 is a memory device, a disk device, or the like, and holds a program executed by the control unit 11. In the example of the present embodiment, the program may be provided by being stored in a computer-readable and non-temporary recording medium, and may be stored in the storage unit 12. The storage unit 12 also operates as a work memory of the control unit 11 and holds the electroencephalogram data and the like which are the measurement results.

操作部13は、マウスやキーボード等であり、計測点選択装置10のユーザが行った操作の内容を受け入れて、当該操作の内容を表す情報を、制御部11に出力する。出力部14は、ディスプレイ等であり、制御部11から入力される指示に従って画面の表示などを行う。 The operation unit 13 is a mouse, a keyboard, or the like, and accepts the content of the operation performed by the user of the measurement point selection device 10, and outputs information representing the content of the operation to the control unit 11. The output unit 14 is a display or the like, and displays a screen or the like according to an instruction input from the control unit 11.

入出力部15は、インタフェース装置等であり、多チャンネル脳波計30に接続される。またこの入出力部15は、多チャンネル脳波計30から入力される計測結果(脳波データ)を制御部11に出力する。 The input / output unit 15 is an interface device or the like, and is connected to the multi-channel electroencephalograph 30. Further, the input / output unit 15 outputs the measurement result (electroencephalogram data) input from the multi-channel electroencephalograph 30 to the control unit 11.

また本実施の形態のある例では、この入出力部15は、実験対象者が提供した行動の結果に係る情報を受け入れる装置(例えば光学スキャナ装置等)に接続され、当該装置が出力する情報を受け入れて、制御部11に出力することとしてもよい。 Further, in an example of the present embodiment, the input / output unit 15 is connected to a device (for example, an optical scanner device) that receives information related to the result of the action provided by the experiment subject, and outputs information output by the device. It may be accepted and output to the control unit 11.

また推定処理段階で用いられる行動推定装置20の制御部21は、CPU等のプログラム制御デバイスであり、記憶部22に格納されたプログラムに従って動作する。本実施の形態のある例では、この制御部21は、上記実験対象者が行った行動と同じ種類の行動を行っている推定対象者の脳波データを、脳波計40から、入出力部25を介して受け入れる。ここで脳波計40は、計測点選択装置10が選択した代表点組を含むn点(nはN>n≧2なる整数)での推定対象者の脳波データを計測して出力するよう、推定対象者に取り付けられているものとする。 Further, the control unit 21 of the behavior estimation device 20 used in the estimation processing stage is a program control device such as a CPU, and operates according to a program stored in the storage unit 22. In an example of the present embodiment, the control unit 21 inputs, from the electroencephalograph 40, the input / output unit 25 to the electroencephalogram data of the estimated subject who is performing the same type of behavior as the behavior performed by the experiment subject. Accept through. Here, the electroencephalograph 40 is estimated to measure and output the electroencephalogram data of the estimation target person at n points (n is an integer such that N> n ≧ 2) including the representative point set selected by the measurement point selection device 10. It shall be attached to the subject.

制御部21は、そして、当該取得した脳波データに基づいて推定対象者の行動の結果を推定する。この制御部21の動作についても、後に詳しく述べる。 The control unit 21 then estimates the result of the behavior of the estimation target person based on the acquired EEG data. The operation of the control unit 21 will also be described in detail later.

記憶部22は、メモリデバイスやディスクデバイス等であり、制御部21によって実行されるプログラムを保持する。本実施の形態の例では、このプログラムは、コンピュータ可読かつ、非一時的な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部22は、制御部21のワークメモリとしても動作し、上記脳波の計測結果の情報等を保持する。 The storage unit 22 is a memory device, a disk device, or the like, and holds a program executed by the control unit 21. In the example of the present embodiment, the program may be provided by being stored in a computer-readable and non-temporary recording medium, and may be stored in the storage unit 12. The storage unit 22 also operates as a work memory of the control unit 21 and holds information such as the measurement result of the brain wave.

操作部23は、マウスやキーボード等であり、行動推定装置20のユーザが行った操作の内容を受け入れて、当該操作の内容を表す情報を、制御部21に出力する。出力部24は、ディスプレイ等であり、制御部21から入力される指示に従って情報の表示などを行う。 The operation unit 23 is a mouse, a keyboard, or the like, and accepts the content of the operation performed by the user of the behavior estimation device 20, and outputs information representing the content of the operation to the control unit 21. The output unit 24 is a display or the like, and displays information or the like according to an instruction input from the control unit 21.

入出力部25は、インタフェース装置等であり、脳波計40に接続される。またこの入出力部25は、脳波計40から入力される計測結果の情報を制御部21に出力する。 The input / output unit 25 is an interface device or the like, and is connected to the electroencephalograph 40. Further, the input / output unit 25 outputs the information of the measurement result input from the electroencephalograph 40 to the control unit 21.

[計測点選択装置の機能的構成]
次に、計測点選択段階における計測点選択装置10の制御部11の動作について説明する。この制御部11は、記憶部12に格納されたプログラムを実行することで、図2に例示するように、計測結果受入部31と、計測結果記録部32と、情報受入部33と、分析処理部34と、選択処理部35と、出力処理部36とを機能的に含む構成を実現する。
[Functional configuration of measurement point selection device]
Next, the operation of the control unit 11 of the measurement point selection device 10 in the measurement point selection stage will be described. By executing the program stored in the storage unit 12, the control unit 11 executes the measurement result receiving unit 31, the measurement result recording unit 32, the information receiving unit 33, and the analysis process, as illustrated in FIG. A configuration including a unit 34, a selection processing unit 35, and an output processing unit 36 is realized.

またここでは、実験対象者が行う行動は、動画の視聴であるものとし、実験対象者に視聴させる動画は10分ないし90分程度の長さの動画であるものとする。また、この動画については、所定の時間(例えば1分)単位で当該動画を切り分けて「シーン」として、それぞれ固有のシーン識別子を付与しておくものとする。 Further, here, it is assumed that the action performed by the experiment subject is the viewing of a moving image, and the moving image to be viewed by the experiment subject is a moving image having a length of about 10 to 90 minutes. Further, for this moving image, the moving image is divided into "scenes" in units of predetermined time (for example, 1 minute), and a unique scene identifier is assigned to each.

また、計測点選択段階における計測点選択装置10には、多チャンネル脳波計30が接続されており、この多チャンネル脳波計30は、実験対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とに配された電極に接続されている。なお、実験対象者の頭皮と、多チャンネル脳波計30の各電極との間には導電性ジェルを注入し、接触インピーダンスが10kΩ以下になるよう調整して計測を行うものとする。 Further, a multi-channel electroencephalograph 30 is connected to the measurement point selection device 10 in the measurement point selection stage, and the multi-channel electroencephalograph 30 has a predetermined N point (N is N>) on the head of the test subject. It is connected to electrodes arranged at a measurement point (an integer of 2) and a reference measurement point at point M (where M is a natural number). A conductive gel is injected between the scalp of the subject of the experiment and each electrode of the multi-channel electroencephalograph 30, and the contact impedance is adjusted to be 10 kΩ or less for measurement.

本実施の形態の例では、拡張国際10/20法により決定される30個の計測点を用い、N点の計測点は、両耳の耳介における計測点A1,A2を除く28点(つまりN=28)とし、M点の参照計測点は、両耳の耳介における計測点A1,A2とする(つまりM=2)。 In the example of this embodiment, 30 measurement points determined by the extended international 10/20 method are used, and the measurement points of N points are 28 points (that is, excluding the measurement points A1 and A2 in the pinna of both ears). N = 28), and the reference measurement points at point M are the measurement points A1 and A2 in the pinna of both ears (that is, M = 2).

この多チャンネル脳波計30は、脳波アンプ及び脳波計測用のPC(パーソナルコンピュータ)を含んで構成されており、各計測点に取り付けられる電極はケーブルを介して脳波アンプに接続されている。そして多チャンネル脳波計30は、M点の参照計測点の少なくとも一つを参照データとして用い、N点の計測点で計測された各計測データ(生データ)から、参照データを差引いて脳波アンプにて増幅し、各計測点での脳波データを得る(差動増幅)。 The multi-channel electroencephalograph 30 includes an electroencephalogram amplifier and a PC (personal computer) for electroencephalogram measurement, and electrodes attached to each measurement point are connected to the electroencephalogram amplifier via a cable. Then, the multi-channel electroencephalograph 30 uses at least one of the reference measurement points at the M point as reference data, and subtracts the reference data from each measurement data (raw data) measured at the measurement points at the N point to form an electroencephalogram amplifier. And amplify it to obtain brain wave data at each measurement point (differential amplification).

また多チャンネル脳波計30は、別途行われる眼電位計測によって、行動中の実験対象者の眼の動きや瞬目を併せて記録する。多チャンネル脳波計30は、脳波アンプにて差動増幅された各計測点での脳波データを脳波計測用のPCに計測結果の脳波データとして入力する。脳波計測用のPCは、計測結果である脳波データをモニタするとともに、本実施の形態の計測点選択装置10に対して当該計測結果となった脳波データを出力する。 Further, the multi-channel electroencephalograph 30 also records the movements and blinks of the eyes of the experimental subject during the action by the electro-oculography measurement performed separately. The multi-channel electroencephalograph 30 inputs the electroencephalogram data at each measurement point differentially amplified by the electroencephalogram amplifier into the PC for electroencephalogram measurement as the electroencephalogram data of the measurement result. The PC for electroencephalogram measurement monitors the electroencephalogram data as the measurement result, and outputs the electroencephalogram data as the measurement result to the measurement point selection device 10 of the present embodiment.

この多チャンネル脳波計30は、実験対象者が所定の行動を行っている間、上記各計測点での脳波を計測して得た、計測結果となった脳波データを、逐次的に計測点選択装置10に出力する。 The multi-channel electroencephalograph 30 sequentially selects measurement points for the electroencephalogram data obtained by measuring the electroencephalograms at each of the above measurement points while the experimental subject is performing a predetermined action. Output to device 10.

計測結果受入部31は、計測点選択装置10の利用者(操作者)から、実験対象者を特定する対象者特定情報の入力を受け入れる。 The measurement result receiving unit 31 accepts the input of the target person identification information for identifying the experiment target person from the user (operator) of the measurement point selection device 10.

また、この計測結果受入部31は、実験対象者が動画を視聴している間、多チャンネル脳波計30が出力する計測結果の情報(上記N点の各計測点での計測結果である脳波データ。以下、すべての計測点での脳波データのまとまりを、多チャンネル脳波情報と呼ぶ)を逐次的に受け入れて、対象者特定情報とともに計測結果記録部32に出力する。なお、以下の説明では脳波データは、どの計測点での脳波データであるかが識別可能な状態で、計測点選択装置10に入力されるものとする。 Further, the measurement result receiving unit 31 is the measurement result information output by the multi-channel electroencephalograph 30 while the experiment subject is watching the moving image (electroencephalogram data which is the measurement result at each of the above N points). Hereinafter, a collection of electroencephalogram data at all measurement points is referred to as multi-channel electroencephalogram information), and the data is output to the measurement result recording unit 32 together with the subject identification information. In the following description, it is assumed that the electroencephalogram data is input to the measurement point selection device 10 in a state where the electroencephalogram data at which measurement point can be identified.

計測結果記録部32は、対象者特定情報を計測結果受入部31から受け入れるとともに、多チャンネル脳波情報の入力を逐次的に受けて、この多チャンネル脳波情報を、受け入れた対象者特定情報に関連付けて記憶部12に格納する。このとき計測結果記録部32は、多チャンネル脳波情報に関連付けて計測時点を特定する情報(時刻情報)を記録する。ここでの例では、時刻情報は、行動の開始時点(ここでは動画再生の開始時点)を0として、当該行動の開始時点から計測時点までの経過時間をTとする。 The measurement result recording unit 32 receives the target person identification information from the measurement result receiving unit 31, sequentially receives the input of the multi-channel electroencephalogram information, and associates the multi-channel electroencephalogram information with the received target person identification information. It is stored in the storage unit 12. At this time, the measurement result recording unit 32 records information (time information) for specifying the measurement time point in association with the multi-channel electroencephalogram information. In the example here, the time information has 0 as the start time of the action (here, the start time of video reproduction) and T as the elapsed time from the start time of the action to the measurement time.

この計測結果記録部32の動作により、記憶部12には、実験対象者ごとに、N点の計測点での計測結果である脳波データが時系列に格納された状態となる。 Due to the operation of the measurement result recording unit 32, the storage unit 12 is in a state in which the electroencephalogram data, which is the measurement result at the measurement point of N points, is stored in time series for each experiment subject.

情報受入部33は、各実験対象者から行動の結果に係る情報を受け入れる。ここでの例では、実験対象者から、少なくとも印象に残った(例えば「記憶している」)と回答されたシーンを特定する情報を受け入れるものとする。また情報受入部33は、実験対象者から、印象に残っていない(例えば「記憶していない」)と回答されたシーンを特定する情報をさらに受け入れてもよい。以下、当該印象に残ったと回答されたシーンを記憶シーンと呼び、記憶シーンを特定するシーン識別子を記憶シーン情報と呼ぶ。また印象に残っていないと回答されたシーンを非記憶シーンと呼び、当該非記憶シーンを特定するシーン識別子を非記憶シーン情報と呼ぶ。 The information receiving unit 33 receives information related to the result of the action from each experiment subject. In the example here, it is assumed that the experimental subject accepts information that identifies a scene that is at least memorable (for example, "remembered"). Further, the information receiving unit 33 may further accept information specifying a scene that is not left in the impression (for example, "not remembered") from the experiment subject. Hereinafter, the scene that is answered to have left the impression is referred to as a storage scene, and the scene identifier that identifies the storage scene is referred to as storage scene information. Further, a scene that is answered not to leave an impression is called a non-memory scene, and a scene identifier that identifies the non-memory scene is called a non-memory scene information.

具体的に、この回答は次のようにして取得するものとする。すなわちここでは計測点選択装置10の操作者が、実験対象者に対し、実験対象者が動画を視聴した後で、当該視聴した動画のシーンごとに予め選択したキー画像(静止画でよい)を提示する。そして実験対象者に対し、最もよく記憶している(印象に残った)キー画像を少なくとも1つ(例えば5つ)回答してもらうこととする。 Specifically, this answer shall be obtained as follows. That is, here, the operator of the measurement point selection device 10 gives the experiment target a key image (still image may be used) selected in advance for each scene of the viewed video after the experiment target has watched the moving image. Present. Then, the experiment subject is asked to answer at least one (for example, five) key images that he / she remembers best (impressive).

計測点選択装置10の操作者は、ここで回答されたキー画像に係るシーンを、記憶シーンとして、当該記憶シーンを特定する記憶シーン情報を、計測点選択装置10に入力する。 The operator of the measurement point selection device 10 inputs the storage scene information for specifying the storage scene to the measurement point selection device 10 by using the scene related to the key image answered here as a storage scene.

また情報受入部33が、非記憶シーンを特定する情報を受け入れる場合には、計測点選択装置10の操作者は、実験対象者に、先に提示したキー画像から記憶していない(印象に残っていない)キー画像を少なくとも1つ(例えば5つ)回答してもらう。そしてこの場合、計測点選択装置10の操作者は、当該回答されたキー画像に係るシーンを、非記憶シーンとして、当該非記憶シーンを特定する非記憶シーン情報を、計測点選択装置10に入力する。 Further, when the information receiving unit 33 accepts the information for identifying the non-memory scene, the operator of the measurement point selection device 10 does not store the key image presented to the experiment target person from the previously presented key image (impressive). Ask them to answer at least one (for example, five) key images. Then, in this case, the operator of the measurement point selection device 10 inputs the non-memory scene information that identifies the non-memory scene to the measurement point selection device 10 by using the scene related to the answered key image as a non-memory scene. do.

情報受入部33は、対象者特定情報に関連付けて、当該回答に基づいて入力された記憶シーン情報を回答情報として記憶部12に格納する。なお、非記憶シーン情報を受け入れる場合は、情報受入部33は、上記記憶シーン情報とともに非記憶シーン情報を回答情報として、対象者特定情報に関連付けて記憶部12に格納する。 The information receiving unit 33 stores the storage scene information input based on the answer in the storage unit 12 as the answer information in association with the target person identification information. When accepting the non-memory scene information, the information receiving unit 33 stores the non-memory scene information as the response information together with the storage scene information in the storage unit 12 in association with the target person specific information.

分析処理部34は、記憶部12に格納された多チャンネル脳波情報と回答情報とを記憶部12から読み出し、各対象者特定情報に関連付けられた多チャンネル脳波情報を順次、処理対象として選択して次の処理を行う。 The analysis processing unit 34 reads out the multi-channel electroencephalogram information and the answer information stored in the storage unit 12 from the storage unit 12, and sequentially selects the multi-channel electroencephalogram information associated with each subject specific information as the processing target. Perform the following processing.

分析処理部34は、処理対象として選択した多チャンネル脳波情報に含まれる各脳波データに対して前処理を行う。ここで前処理は、まばたき中の脳波データから、まばたきの影響を除去する処理(独立成分分析を用いる処理でよい)など、脳波データの前処理として広く知られた処理を行うものでよい。 The analysis processing unit 34 performs preprocessing on each electroencephalogram data included in the multi-channel electroencephalogram information selected as the processing target. Here, the preprocessing may be a process widely known as an electroencephalogram data preprocessing, such as a process of removing the influence of blinking from the electroencephalogram data during blinking (a process using independent component analysis may be used).

そして分析処理部34は、前処理した脳波データのうち、N点の計測点での脳波データをそれぞれ、各シーンを視聴していた間の(単位行動あたりの)脳波のデータに分割する。ここでは、シーンは動画の再生開始からの経過時間1分ごとに分割されているものとしているので、ここでは脳波データを、対応して記録されている時刻情報に基づいてシーンごとに分割すればよい。 Then, the analysis processing unit 34 divides the electroencephalogram data at the measurement points of N points among the preprocessed electroencephalogram data into the electroencephalogram data (per unit action) while viewing each scene. Here, it is assumed that the scene is divided every 1 minute of the elapsed time from the start of playback of the moving image, so here, if the brain wave data is divided into each scene based on the correspondingly recorded time information, good.

以下では説明を分かりやすくするため、処理対象となった脳波データに係る実験対象者をu(u=u1,u2,…)とし、計測点をk(k=1,2,…N)とし、シーンを識別するシーン識別子をi(i=1,2,…)とする。このようにすると、実験対象者uの計測点kでの脳波データのうち、実験対象者uがシーン識別子iのシーンを視聴していたときの、分割された脳波データをE_u(k,i)と書くこととする。またこの分割して得られた脳波データE_u(k,i)を、区別のため、分割脳波データと呼ぶ。 In the following, in order to make the explanation easier to understand, the experiment target person related to the electroencephalogram data to be processed is u (u = u1, u2, ...), And the measurement point is k (k = 1, 2, ... N). Let i (i = 1, 2, ...) be the scene identifier that identifies the scene. In this way, among the electroencephalogram data at the measurement point k of the experiment subject u, the divided electroencephalogram data when the experiment subject u is viewing the scene of the scene identifier i is E_u (k, i). I will write. Further, the electroencephalogram data E_u (k, i) obtained by this division is referred to as an electroencephalogram data for the sake of distinction.

分析処理部34は、実験対象者uに係る分割脳波データE_u(k,i)のそれぞれについて、予め定めたフィルタリングなどの処理、例えばシータ帯域(4から7Hz)のバンドパスフィルタを適用するなどの処理を行う。そして、当該処理後の脳波(ここではシータ帯域の成分)T_u(k,i)を抽出する。以下、ここで抽出された(ここではシータ帯域の成分の)脳波データを、分析対象脳波データと呼ぶ。 The analysis processing unit 34 applies a predetermined filtering process, for example, a bandpass filter in the theta band (4 to 7 Hz), to each of the divided electroencephalogram data E_u (k, i) related to the experiment subject u. Perform processing. Then, the electroencephalogram (here, the component of theta band) T_u (k, i) after the processing is extracted. Hereinafter, the electroencephalogram data extracted here (here, the component of theta band) is referred to as an electroencephalogram data to be analyzed.

分析処理部34は、実験対象者uに係る分析対象脳波データT_u(k,i)のうちから、互いに異なる2つの計測点での分析対象脳波データの組{T_u(p,i),T_u(q,i)}(i=1,2,…、p,q=1,2,…N,ただしp≠q)を得る。ここでは分析処理部34は、すべての可能な一対の計測点の組に係る分析対象脳波データの組{T_u(p,i),T_u(q,i)}を得ることとする。 The analysis processing unit 34 selects a set of EEG data to be analyzed at two different measurement points from the EEG data T_u (k, i) to be analyzed related to the experiment subject u {T_u (p, i), T_u (T_u (p, i), T_u ( q, i)} (i = 1, 2, ..., p, q = 1, 2, ... N, where p ≠ q) is obtained. Here, the analysis processing unit 34 obtains a set of EEG data to be analyzed {T_u (p, i), T_u (q, i)} relating to a set of all possible pairs of measurement points.

分析処理部34は、当該組とした一対の計測点での分析対象脳波データをそれぞれ選択し、当該選択した一対の分析対象脳波データT_u(p,i),T_u(q,i)に対して機能的結合解析を行い、解析結果C_u(p,q,i)を得る。 The analysis processing unit 34 selects the electroencephalogram data to be analyzed at the pair of measurement points in the set, and for the selected pair of electroencephalogram data to be analyzed T_u (p, i) and T_u (q, i). Functional coupling analysis is performed and the analysis result C_u (p, q, i) is obtained.

機能的結合解析は、例えば選択した一対の分析対象脳波データT_u(p,i),T_u(q,i)間の位相差に基づく位相同期度を評価するものであり、この位相同期度の具体例として、PLV(Phase Locking Value)、またはPLVを取得する方法から派生した方法で取得されるiPLV(imaginary PLV)、ciPLV(corrected imaginary PLV)などの情報、あるいは、PLI(Phase Lag Index)、またはPLIを取得する方法から派生した方法で取得されるwPLI(weighted PLI)、dwPLI(debiased wPLI)などの情報、あるいは、PPC(Pairwise Phase Consistency)、またはPPCを取得する方法から派生した方法で取得されるwPPC(weighted PPC)などの情報のいずれかの情報等が利用できる。またこの機能的結合解析の処理は、位相同期度の評価に限られず、振幅位相カップリングやグレンジャー因果、移動エントロピー、PSI(Phase Slope Index)、コヒーレンスなどを解析する処理であってもよい。以下の説明では、位相同期度を評価する場合を例とする。 The functional coupling analysis evaluates, for example, the phase synchronization degree based on the phase difference between the selected pair of analysis target brain wave data T_u (p, i) and T_u (q, i), and the specific of this phase synchronization degree. For example, PLV (Phase Locking Value), information such as iPLV (imaginary PLV), ciPLV (corrected imaginary PLV) acquired by a method derived from the method of acquiring PLV, or PLI (Phase Lag Index), or Information such as wPLI (weighted PLI) and dwPLI (debiased wPLI) obtained by a method derived from the method of obtaining PLI, or obtained by a method derived from PPC (Pairwise Phase Consistency) or a method of obtaining PPC. Any information such as wPPC (weighted PPC) can be used. Further, the processing of this functional coupling analysis is not limited to the evaluation of the phase synchronization degree, and may be the processing of analyzing the amplitude phase coupling, the Granger causality, the mobile entropy, the PSI (Phase Slope Index), the coherence, and the like. In the following description, the case of evaluating the phase synchronization degree will be taken as an example.

また分析処理部34は、処理対象とした対象者特定情報に関連付けられた回答情報から実験対象者uに係る記憶シーン情報(i=Mu1,Mu2,…)を取り出す。そして分析処理部34は、上記機能的結合解析の解析結果C_u(p,q,i)のうち、当該記憶シーン情報に係る解析結果C_u(p,q,Mu1),…,C_u(p,q,Mu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値(例えば平均)CM_u(p,q)を求める。以下では、分析処理部34は統計値として平均を演算するものとし、ここで求めた統計値を、記憶時位相同期度平均CM_u(p,q)と呼ぶ。 Further, the analysis processing unit 34 retrieves the storage scene information (i = Mu1, Mu2, ...) Related to the experiment target person u from the response information associated with the target person specific information to be processed. Then, the analysis processing unit 34 has the analysis results C_u (p, q, Mu1), ..., C_u (p, q) related to the storage scene information among the analysis results C_u (p, q, i) of the functional coupling analysis. , Mu2), ... are extracted, and the statistical value (for example, average) CM_u (p, q) of the analysis result for each set of common measurement points is obtained. In the following, the analysis processing unit 34 shall calculate the average as a statistical value, and the statistical value obtained here is referred to as a storage phase synchronization degree average CM_u (p, q).

また分析処理部34は、実験対象者uについての、記憶シーン以外のシーンに係る機能的結合解析の解析結果C_u(p,q,j)(ただしjは、M1,M2,…のいずれでもない)を抽出して、その統計値の一例である非記憶時位相同期度平均CN_u(p,q)を求める。 Further, the analysis processing unit 34 is the analysis result C_u (p, q, j) of the experimental subject u in the functional coupling analysis relating to the scene other than the storage scene (however, j is neither M1, M2, ...). ) Is extracted, and the average non-memory phase synchronization degree CN_u (p, q), which is an example of the statistical value, is obtained.

分析処理部34は、実験対象者ごとに上記の処理を行い、各実験対象者についての記憶時位相同期度平均と非記憶時位相同期度平均とを得る。 The analysis processing unit 34 performs the above processing for each experiment subject, and obtains a storage time phase synchronization degree average and a non-memory time phase synchronization degree average for each experiment subject.

選択処理部35は、2つの計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して、これらの差が統計的に、予め定めた有意水準で有意であると判断される計測点の組み合わせ(p,q)を代表点組として選択する。 The selection processing unit 35 stores the average phase synchronization degree at the time of storage for each experimental subject u (u = u1, u2, ...) For each combination of the two measurement points (p, q), CM_u1 (p, q), CM_u2. Comparing (p, q), ... with the average non-memory phase synchronization degree CN_u1 (p, q), CN_u2 (p, q), ..., These differences are statistically at a predetermined significance level. A combination of measurement points (p, q) judged to be significant is selected as a representative point set.

また本実施の形態の一例において特徴的なことの一つは、選択処理部35が、記憶時位相同期度平均と非記憶時位相同期度平均との差が有意であるとして代表点組を選択する際、記憶時位相同期度平均と非記憶時位相同期度平均とのいずれの値が大きいかを表す判定基準情報を生成して、代表点組を特定する情報(一対の計測点を特定する情報)とともに出力することである。この判定基準情報は、例えば記憶時位相同期度平均が非記憶時位相同期度平均より大きい場合に「+」、記憶時位相同期度平均が非記憶時位相同期度平均よりも小さい場合に「-」といった情報であるとする。 Further, one of the characteristics in one example of the present embodiment is that the selection processing unit 35 selects the representative point set because the difference between the average phase synchronization degree during storage and the average phase synchronization degree during non-storage time is significant. At that time, the information for specifying the representative point set (specifying a pair of measurement points) is generated by generating the judgment reference information indicating which value of the average of the phase synchronization degree during storage and the average of the phase synchronization degree during non-storage is larger. It is to be output together with information). This criterion information is, for example, "+" when the storage phase synchronization degree average is larger than the non-storage phase synchronization degree average, and "-" when the storage time phase synchronization degree average is smaller than the non-storage phase synchronization degree average. It is assumed that the information is such as.

このように本実施の形態では、複数の実験対象者に係る位相同期度の統計量を用いた演算を行うことで、個人差の影響を除いて、記憶時とそうでないときとで有意に差のある、より少数の計測点を選択している。 As described above, in the present embodiment, by performing the calculation using the statistics of the phase synchronization degree for a plurality of experimental subjects, there is a significant difference between the time of storage and the time of non-memory, excluding the influence of individual differences. You have selected a smaller number of measurement points.

出力処理部36は、選択処理部35が選択した計測点の組み合わせを特定する情報(計測点の組み合わせを特定する情報(p,q)を少なくとも1つ以上含む情報)を、代表点組として出力する。一例として出力処理部36は、選択処理部35が選択した代表点組を特定する情報(計測点の組み合わせを表す情報)を、記憶部12に格納してもよい。 The output processing unit 36 outputs information for specifying a combination of measurement points selected by the selection processing unit 35 (information including at least one information (p, q) for specifying a combination of measurement points) as a representative point set. do. As an example, the output processing unit 36 may store information (information representing a combination of measurement points) for specifying the representative point set selected by the selection processing unit 35 in the storage unit 12.

[分析処理・選択処理の他の例]
また、ここでの説明では、分析処理部34は、実験対象者が、記憶シーンを視聴していた間の脳波データと、記憶シーン以外のシーンを視聴していた間の脳波データとに基づいて、一対の計測点での脳波データの位相同期度を求めていたが、本実施の形態は、この例に限られない。
[Other examples of analysis processing / selection processing]
Further, in the description here, the analysis processing unit 34 is based on the electroencephalogram data while the experiment subject is viewing the storage scene and the electroencephalogram data while the experiment subject is viewing a scene other than the storage scene. , The phase synchronization degree of the electroencephalogram data at a pair of measurement points has been obtained, but the present embodiment is not limited to this example.

例えば、既に述べたように、実験対象者に対し、記憶シーン情報とともに、非記憶シーン情報(印象に残っていないと実験対象者が回答したシーンの情報)を得ている場合、次のように処理を行ってもよい。 For example, as already mentioned, when non-memory scene information (information on the scene that the experiment subject answered that it did not leave an impression) is obtained for the experiment subject together with the memory scene information, as follows. Processing may be performed.

この例では分析処理部34は、まず、記憶シーンに関しては上述と同様に処理する。つまり分析処理部34は、処理対象とした対象者特定情報に関連付けられた回答情報から実験対象者uに係る記憶シーン情報(i=Mu1,Mu2,…)を取り出す。そして分析処理部34は、上記機能的結合解析の解析結果C_u(p,q,i)のうち、当該記憶シーン情報に係る解析結果C_u(p,q,Mu1),…,C_u(p,q,Mu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値である記憶時位相同期度平均CM_u(p,q)を求める。 In this example, the analysis processing unit 34 first processes the storage scene in the same manner as described above. That is, the analysis processing unit 34 extracts the storage scene information (i = Mu1, Mu2, ...) Related to the experiment target person u from the response information associated with the target person specific information to be processed. Then, the analysis processing unit 34 has the analysis results C_u (p, q, Mu1), ..., C_u (p, q) related to the storage scene information among the analysis results C_u (p, q, i) of the functional coupling analysis. , Mu2), ... Are extracted, and the storage phase synchronization degree average CM_u (p, q), which is a statistical value of the analysis result for each set of common measurement points, is obtained.

また分析処理部34は、各実験対象者uについての、非記憶シーン情報(j=Nu1,Nu2…)に係る機能的結合解析の解析結果C_u(p,q,Nu1),…,C_u(p,q,Nu2),…を抽出し、共通する計測点の組ごとの解析結果の統計値である非記憶時位相同期度平均CN_u(p,q)を求める。 Further, the analysis processing unit 34 analyzes the analysis results of the functional coupling analysis related to the non-memory scene information (j = Nu1, Nu2 ...) For each experimental subject u, C_u (p, q, Nu1), ..., C_u (p). , Q, Nu2), ... Are extracted, and the average non-memory phase synchronization degree CN_u (p, q), which is a statistical value of the analysis result for each set of common measurement points, is obtained.

そして選択処理部35は、2つの計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して、これらの差が統計的に、予め定めた有意水準で有意であると判断される計測点の組み合わせ(p,q)を代表点組として選択する。 Then, the selection processing unit 35 sets the average storage phase synchronization degree CM_u1 (p, q) for each experimental subject u (u = u1, u2, ...) For each combination of the two measurement points (p, q). Comparing CM_u2 (p, q), ... with the non-memory phase synchronization average CN_u1 (p, q), CN_u2 (p, q), ..., These differences are statistically at a predetermined significance level. The combination of measurement points (p, q) judged to be significant in is selected as the representative point set.

[計測点選択装置の動作]
次に、以上の構成に係る計測点選択装置10の動作について説明する。複数の実験対象者u1,u2…のそれぞれの頭部表面の、拡張国際10/20法により決定される30個の計測点(参照計測点であるA1,A2の2点のほか、Fp1,Fp2,F7,F3,Fz,F4,F8,FC5,FC1,FC2,FC6,T7,T8,C3,Cz,C4,CP5,CP1,CP2,CP6,P7,P3,Pz,P4,P8,O1,Oz,O2の28点)に、導電性ジェルを塗布して接触インピーダンスが10kΩ以下になるよう調整した電極を配し、多チャンネル脳波計30に接続する。
[Operation of measurement point selection device]
Next, the operation of the measurement point selection device 10 according to the above configuration will be described. 30 measurement points (2 points of reference measurement points A1 and A2, as well as Fp1 and Fp2) determined by the extended international 10/20 method on the head surface of each of a plurality of experimental subjects u1, u2 ... , F7, F3, Fz, F4, F8, FC5, FC1, FC2, FC6, T7, T8, C3, Cz, C4, CP5, CP1, CP2, CP6, P7, P3, Pz, P4, P8, O1, Oz , 28 points of O2), an electrode adjusted to have a contact impedance of 10 kΩ or less by applying a conductive gel is arranged and connected to a multi-channel electroencephalograph 30.

ここで多チャンネル脳波計30は、例えばドイツのブレイン・プロダクツ社のLiveAmp(登録商標)等を用いることができる。 Here, as the multi-channel electroencephalograph 30, for example, LiveAmp (registered trademark) manufactured by Brain Products, Germany can be used.

そして各実験対象者に、25分の動画を視聴させつつ、25分間にわたって多チャンネル脳波計30により、上記各計測点での脳波データを取得する。 Then, while letting each experiment subject watch a 25-minute video, the electroencephalogram data at each of the above measurement points is acquired by the multi-channel electroencephalograph 30 for 25 minutes.

多チャンネル脳波計30は、実験対象者ごとに、参照電極(ここでは両耳の耳介における計測点A1,A2に配した電極として予め定めておく)で計測された脳波データを参照データとして、参照電極以外の28点の計測点での、動画視聴中の実験対象者の脳波データを差動増幅により得る。 The multi-channel electroencephalograph 30 uses brain wave data measured at reference electrodes (here, predetermined as electrodes arranged at measurement points A1 and A2 in the ears of both ears) as reference data for each experimental subject. EEG data of the experimental subject during video viewing at 28 measurement points other than the reference electrode is obtained by differential amplification.

そして多チャンネル脳波計30は、この差動増幅して得た実験対象者ごとの脳波データの組を、各実験対象者の多チャンネル脳波情報として逐次的に出力する。 Then, the multi-channel electroencephalograph 30 sequentially outputs a set of electroencephalogram data for each experiment subject obtained by this differential amplification as multi-channel electroencephalogram information of each experiment subject.

計測点選択装置10の操作者は、実験対象者を特定する対象者特定情報を入力するとともに、多チャンネル脳波計30が逐次的に出力する、当該対象者特定情報で特定される実験対象者の多チャンネル脳波情報を計測点選択装置10に受け入れさせる。 The operator of the measurement point selection device 10 inputs the target person identification information for identifying the test target person, and the multi-channel electroencephalograph 30 sequentially outputs the target person identification information of the test target person specified by the target person identification information. Have the measurement point selection device 10 accept the multi-channel electroencephalogram information.

計測点選択装置10は、操作者の指示により図3に例示する処理を行い、対象者特定情報の入力を受けるとともに、多チャンネル脳波情報の入力を逐次的に受けて、この多チャンネル脳波情報を、受け入れた対象者特定情報に関連付けて記憶部12に格納していく(S11)。これにより、記憶部12には、図4に例示するように、実験対象者ごとに、N点の計測点でのそれぞれの脳波データが時系列に格納された状態となる。 The measurement point selection device 10 performs the process illustrated in FIG. 3 according to the instruction of the operator, receives the input of the target person specific information, and sequentially receives the input of the multi-channel electroencephalogram information, and receives the multi-channel electroencephalogram information. , It is stored in the storage unit 12 in association with the received target person identification information (S11). As a result, as illustrated in FIG. 4, the storage unit 12 is in a state in which the electroencephalogram data at the measurement points at the N points are stored in time series for each experiment subject.

一方、計測点選択装置10の操作者は、25分の動画の視聴を終了した実験対象者に対し、動画のシーン(ここでは動画を1分ごとに分割してそれぞれ別のシーンとする)ごとに選択されたキー画像を提示して、最もよく記憶している(印象に残った)キー画像5つと、記憶していない(印象に残っていない)キー画像5つとを回答するよう求める。 On the other hand, the operator of the measurement point selection device 10 asks the experiment target person who has finished watching the 25-minute video for each video scene (here, the video is divided into 1-minute intervals and used as different scenes). Presents the selected key images to and asks them to answer the five most memorized (impressive) key images and the five unmemorized (not memorable) key images.

また、計測点選択装置10の操作者は、実験対象者uから回答を得ると、最もよく記憶している(印象に残った)と回答したキー画像に係るシーンを特定する情報Mu1,Mu2,Mu3,Mu4,Mu5と、記憶していない(印象に残っていない)と回答したキー画像に係るシーンを特定する情報Nu1,Nu2,Nu3,Nu4,Nu5とを、それぞれ記憶シーン情報、非記憶シーン情報として、回答した実験対象者を特定する対象者特定情報とともに計測点選択装置10に入力する。 Further, when the operator of the measurement point selection device 10 receives an answer from the experiment target person u, the information Mu1, Mu2, which identifies the scene related to the key image, which is the most memorable (impressive). Mu3, Mu4, Mu5 and information Nu1, Nu2, Nu3, Nu4, Nu5 for specifying the scene related to the key image that is not memorized (not left in the impression) are stored scene information and non-memory scene, respectively. As the information, it is input to the measurement point selection device 10 together with the target person identification information for specifying the responded experiment target person.

計測点選択装置10は、当該記憶シーン情報と非記憶シーン情報とを含む回答情報と、対象者特定情報とを受け入れて、これらを関連付けて記憶部12に格納する(S12)。 The measurement point selection device 10 receives the response information including the storage scene information and the non-storage scene information, and the target person identification information, and stores them in the storage unit 12 in association with each other (S12).

計測点選択装置10は、すべての実験対象者についての多チャンネル脳波情報と、回答情報とが入力されるまでステップS11,S12を繰り返して実行し、すべての実験対象者についての情報入力が終了したときに、操作者の指示により、以下の処理を開始する。 The measurement point selection device 10 repeatedly executed steps S11 and S12 until the multi-channel electroencephalogram information and the response information for all the experiment subjects were input, and the information input for all the experiment subjects was completed. Occasionally, the following processing is started according to the instruction of the operator.

すなわち計測点選択装置10は、記憶部12に格納された多チャンネル脳波情報と回答情報とを記憶部12から読み出し、対象者特定情報によって特定される各実験対象者を順次、対象者として選択して(S13)、以下の処理を実行する。 That is, the measurement point selection device 10 reads out the multi-channel electroencephalogram information and the answer information stored in the storage unit 12 from the storage unit 12, and sequentially selects each experimental target person specified by the target person identification information as the target person. (S13), the following processing is executed.

計測点選択装置10は、選択した対象者uの対象者特定情報に関連付けられた多チャンネル脳波情報を読み出し、当該多チャンネル脳波情報に含まれる各脳波データに対して、まばたきの影響を除去する処理などの前処理を行う(S14)。 The measurement point selection device 10 reads out the multi-channel electroencephalogram information associated with the subject-specific information of the selected subject u, and removes the influence of blinking on each electroencephalogram data included in the multi-channel electroencephalogram information. Preprocessing such as (S14).

計測点選択装置10は、前処理した脳波データのうち、N点の計測点での脳波データをそれぞれ、動画の視聴開始の時点から1分間ごとの脳波データに分割して、分割脳波データE_u(k,i)を得る(S15)。ここでの例では、動画は1分ごとにシーンとして分割されるものとしているので、この処理は、各シーンを視聴していた間の脳波データに分割する処理に相当する。なお、ここではk(k=1,2,…N)は計測点を表し、iはシーン識別子(i=1,2,…)に対応するものとする。 The measurement point selection device 10 divides the brain wave data at the measurement points of N points among the preprocessed brain wave data into the brain wave data every minute from the start of viewing the moving image, and divides the brain wave data E_u ( k, i) is obtained (S15). In the example here, since the moving image is divided into scenes every minute, this process corresponds to the process of dividing into brain wave data while viewing each scene. Here, k (k = 1, 2, ... N) represents a measurement point, and i corresponds to a scene identifier (i = 1, 2, ...).

計測点選択装置10は、ステップS15で得た分割脳波データE_u(k,i)のそれぞれについて、シータ帯域(4から7Hz)のバンドパスフィルタを適用し、そのシータ帯域の成分である分析対象脳波データT_u(k,i)を抽出する(S16)。 The measurement point selection device 10 applies a bandpass filter in the theta band (4 to 7 Hz) to each of the divided electroencephalogram data E_u (k, i) obtained in step S15, and the electroencephalogram to be analyzed, which is a component of the theta band. The data T_u (k, i) is extracted (S16).

次に、計測点選択装置10は、分析処理を実行する(S17)。この分析処理では、計測点選択装置10は、図5に示すように、互いに異なる一対の計測点の組(p,q)を列挙する(S31)。ここでの例では、計測点(参照計測点を除く)はFp1,Fp2,F7,F3,Fz,F4,F8,FC5,FC1,FC2,FC6,T7,T8,C3,Cz,C4,CP5,CP1,CP2,CP6,P7,P3,Pz,P4,P8,O1,Oz,O2の28点あるので、
(Fp1,Fp2)の組、
(Fp1,F7)の組、

(Fp1,O2)の組、
(Fp2,F7)の組、

(Oz,O2)の組
というように、28点から2点を取り出す組み合わせの数である378通りの組み合わせがある。計測点選択装置10は、この組み合わせを列挙したうえで、対象者uの回答情報に含まれるシーン識別子Mu1,Mu2,Mu3,Mu4,Mu5、Nu1,Nu2,Nu3,Nu4,Nu5ごとに、各組み合わせに係る分析対象脳波データの組
{T_u(Fp1,i),T_u(Fp2,i)},
{T_u(Fp1,i),T_u(F7,i)},…
の378組を得る。そして、各組の分析対象脳波データについて機能的結合解析の解析結果としてのdwPLI値:
C_u(Fp1,Fp2,i),
C_u(Fp1,F7,i),…
を得る(S32)。ただしi=Mu1,Mu2,Mu3,Mu4,Mu5、Nu1,Nu2,Nu3,Nu4,Nu5とする。これにより計測点選択装置10は、対象者uについて記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果と、非記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果とを得る。
Next, the measurement point selection device 10 executes the analysis process (S17). In this analysis process, the measurement point selection device 10 lists a pair of measurement points (p, q) that are different from each other (S31), as shown in FIG. In the example here, the measurement points (excluding the reference measurement points) are Fp1, Fp2, F7, F3, Fz, F4, F8, FC5, FC1, FC2, FC6, T7, T8, C3, Cz, C4, CP5, Since there are 28 points of CP1, CP2, CP6, P7, P3, Pz, P4, P8, O1, Oz, O2,
(Fp1, Fp2) set,
(Fp1, F7) set,

(Fp1, O2) set,
(Fp2, F7) set,

There are 378 combinations, such as the set of (Oz, O2), which is the number of combinations for extracting 2 points from 28 points. After enumerating these combinations, the measurement point selection device 10 enumerates each combination for each of the scene identifiers Mu1, Mu2, Mu3, Mu4, Mu5, Nu1, Nu2, Nu3, Nu4, Nu5 included in the response information of the target person u. {T_u (Fp1, i), T_u (Fp2, i)},
{T_u (Fp1, i), T_u (F7, i)}, ...
378 pairs of. Then, the dwPLI value as the analysis result of the functional coupling analysis for each set of EEG data to be analyzed:
C_u (Fp1, Fp2, i),
C_u (Fp1, F7, i), ...
Is obtained (S32). However, i = Mu1, Mu2, Mu3, Mu4, Mu5, Nu1, Nu2, Nu3, Nu4, Nu5. As a result, the measurement point selection device 10 functionally binds the analysis result of the analysis target brain wave data of the analysis target brain wave data when viewing the storage scene of the subject u and the analysis target brain wave data of the analysis target brain wave data when viewing the non-memory scene. Obtain the analysis result of the analysis.

計測点選択装置10は、分析対象脳波データの組ごとに、記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果であるdwPLI値の平均(記憶時位相同期度平均)
CM_u(Fp1,Fp2),
CM_u(Fp1,F7),…
を得る(S33)。
The measurement point selection device 10 averages the dwPLI values (average of phase synchronization during storage), which is the analysis result of the functional coupling analysis of the electroencephalogram data to be analyzed at the time of viewing the storage scene, for each set of the electroencephalogram data to be analyzed.
CM_u (Fp1, Fp2),
CM_u (Fp1, F7), ...
Is obtained (S33).

また計測点選択装置10は、分析対象脳波データの組ごとに、非記憶シーンの視聴時における分析対象脳波データについての機能的結合解析の解析結果であるdwPLI値の平均(非記憶時位相同期度平均)
CN_u(Fp1,Fp2),
CN_u(Fp1,F7),…
を得る(S34)。
Further, the measurement point selection device 10 averages the dwPLI values (phase synchronization degree at the time of non-memory) which is the analysis result of the functional coupling analysis of the electroencephalogram data to be analyzed at the time of viewing the non-memory scene for each set of the electroencephalogram data to be analyzed. average)
CN_u (Fp1, Fp2),
CN_u (Fp1, F7), ...
(S34).

計測点選択装置10は、図3のステップS18に戻り、すべての実験対象者について処理するまで、ステップS13に戻って、これまで未選択の対象者uを新たに選択してステップS14からS17の処理を繰り返し行う。 The measurement point selection device 10 returns to step S18 in FIG. 3, returns to step S13 until all the experimental subjects are processed, newly selects the previously unselected subject u, and steps S14 to S17. Repeat the process.

計測点選択装置10は、すべての実験対象者についての記憶時位相同期度平均と非記憶時位相同期度平均とを求めると、ステップS31にて列挙したものと同じ一対の計測点の組み合わせ(p,q)=(Fp1,Fp2),(Fp1,F7),…ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…と非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…とを比較して(S19)、これらの差が統計的に、予め定めた有意水準で有意であるか否かを判断する。 When the measurement point selection device 10 obtains the storage phase synchronization degree average and the non-storage phase synchronization degree average for all the experimental subjects, the same pair of measurement points as those listed in step S31 (p). , Q) = (Fp1, Fp2), (Fp1, F7), ... For each experimental subject u (u = u1, u2, ...), Average phase synchronization degree at storage CM_u1 (p, q), CM_u2 (P, q), ... And the non-memory phase synchronization average CN_u1 (p, q), CN_u2 (p, q), ... were compared (S19), and the difference between them was statistically determined in advance. Determine if it is significant at the significance level.

そして計測点選択装置10は、上記記憶時位相同期度平均と非記憶時位相同期度平均との差が統計的に予め定めた有意水準で有意であると判断される一対の計測点の組み合わせを、代表点組として選択し(S20)、当該選択した代表点組を出力する(S21)。 Then, the measurement point selection device 10 combines a pair of measurement points that are determined to have a significant difference between the storage phase synchronization degree average and the non-storage phase synchronization degree average at a statistically predetermined significance level. , Select as a representative point set (S20), and output the selected representative point set (S21).

なお、計測点選択装置10は、このステップS19において代表点組を選択する際、その差が有意であった記憶時位相同期度平均と非記憶時位相同期度平均とのいずれの値が大きいかを表す判定基準情報を生成し、ステップS20にて、代表点組を特定する情報(一対の計測点を特定する情報)とともに出力する。この判定基準情報は、例えば記憶時位相同期度平均が非記憶時位相同期度平均より大きい場合に「+」、記憶時位相同期度平均が非記憶時位相同期度平均よりも小さい場合に「-」といった情報である。 When the measurement point selection device 10 selects the representative point set in step S19, which value is larger, the storage phase synchronization degree average or the non-storage phase synchronization degree average, in which the difference is significant. Is generated, and in step S20, it is output together with the information for specifying the representative point set (information for specifying the pair of measurement points). This criterion information is, for example, "+" when the storage phase synchronization degree average is larger than the non-storage phase synchronization degree average, and "-" when the storage time phase synchronization degree average is smaller than the non-storage phase synchronization degree average. It is information such as.

具体的に本実施の形態のある例では、計測点選択装置10は、一対の計測点の組み合わせ(p,q)ごとに、各実験対象者u(u=u1,u2,…)についての記憶時位相同期度平均CM_u1(p,q),CM_u2(p,q),…の分布と、非記憶時位相同期度平均CN_u1(p,q),CN_u2(p,q),…の分布との間に統計的に有意な差がないとの帰無仮説を、t検定により検定し、所定の有意水準(例えば5%または1%)で棄却できるか否かを判断する。そして計測点選択装置10は、上記帰無仮説を、所定の有意水準で棄却できた計測点の組み合わせ(p,q)を代表点組として選択する。 Specifically, in an example of the present embodiment, the measurement point selection device 10 stores the memory of each experimental subject u (u = u1, u2, ...) For each combination of a pair of measurement points (p, q). Distribution of time-phase synchronization average CM_u1 (p, q), CM_u2 (p, q), ... And distribution of non-memory phase synchronization average CN_u1 (p, q), CN_u2 (p, q), ... The null hypothesis that there is no statistically significant difference between them is tested by t-test, and it is determined whether or not it can be rejected at a predetermined significance level (for example, 5% or 1%). Then, the measurement point selection device 10 selects the combination of measurement points (p, q) that can reject the null hypothesis at a predetermined significance level as a representative point set.

本実施の形態の一例では、有意水準を5%とした場合には、計測点選択装置10は、
・(FC5,Fp2)(+)
・(O2,Fp2)(-)
・(P7,T7)(+)
・(T7,CP5)(+)
・(CP5,FC6)(+)
・(FC2,FC6)(-)
・(FC6,F4)(-)
・(FC5,FC6)(+)
・(Pz,CP6)(+)
・(CP2,CP6)(+)
・(CP1,FC5)(-)
・(CP1,FC2)(-)
・(C4,Fp2)(+)
の13の組で有意な差があったものとして、これらを代表点組として選択した。ここで(+)または(-)は判定基準情報であり、非記憶時位相同期度平均よりも記憶時位相同期度平均が大きい場合に(+)となり、非記憶時位相同期度平均が、記憶時位相同期度平均よりも大きい場合には(-)となるものとしている。
In one example of this embodiment, when the significance level is 5%, the measurement point selection device 10 is
・ (FC5, Fp2) (+)
・ (O2, Fp2) (-)
・ (P7, T7) (+)
・ (T7, CP5) (+)
・ (CP5, FC6) (+)
・ (FC2, FC6) (-)
・ (FC6, F4) (-)
・ (FC5, FC6) (+)
・ (Pz, CP6) (+)
・ (CP2, CP6) (+)
・ (CP1, FC5) (-)
・ (CP1, FC2) (-)
・ (C4, Fp2) (+)
As there was a significant difference among the 13 sets of, these were selected as the representative point set. Here, (+) or (-) is the judgment reference information, and becomes (+) when the storage phase synchronization degree average is larger than the non-storage phase synchronization degree average, and the non-storage phase synchronization degree average is stored. If it is larger than the average time-phase synchronization degree, it is assumed to be (-).

また有意水準を1%とした場合には、計測点選択装置10は、(FC5,Fp2)(+)の組み合わせのみを有意な差があったものとして、この組を代表点組として選択した。 Further, when the significance level was set to 1%, the measurement point selection device 10 selected only the combination of (FC5, Fp2) and (+) as the representative point set, assuming that there was a significant difference.

つまり本実施の形態は、ここでの例のように動画のシーンを記憶している場合と、記憶していない場合とで脳波の位相同期度に有意差がみられたチャンネル対間には機能的結合が存在すると考えて、これら機能的結合が存在すると判断されたチャンネルの対を、代表点組とするものである。 That is, the present embodiment functions between the channel pairs in which the phase synchronization degree of the brain wave is significantly different between the case where the moving image scene is memorized and the case where the moving image scene is not memorized as in the example here. The pair of channels judged to have these functional connections, which are considered to exist, is used as a representative point set.

[代表点組の他の例]
またここまでの説明においては、代表点組は、一対の計測点での脳波データの位相同期度に基づいて選択されるため、計測点の対として選択されることとなっているが、本実施の形態はこれに限られない。
[Other examples of representative point set]
Further, in the description so far, since the representative point set is selected based on the phase synchronization degree of the electroencephalogram data at the pair of measurement points, it is selected as the pair of measurement points. The form of is not limited to this.

例えば、3以上の計測点の組み合わせごとの脳波データ間の位相同期度を評価し、記憶シーン視聴中、他の計測点の組み合わせに係る脳波データ間の位相同期度に対して、その位相同期度に有意差のある計測点の組み合わせを見出して、当該見出した組み合わせに係る計測点を代表点組として選択してもよい。 For example, the phase synchronization degree between the brain wave data for each combination of three or more measurement points is evaluated, and the phase synchronization degree with respect to the phase synchronization degree between the brain wave data related to the combination of other measurement points while viewing the storage scene. A combination of measurement points having a significant difference may be found, and the measurement points related to the found combination may be selected as a representative point set.

[行動推定装置の機能的構成]
次に、行動推定装置20の制御部21の動作について説明する。制御部21は、記憶部22に格納されたプログラムを実行することで、図6に例示するように、脳波情報取得部41と、推定処理部42と、出力処理部43とを機能的に含む構成を実現する。
[Functional configuration of behavior estimation device]
Next, the operation of the control unit 21 of the behavior estimation device 20 will be described. By executing the program stored in the storage unit 22, the control unit 21 functionally includes the brain wave information acquisition unit 41, the estimation processing unit 42, and the output processing unit 43, as illustrated in FIG. Realize the configuration.

またこの行動推定装置20に接続される脳波計40は、計測点選択装置10が選択した代表点組に含まれる少なくとも一対の計測点間のネットワークに着目して、当該計測点での脳波データを計測するものである。従って、この脳波計40は、多チャンネル脳波計30に比して簡便なものであり、装置コストも計測に要する負担も比較的軽度なものとなる。 Further, the electroencephalograph 40 connected to the behavior estimation device 20 focuses on the network between at least a pair of measurement points included in the representative point set selected by the measurement point selection device 10, and obtains the electroencephalogram data at the measurement points. It is to measure. Therefore, the electroencephalograph 40 is simpler than the multi-channel electroencephalograph 30, and the equipment cost and the burden required for measurement are relatively light.

本実施の形態の一例では、この脳波計40は、行動中の推定対象者の脳波データを逐次的に取得するものであり、推定対象者の頭部表面上の計測点のうち、FC5,Fp2の2点(有意水準1%で計測点選択装置10が選択した計測点)、及び、参照計測点となる両耳の耳介における計測点A1,A2の合計4つの計測点での脳波データを計測する。そして脳波計40は、FC5,Fp2の2点で計測した各脳波データ(生データ)からそれぞれ参照データとなる計測点A1またはA2で計測した脳波データを差引いて増幅して、上記FC5,Fp2の各点での脳波データとして出力する。なお、ここでFC5,Fp2は、いずれも拡張国際10/20法で規定される計測点である。 In one example of the present embodiment, the electroencephalograph 40 sequentially acquires the electroencephalogram data of the estimated target person in action, and among the measurement points on the head surface of the estimated target person, FC5 and Fp2. EEG data at two points (measurement points selected by the measurement point selection device 10 at a significance level of 1%) and measurement points A1 and A2 in the ears of both ears as reference measurement points. measure. Then, the electroencephalograph 40 subtracts and amplifies the electroencephalogram data measured at the measurement points A1 or A2 as reference data from each electroencephalogram data (raw data) measured at the two points FC5 and Fp2, and amplifies the electroencephalogram data of the FC5 and Fp2. It is output as brain wave data at each point. Here, FC5 and Fp2 are all measurement points defined by the Extended International 10/20 Law.

また以下では説明を容易にするため、行動は動画の視聴であるものとし、行動推定装置20は、動画に含まれるシーンが、推定対象者にとって印象に残るものであったか(記憶シーンとなったか)否かを推定するものであるとする。 Further, in the following, in order to facilitate the explanation, the behavior is assumed to be the viewing of a moving image, and in the behavior estimation device 20, was the scene included in the moving image memorable to the estimation target person (whether it became a memory scene)? It is assumed that it is to estimate whether or not it is.

脳波情報取得部41は、行動中の推定対象者の、上記FC5,Fp2の各点での脳波データの入力を、脳波計40から逐次的に受け入れる。なお、以下の説明では脳波データは、どの計測点での脳波データであるかが識別可能な状態で、行動推定装置20に入力されるものとする。 The electroencephalogram information acquisition unit 41 sequentially accepts the input of the electroencephalogram data at each point of FC5 and Fp2 of the estimated target person in action from the electroencephalograph 40. In the following description, it is assumed that the electroencephalogram data is input to the behavior estimation device 20 in a state where the electroencephalogram data at which measurement point can be identified.

推定処理部42は、計測点選択装置10が所定の行動に関して選択した代表点組を特定する情報と、当該代表点組における判定基準情報との入力を受け入れて記憶しておく。そしてこの推定処理部42は、脳波情報取得部41が各脳波データを逐次的に受け入れると、当該脳波データのそれぞれを、所定のタイミングごとに分割して行動の単位ごと(動画視聴の場合は視聴しているシーンごと)の分割脳波データE(k,i)(kは計測点を表し、iは行動の単位を識別する識別子であり、ここでの例ではシーン識別子であってi=1,2,…であるものとする)を得る。例えばこの推定処理部42は、1分ごとに過去1分間で受け入れた各点での脳波データを、それぞれの計測点での分割脳波データとして取り出す。 The estimation processing unit 42 accepts and stores the input of the information for specifying the representative point set selected by the measurement point selection device 10 for a predetermined action and the determination reference information in the representative point set. Then, when the electroencephalogram information acquisition unit 41 sequentially receives each electroencephalogram data, the estimation processing unit 42 divides each of the electroencephalogram data at predetermined timings and divides each of the electroencephalogram data into action units (viewing in the case of video viewing). Divided EEG data E (k, i) (k represents a measurement point, i is an identifier that identifies a unit of action, and in this example, it is a scene identifier and i = 1, 2, ...). For example, the estimation processing unit 42 takes out the electroencephalogram data at each point received in the past one minute every minute as divided electroencephalogram data at each measurement point.

推定処理部42は、取り出した分割脳波データのそれぞれに対して、所定のフィルタリング等の処理(計測点選択装置10で施した処理と同等のもの、ここでは例えばシータ帯域(4から7Hz)のバンドパスフィルタを適用する処理)を行い、各分割脳波データE(k,i)から(ここではそのシータ帯域の成分を抽出して)、分析対象脳波データT(k,i)を得る。 The estimation processing unit 42 performs processing such as predetermined filtering (processing equivalent to the processing performed by the measurement point selection device 10, here, for example, a band of theta band (4 to 7 Hz)) for each of the extracted divided electroencephalogram data. The process of applying the path filter) is performed, and the EEG data T (k, i) to be analyzed is obtained from each divided EEG data E (k, i) (here, the component of the theta band is extracted).

推定処理部42は、そして、計測点選択装置10が選択した代表点組を含む少なくとも一対の計測点の組を分析対象として、当該分析対象に係る一対の計測点(p,q)での分析対象脳波データT(p,i)とT(q,i)とに対して機能的結合解析を行い、その解析結果C(p,q,i)を得る。 The estimation processing unit 42 then analyzes at least a pair of measurement points including a representative point set selected by the measurement point selection device 10 at a pair of measurement points (p, q) related to the analysis target. Functional coupling analysis is performed on the target EEG data T (p, i) and T (q, i), and the analysis result C (p, q, i) is obtained.

この推定処理部42が行う機能的結合解析は、計測点選択装置10におけるものと同様のものであり、例えば分析対象とした一対の分析対象脳波データ間の位相差に基づく位相同期度を評価するものである。具体的にこの機能的結合解析は、PLV(Phase Locking Value)、及びそれから派生したiPLV(imaginary PLV)、ciPLV(corrected imaginary PLV)など、またはPLI(Phase Lag Index)、及びそれから派生したwPLI(weighted PLI)、dwPLI(debiased wPLI)など、またはPPC(Pairwise Phase Consistency)、及びそれから派生したwPPC(weighted PPC)などの情報のうちいずれかの情報を求める広く知られた方法を採用して行われる。またこの機能的結合解析の処理は、位相同期度の評価に限られず、振幅位相カップリングやグレンジャー因果、移動エントロピー、PSI(Phase Slope Index)、コヒーレンスなどを解析する処理であってもよい。 The functional coupling analysis performed by the estimation processing unit 42 is the same as that in the measurement point selection device 10, and for example, the phase synchronization degree based on the phase difference between the pair of analysis target electroencephalogram data as the analysis target is evaluated. It is a thing. Specifically, this functional coupling analysis includes PLV (Phase Locking Value) and derived iPLV (imaginary PLV), ciPLV (corrected imaginary PLV), etc., or PLI (Phase Lag Index) and wPLI (weighted) derived from it. It is performed by adopting a widely known method for requesting information of any one of PLI), dwPLI (debiased wPLI), etc., or PPC (Pairwise Phase Consistency), and wPPC (weighted PPC) derived from the information. Further, the processing of this functional coupling analysis is not limited to the evaluation of the phase synchronization degree, and may be the processing of analyzing the amplitude phase coupling, the Granger causality, the mobile entropy, the PSI (Phase Slope Index), the coherence, and the like.

推定処理部42は、代表点組ごとに、各シーン識別子に対応する機能的結合解析の結果C(p,q,i)(例えばdwPLIの値)と対応する判定基準情報とを参照し、シーン識別子i=1,2,…に対応する代表点組(p,q)の解析結果C(p,q,i)のうち、代表点組(p,q)に対応する判定基準情報が示す判定基準を満足するシーン識別子を検索する。 The estimation processing unit 42 refers to the result C (p, q, i) (for example, the value of dwPLI) of the functional connection analysis corresponding to each scene identifier and the judgment criterion information corresponding to each representative point set, and refers to the scene. Of the analysis results C (p, q, i) of the representative point set (p, q) corresponding to the identifiers i = 1, 2, ..., The determination indicated by the judgment criterion information corresponding to the representative point set (p, q). Search for a scene identifier that meets the criteria.

具体的に推定処理部42は、判定基準情報が「+」であるときには、例えば代表点組(p,q)に係る解析結果C(p,q,i)の平均CM(p,q)に対し、C(p,q,j)>CM(p,q)であり、かつ、C(p,q,j)-CM(p,q)が所定のしきい値より大きいシーン識別子jを検索する。そして推定処理部42は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子で識別されるシーンが、印象に残るシーンであると判断する。 Specifically, when the determination criterion information is "+", the estimation processing unit 42 sets the average CM (p, q) of the analysis result C (p, q, i) related to the representative point set (p, q), for example. On the other hand, a scene identifier j in which C (p, q, j)> CM (p, q) and C (p, q, j) -CM (p, q) is larger than a predetermined threshold value is searched. do. Then, when such a scene identifier j is found, the estimation processing unit 42 determines that the scene identified by the found scene identifier is a memorable scene.

またこの場合、推定処理部42は、判定基準情報が「-」である代表点組(p,q)については、当該代表点組(p,q)に係る解析結果C(p,q,i)の平均CM(p,q)に対し、C(p,q,j)<CM(p,q)であり、かつ、CM(p,q)-C(p,q,j)が所定のしきい値より大きいシーン識別子jを検索する。そして推定処理部42は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子で識別されるシーンが、印象に残るシーンであると判断する。 Further, in this case, the estimation processing unit 42 has the analysis result C (p, q, i) related to the representative point set (p, q) for the representative point set (p, q) whose determination reference information is “−”. ) With respect to the average CM (p, q), C (p, q, j) <CM (p, q), and CM (p, q) -C (p, q, j) is predetermined. Search for the scene identifier j that is larger than the threshold value. Then, when such a scene identifier j is found, the estimation processing unit 42 determines that the scene identified by the found scene identifier is a memorable scene.

推定処理部42は、このような処理により、印象に残ると推定されるシーンのシーン識別子を見出す。そして出力処理部43は、推定処理部42が見出したシーン識別子を出力する。 The estimation processing unit 42 finds a scene identifier of a scene that is presumed to be memorable by such processing. Then, the output processing unit 43 outputs the scene identifier found by the estimation processing unit 42.

[行動推定装置の動作]
次に、行動推定装置20の動作について説明する。本実施の形態の例では予め、脳波データを計測する比較的少数の計測点を、計測点選択装置10により選択させておく。既に述べたように、計測点選択装置10は、所定の行動を行う実験対象者のN箇所の計測点での脳波データを用いて、少なくとも一対の計測点を代表点組として選択する。
[Operation of behavior estimation device]
Next, the operation of the behavior estimation device 20 will be described. In the example of this embodiment, a relatively small number of measurement points for measuring EEG data are selected in advance by the measurement point selection device 10. As described above, the measurement point selection device 10 selects at least a pair of measurement points as a representative point set by using the electroencephalogram data at the N measurement points of the experiment subject who performs a predetermined action.

行動推定装置20の利用者(推定対象者の行動に関する推定を行う作業者)は、計測対象者(推定対象者)の頭部の、上記代表点組を少なくとも一対含む計測点と、参照計測点とに脳波計40の電極を配する。この推定対象者は、この代表点組の選択時に実験対象者が行っていた行動と同じ行動を行うものとする。 The user of the behavior estimation device 20 (the worker who estimates the behavior of the estimation target person) is a measurement point including at least one pair of the above representative point sets on the head of the measurement target person (estimation target person) and a reference measurement point. The electrodes of the electroencephalograph 40 are arranged at and. This presumed subject shall perform the same behavior as the experiment subject performed when selecting this representative point set.

具体的に以下の例では、既に述べた例と同様、動画を視聴する行動を行うものとし、動画中のシーン(ここでは視聴する動画を1分ごとに分割したものを、それぞれシーンとする)のうち、シーンを記憶したとの行動(印象に残るシーンを視聴したこと)があったか否かを推定して、印象に残るシーンがどれであったかを検出することとする。 Specifically, in the following example, the action of watching the video is assumed as in the example already described, and the scene in the video (here, the scene in which the video to be watched is divided into 1 minute is referred to as each scene). Of these, it is estimated whether or not there was an action of memorizing the scene (viewing a memorable scene), and which was the memorable scene is detected.

なお、この行動推定装置20の利用に先立って、計測点選択装置10により代表点組を選択させるにあたり、脳波データを取得した実験対象者が視聴した動画と、この行動推定装置20に入力する脳波データを取得する推定対象者が視聴する動画とは異なっていてよい。 Prior to the use of the behavior estimation device 20, when the representative point set is selected by the measurement point selection device 10, the moving image watched by the experiment subject who acquired the brain wave data and the brain wave input to the behavior estimation device 20. It may be different from the video viewed by the estimated target person who acquires the data.

行動推定装置20は、脳波計40が計測した脳波データを受け入れる。ここでは脳波計40は、計測点選択装置10が選択した代表点組に含まれる少なくとも一対の計測点間のネットワークに着目して、動画を視聴している推定対象者の当該計測点での脳波データを計測して出力しているものとする。なお以下では、脳波計40は、推定対象者の頭部表面上の計測点のうち、代表点組としてのFC5,Fp2の2点(有意水準1%で計測点選択装置10が選択した計測点)、及び、参照計測点となる両耳の耳介における計測点A1,A2の合計4つの計測点での脳波データを計測するものとする。また上記代表点組(FC5,Fp2)に対応する判定基準情報は「+」であるものとする。 The behavior estimation device 20 receives the electroencephalogram data measured by the electroencephalograph 40. Here, the electroencephalograph 40 focuses on the network between at least a pair of measurement points included in the representative point set selected by the measurement point selection device 10, and the electroencephalogram at the measurement point of the estimation target person who is watching the moving image. It is assumed that the data is measured and output. In the following, the electroencephalograph 40 has two measurement points of FC5 and Fp2 as representative point sets (measurement points selected by the measurement point selection device 10 at a significance level of 1%) among the measurement points on the head surface of the estimation target person. ), And the electroencephalogram data at the measurement points A1 and A2 in the pinna of both ears, which are the reference measurement points, shall be measured. Further, it is assumed that the judgment criterion information corresponding to the representative point set (FC5, Fp2) is "+".

行動推定装置20は、脳波計40から脳波データを逐次的に受け入れて、図7に例示する処理を行う。この行動推定装置20は、予め、計測点選択装置10が動画視聴の行動に関して選択した代表点組を特定する情報と、当該代表点組における判定基準情報との入力を受け入れて記憶しておく。 The behavior estimation device 20 sequentially receives the electroencephalogram data from the electroencephalograph 40 and performs the process illustrated in FIG. 7. The behavior estimation device 20 receives and stores in advance the input of the information for specifying the representative point set selected by the measurement point selection device 10 regarding the behavior of watching the moving image and the determination reference information in the representative point set.

行動推定装置20は、脳波計40から逐次的に受け入れた、各計測点での脳波データのそれぞれに対して前処理(計測点選択装置10のステップS14と同じ処理でよい)を行った後、シーンごと(ここでは1分間ごと)の脳波データに分割する。そして行動推定装置20は、シーンごとの分割脳波データE(FC5,i),E(Fp2,i)(iは行動の単位を識別する識別子であり、ここでの例ではシーン識別子であってi=1,2,…であるものとする)を得る(S51)。 The behavior estimation device 20 performs preprocessing (same processing as step S14 of the measurement point selection device 10) for each of the electroencephalogram data at each measurement point sequentially received from the electroencephalograph 40, and then the behavior estimation device 20 performs the same processing. It is divided into brain wave data for each scene (here, every minute). The behavior estimation device 20 is divided brain wave data E (FC5, i), E (Fp2, i) for each scene (i is an identifier that identifies a unit of behavior, and in this example, it is a scene identifier and i. = 1, 2, ...) (S51).

行動推定装置20は、ステップS51で取り出した分割脳波データのそれぞれに対して、シータ帯域(4から7Hz)のバンドパスフィルタを適用し、各分割脳波データE(FC5,i),E(Fp2,i)シータ帯域の成分を抽出して、分析対象脳波データT(FC5,i),T(Fp2,i)を得る(S52)。 The behavior estimation device 20 applies a bandpass filter in the theta band (4 to 7 Hz) to each of the divided electroencephalogram data extracted in step S51, and each divided electroencephalogram data E (FC5, i), E (Fp2,). i) The components of the theta band are extracted to obtain the electroencephalogram data T (FC5, i) and T (Fp2, i) to be analyzed (S52).

そして行動推定装置20は、計測点選択装置10が選択した代表点組に含まれる計測点をそれぞれ分析対象として、分析対象ごと、かつ、シーン識別子ごとに、以下の処理を繰り返す。 Then, the behavior estimation device 20 repeats the following processing for each analysis target and for each scene identifier, with the measurement points included in the representative point set selected by the measurement point selection device 10 as analysis targets.

この繰り返しの処理の過程で、行動推定装置20は、分析対象に係る一対の計測点(FC5,Fp2)での分析対象脳波データT(FC5,i)とT(Fp2,i)とに対して機能的結合解析として例えばdwPLIを求める処理を行い、その解析結果C(FC5,Fp2,i)を得る(S53)。 In the process of this repetitive processing, the behavior estimation device 20 receives the analysis target electroencephalogram data T (FC5, i) and T (Fp2, i) at the pair of measurement points (FC5, Fp2) related to the analysis target. As a functional coupling analysis, for example, a process for obtaining dwPLI is performed, and the analysis result C (FC5, Fp2, i) is obtained (S53).

また行動推定装置20は、すべてのシーンについての解析結果Cが得られた後、代表点組ごとに、各シーン識別子に対応するdwPLIの値C(FC5,Fp2,i)と、代表点組に対応する判定基準情報(ここでは「+」)とを参照し、シーン識別子i=1,2,…に対応する代表点組(FC5,Fp2)の解析結果C(FC5,Fp2,i)のうち、代表点組(FC5,Fp2)に対応する判定基準情報「+」が示す判定基準を満足するシーン識別子を検索する(S54)。 Further, after the analysis results C for all the scenes are obtained, the behavior estimation device 20 sets the dwPLI value C (FC5, Fp2, i) corresponding to each scene identifier and the representative point set for each representative point set. Of the analysis results C (FC5, Fp2, i) of the representative point set (FC5, Fp2) corresponding to the scene identifiers i = 1, 2, ... With reference to the corresponding determination criterion information (here, "+"). , Search for a scene identifier that satisfies the determination criteria indicated by the determination criteria information "+" corresponding to the representative point set (FC5, Fp2) (S54).

つまり、ここでは行動推定装置20は、代表点組(FC5,Fp2)に係る解析結果C(FC5,Fp2,i)の平均CM(FC5,Fp2)に対し、C(FC5,Fp2,j)>CM(FC5,Fp2)であり、かつ、C(FC5,Fp2,j)-CM(FC5,Fp2)が所定のしきい値より大きいシーン識別子jを検索する。そして行動推定装置20は、そのようなシーン識別子jが見出されたときには、当該見出したシーン識別子jを出力する(S55)。 That is, here, the behavior estimation device 20 has C (FC5, Fp2, j)> with respect to the average CM (FC5, Fp2) of the analysis result C (FC5, Fp2, i) relating to the representative point set (FC5, Fp2). The scene identifier j which is CM (FC5, Fp2) and whose C (FC5, Fp2, j) -CM (FC5, Fp2) is larger than a predetermined threshold value is searched. Then, when such a scene identifier j is found, the behavior estimation device 20 outputs the found scene identifier j (S55).

これにより、行動推定装置20の利用者は、推定対象者の印象に残ると推定されるシーンのシーン識別子を得る。 As a result, the user of the behavior estimation device 20 obtains a scene identifier of a scene that is estimated to leave an impression on the estimation target person.

そして複数の互いに異なる推定対象者を対象として上記の処理を繰り返して行い、各推定対象者にとって印象に残ると推定されたシーンの識別子を得て、動画中、どの部分が最も印象に残るシーンとなっているかを分析するなどの処理に供する。 Then, the above processing is repeated for a plurality of different estimation target persons, and the identifier of the scene estimated to be memorable for each estimation target person is obtained, and which part of the video is the most memorable scene. It is used for processing such as analyzing whether it is.

本実施の形態によると、行動に関してアンケート調査を行うことなく、客観的な分析を行うことが可能となる。また、多チャンネル脳波計を用いることなく、予め所定の行動時に特徴的な脳波データが検出可能な一対の測定点を選択するため、チャンネル数の少ない簡易な脳波計を用いた行動の推定が可能となっている。 According to this embodiment, it is possible to perform an objective analysis without conducting a questionnaire survey on behavior. In addition, since a pair of measurement points that can detect characteristic electroencephalograph data at a predetermined action are selected in advance without using a multi-channel electroencephalograph, it is possible to estimate an action using a simple electroencephalograph with a small number of channels. It has become.

また処理を行うチャンネル数が少ないため、比較的負荷の軽い処理により、シーンの記憶に関する推定を行うことができ、従来よりも多数の推定対象者から推定結果を収集可能となる。 In addition, since the number of channels to be processed is small, it is possible to estimate the memory of the scene by processing with a relatively light load, and it is possible to collect estimation results from a larger number of estimation targets than before.

さらにこのようにして推定された結果を用いると、提示した動画等のコンテンツがどの程度印象に残るものであるかについて客観的な評価を提供でき、より印象的な動画の提供や、より期待感を与え得る動画の提供などといった目的にも資することが可能となる。 Furthermore, by using the results estimated in this way, it is possible to provide an objective evaluation of how memorable the content such as the presented video is, and to provide a more impressive video and a more promising feeling. It is also possible to contribute to the purpose such as providing videos that can give.

また、個人で脳波計を用いて測定を行い、上記処理により、自らの記憶に残りやすいシーンを分析することで、各個人に対するコンテンツの推薦等の処理にも利用できる。 In addition, it can be used for processing such as recommendation of contents for each individual by measuring by an individual using an electroencephalograph and analyzing a scene that is likely to remain in his / her own memory by the above processing.

1 行動推定システム、10 計測点選択装置、11 制御部、12 記憶部、13 操作部、14 出力部、15 入出力部、20 行動推定装置、21 制御部、22 記憶部、23 操作部、24 出力部、25 入出力部、30 多チャンネル脳波計、31 計測結果受入部、32 計測結果記録部、33 情報受入部、34 分析処理部、35 選択処理部、36 出力処理部、40 脳波計、41 脳波情報取得部、42 推定処理部、43 出力処理部。


1 Behavior estimation system, 10 Measurement point selection device, 11 Control unit, 12 Storage unit, 13 Operation unit, 14 Output unit, 15 Input / output unit, 20 Behavior estimation device, 21 Control unit, 22 Storage unit, 23 Operation unit, 24 Output unit, 25 input / output unit, 30 multi-channel electrosurgical unit, 31 measurement result receiving unit, 32 measurement result recording unit, 33 information receiving unit, 34 analysis processing unit, 35 selection processing unit, 36 output processing unit, 40 electrosurgical unit, 41 Brain wave information acquisition unit, 42 estimation processing unit, 43 output processing unit.


Claims (10)

脳波の計測により、計測対象者が行う予め定めた種類の行動の結果を推定する行動推定システムであって、計測点選択装置と、行動推定装置とを含み、
前記計測点選択装置が、
前記予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、
前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
を含み、
前記行動推定装置が、
前記予め定めた種類の行動を行っている計測対象者の、前記計測点選択装置が選択した代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
を含む行動推定システム。
It is a behavior estimation system that estimates the result of a predetermined type of behavior performed by a measurement target person by measuring brain waves, and includes a measurement point selection device and a behavior estimation device.
The measurement point selection device
The electroencephalogram data of the measurement target person performing the predetermined type of behavior is the measurement point of the predetermined N point (N is an integer where N> 2) of the subject's head and the M point (M is a natural number). ) Reference measurement point and measurement means to measure,
The measurement points at the N points are based on the functional connection analysis of the EEG data at the pair of measurement points selected from the measurement points at the N points and the result of the action presented by the measurement target person. A selection means for selecting at least a pair of points as a representative point set, and
Including
The behavior estimation device
Acquisition of acquisition of brain wave data at n points (n is an integer such that N> n ≧ 2) including the representative point set selected by the measurement point selection device of the measurement target person performing the predetermined type of behavior. Means and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
Behavior estimation system including.
予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、
前記N点の計測点から選択される一対の計測点での、前記脳波データに関する機能的結合解析と、前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
を含み、
当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供される計測点選択装置。
The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. Measurement means to measure with the reference measurement point of
The measurement points at the N points are based on the functional connection analysis of the EEG data at the pair of measurement points selected from the measurement points at the N points and the result of the action presented by the measurement target person. A selection means for selecting at least a pair of points as a representative point set, and
Including
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A measurement point selection device that is used for processing to acquire the brain wave data in the device and estimate the result of the behavior of the measurement target person.
請求項2に記載の計測点選択装置であって、
前記選択手段は、前記N点の計測点から選択され得るすべての2点の計測点の組み合わせについて、前記機能的結合解析の処理として、PLV(Phase Locking Value)、またはPLVを取得する方法から派生した方法で取得される情報、あるいはPLI(Phase Lag Index)、またはPLIを取得する方法から派生した方法で取得される情報、あるいはPPC(Pairwise Phase Consistency)、またはPPCを取得する方法から派生した方法で取得される情報のいずれかの情報に基づく位相同期解析を行って、当該位相同期解析の結果と前記計測対象者により提示される前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する計測点選択装置。
The measurement point selection device according to claim 2.
The selection means is derived from a method of acquiring a PLV (Phase Locking Value) or PLV as a process of the functional coupling analysis for a combination of all two measurement points that can be selected from the N points of measurement points. Information obtained by the method obtained, or information obtained by a method derived from the method of obtaining PLI (Phase Lag Index) or PLI, or a method derived from PPC (Pairwise Phase Consistency) or a method of obtaining PPC. Perform a phase-locked analysis based on any of the information acquired in, and based on the result of the phase-locked analysis and the result of the action presented by the measurement target person, the measurement point of the N point is A measurement point selection device that selects at least a pair of points as a representative point set.
請求項2または3に記載の計測点選択装置であって、
前記選択手段は、前記機能的結合解析の処理として、前記行動の結果が所定の条件を満足する結果である場合の機能的結合解析の結果と、前記行動の結果が所定の条件を満足しない結果である場合の機能的結合解析の結果との対比により、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する計測点選択装置。
The measurement point selection device according to claim 2 or 3.
The selection means is a process of the functional binding analysis, in which the result of the functional binding analysis when the result of the action satisfies the predetermined condition and the result of the result of the action not satisfying the predetermined condition. A measurement point selection device that selects at least a pair of measurement points among the N points as a representative point set by comparison with the result of the functional coupling analysis in the case of.
請求項2から4のいずれか一項に記載の計測点選択装置であって、
前記行動は、動画に含まれるシーンごとに、その内容を記憶する行動であり、
前記選択手段は、シーンごとに、前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち2点を代表点組候補として選択し、当該シーンごとの選択結果に基づき、前記N点の計測点のうち2点を代表点として選択する計測点選択装置。
The measurement point selection device according to any one of claims 2 to 4.
The above-mentioned action is an action of memorizing the contents of each scene included in the video.
The selection means is based on a functional connection analysis of brain wave data at two measurement points selected from the N measurement points for each scene, and the result of the action presented by the measurement target person. Then, a measurement point selection device that selects two of the N points of measurement points as representative point set candidates and selects two of the N points of measurement points as representative points based on the selection result for each scene. ..
脳波の計測により、計測対象者が行う予め定めた種類の行動の結果を推定する行動推定装置であって、
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
を含む行動推定装置。
It is a behavior estimation device that estimates the results of predetermined types of behavior performed by the measurement target by measuring brain waves.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is n) including the representative point set specified by the information. An acquisition means for acquiring EEG data with N> n ≧ 2) and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
Behavior estimation device including.
予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測工程と、
前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択工程と、
を含み、
当該代表点組を特定する情報が、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供される情報処理装置の制御方法。
The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. The measurement process measured at the reference measurement point of
Based on the functional coupling analysis of the electroencephalogram data at the two measurement points selected from the N point measurement points and the result of the action presented by the measurement target person, the N point measurement point A selection process that selects at least a pair of points as a representative point set,
Including
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A control method for an information processing device that is used for processing to acquire the brain wave data in the above and estimate the result of the behavior of the measurement target person.
行動推定装置に、脳波の計測により、計測対象者が行う予め定めた種類の行動の結果を推定させる行動推定装置の制御方法であって、
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得させる工程と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定させる工程と、を含む行動推定装置の制御方法。
It is a control method of a behavior estimation device that causes a behavior estimation device to estimate the result of a predetermined type of behavior performed by a measurement target person by measuring brain waves.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is) including the representative point set specified by the information. The process of acquiring EEG data with N> n ≧ 2) and
A control method of a behavior estimation device including a step of estimating a behavior result of the measurement target person based on the acquired electroencephalogram data.
コンピュータを、
予め定めた種類の行動を行っている計測対象者の脳波データを、当該対象者の頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とで計測する計測手段と、
前記N点の計測点から選択される2点の計測点での脳波データに関する機能的結合解析と、前記計測対象者により提示された前記行動の結果とに基づいて、前記N点の計測点のうち少なくとも一対の点を代表点組として選択する選択手段と、
として機能させ、
当該代表点組を特定する情報を、前記予め定めた種類の行動を行っている計測対象者の、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得して、当該計測対象者の行動の結果を推定する処理に供するプログラム。
Computer,
The EEG data of the measurement target person performing a predetermined type of behavior is the measurement point of the predetermined N point (N is an integer of N> 2) and the M point (M is a natural number) of the subject's head. Measurement means to measure with the reference measurement point of
Based on the functional coupling analysis of the electroencephalogram data at the two measurement points selected from the N point measurement points and the result of the action presented by the measurement target person, the N point measurement point A selection method for selecting at least a pair of points as a representative point set,
To function as
The information that identifies the representative point set is n points (n is an integer such that N> n ≧ 2) including the representative point set specified by the information of the measurement target person who is performing the predetermined type of action. A program that acquires brain wave data in the above and uses it for processing to estimate the result of the behavior of the person to be measured.
コンピュータを、脳波の計測により、計測対象者が行う予め定めた種類の行動の結果を推定するよう機能させるプログラムであって、前記コンピュータを、
前記予め定めた種類の行動を行った計測対象者に対する計測結果に基づいて選択された、頭部の所定のN点(NはN>2なる整数)の計測点と、M点(Mは自然数)の参照計測点とのうち、前記N点の計測点から選択される代表点組である2点を特定する情報を参照し、当該情報で特定される代表点組を含むn点(nはN>n≧2なる整数)での脳波データを取得する取得手段と、
当該取得した脳波データに基づいて当該計測対象者の行動の結果を推定する推定処理手段と、
として機能させるプログラム。

A program that causes a computer to function by measuring brain waves to estimate the results of predetermined types of actions performed by a person to be measured.
A measurement point at a predetermined N point (N is an integer where N> 2) of the head selected based on the measurement result for the measurement target person who has performed the predetermined type of action, and an M point (M is a natural number). ) Refers to the information that identifies two points that are the representative point set selected from the N points of the measurement points, and n points (n is n) including the representative point set specified by the information. An acquisition means for acquiring EEG data with N> n ≧ 2) and
An estimation processing means that estimates the result of the behavior of the measurement target person based on the acquired EEG data, and
A program that functions as.

JP2020209743A 2020-12-17 2020-12-17 Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program Pending JP2022096561A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020209743A JP2022096561A (en) 2020-12-17 2020-12-17 Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020209743A JP2022096561A (en) 2020-12-17 2020-12-17 Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program

Publications (1)

Publication Number Publication Date
JP2022096561A true JP2022096561A (en) 2022-06-29

Family

ID=82163923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020209743A Pending JP2022096561A (en) 2020-12-17 2020-12-17 Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program

Country Status (1)

Country Link
JP (1) JP2022096561A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116421187A (en) * 2023-03-30 2023-07-14 之江实验室 Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116421187A (en) * 2023-03-30 2023-07-14 之江实验室 Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence
CN116421187B (en) * 2023-03-30 2023-10-13 之江实验室 Attention deficit hyperactivity disorder analysis system based on speech hierarchy sequence

Similar Documents

Publication Publication Date Title
Amitay et al. A comparison of adaptive procedures for rapid and reliable threshold assessment and training in naive listeners
Antons et al. Analyzing speech quality perception using electroencephalography
US8560360B2 (en) Method, system and computer program for automated interpretation of measurements in response to stimuli
Kovalenko et al. A pool of pairs of related objects (POPORO) for investigating visual semantic integration: Behavioral and electrophysiological validation
CN107274223B (en) Advertisement evaluation method integrating electroencephalogram signal and gaze tracking characteristics
Bosse et al. Brain-computer interfacing for multimedia quality assessment
WO2009073634A1 (en) Correlating media instance information with physiological responses from participating subjects
Arndt et al. Review on using physiology in quality of experience
CN113554597B (en) Image quality evaluation method and device based on electroencephalogram characteristics
WO2018088187A1 (en) Information processing device, information processing method, and program
US11006834B2 (en) Information processing device and information processing method
JP5799351B1 (en) Evaluation apparatus and evaluation method
JP2015229040A (en) Emotion analysis system, emotion analysis method, and emotion analysis program
CN110279415B (en) Image distortion threshold coefficient estimation method based on electroencephalogram signals
US20210022637A1 (en) Method for predicting efficacy of a stimulus by measuring physiological response to stimuli
KR101595546B1 (en) Apparatus, method and program for measuring visual fatigue
JP2022096561A (en) Behavior estimation system, measurement point selection device, behavior estimation device, method for controlling information processing device, method for controlling behavior estimation device, and program
Arnau-González et al. Perceptual video quality evaluation by means of physiological signals
Kroupi et al. Predicting subjective sensation of reality during multimedia consumption based on EEG and peripheral physiological signals
Bonacci et al. Nonspatial features reduce the reliance on sustained spatial auditory attention
Beim et al. No effects of attention or visual perceptual load on cochlear function, as measured with stimulus-frequency otoacoustic emissions
Donley et al. Analysing the Quality of Experience of multisensory media from measurements of physiological responses
Wisniewski et al. Enhanced auditory spatial performance using individualized head-related transfer functions: An event-related potential study
Arndt et al. Does low quality audiovisual content increase fatigue of viewers
US20150317647A1 (en) Method And Apparatus For Correlating Biometric Responses To Analyze Audience Reactions

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231201