JP6154728B2 - Viewing state estimation apparatus and program thereof - Google Patents

Viewing state estimation apparatus and program thereof Download PDF

Info

Publication number
JP6154728B2
JP6154728B2 JP2013223058A JP2013223058A JP6154728B2 JP 6154728 B2 JP6154728 B2 JP 6154728B2 JP 2013223058 A JP2013223058 A JP 2013223058A JP 2013223058 A JP2013223058 A JP 2013223058A JP 6154728 B2 JP6154728 B2 JP 6154728B2
Authority
JP
Japan
Prior art keywords
similarity
learning
viewing state
biological signal
subjects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013223058A
Other languages
Japanese (ja)
Other versions
JP2015087782A (en
Inventor
康仁 澤畠
康仁 澤畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013223058A priority Critical patent/JP6154728B2/en
Publication of JP2015087782A publication Critical patent/JP2015087782A/en
Application granted granted Critical
Publication of JP6154728B2 publication Critical patent/JP6154728B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、コンテンツを視聴する視聴者の当該コンテンツに対する理解度、主観評価等の視聴状態を推定する視聴状態推定装置およびそのプログラムに関する。   The present invention relates to a viewing state estimation device and a program for estimating a viewing state such as a degree of understanding of a content of a viewer who views the content and subjective evaluation.

従来、放送番組等のコンテンツに対する理解度や主観評価は、コンテンツ視聴後の視聴者に対するアンケート(メール、はがき等)や、複数の被験者にコンテンツを視聴させた後の被験者に対するアンケート(解答用紙等による解答)により行われてきた。
このようなコンテンツに対する理解度や主観評価は、視聴者の嗜好等の把握に役立つとともに、視聴者に対して有益な情報推薦等の応用が期待される。しかし、コンテンツに対する理解度や主観評価を行うには、数多くのアンケートを集計する必要があり、コンテンツ視聴後に毎回アンケートを行うことは現実的ではない。
そこで、近年、任意の被験者を対象として、生体信号等の計測データから客観的かつ自動的に理解度等の視聴者の視聴状態を把握する技術が提案されている(特許文献1〜6参照)。
これらの技術では、計測された生体信号に、予め定めた生体信号パターンが含まれるか否かによって理解度等の推定を行っている。
Conventionally, comprehension and subjective evaluation of content such as broadcast programs are based on questionnaires (emails, postcards, etc.) for viewers after viewing the content, and questionnaires (subjects such as answer sheets) for subjects after having multiple subjects view the content. Answer).
Such an understanding level and subjective evaluation for content are useful for grasping viewer's preference and the like, and are expected to be useful for information recommendation and the like for viewers. However, in order to perform understanding and subjective evaluation of content, it is necessary to count a large number of questionnaires, and it is not realistic to conduct a questionnaire every time after viewing the content.
Therefore, in recent years, a technique has been proposed in which an arbitrary subject is subjected to objective and automatic grasping of a viewer's viewing state such as an understanding level from measurement data such as a biological signal (see Patent Documents 1 to 6). .
In these techniques, the degree of understanding or the like is estimated based on whether or not a measured biological signal includes a predetermined biological signal pattern.

特許第4370209号公報Japanese Patent No. 4370209 特許第4441345号公報Japanese Patent No. 4441345 特許第4686299号公報Japanese Patent No. 4686299 特許第3991066号公報Japanese Patent No. 3991066 特許第4189440号公報Japanese Patent No. 4189440 特許第5119375号公報Japanese Patent No. 5119375

しかし、放送番組等のコンテンツは種類(ジャンル、内容等)が多種多様であり、それに対する応答は複雑である。
前記したような予め定めた生体信号パターンを用いる技術では、その生体信号パターンが固定されているため、多種多様なコンテンツに対して適用することができない。
すなわち、従来の技術は、特定のコンテンツについては、予め定めた生体信号パターンによって視聴者の視聴状態を推定できたとしても、異なるコンテンツについては、生体信号パターンが異なるため、視聴者の視聴状態を推定することができないという問題がある。
However, there are various types (genre, content, etc.) of contents such as broadcast programs, and the response to them is complicated.
The technique using a predetermined biological signal pattern as described above cannot be applied to a wide variety of contents because the biological signal pattern is fixed.
That is, even if the conventional technology can estimate the viewing state of the viewer based on a predetermined biological signal pattern for specific content, the biological signal pattern is different for different content. There is a problem that it cannot be estimated.

本発明は、このような問題に鑑みてなされたものであり、コンテンツごとに予め定めた生体信号パターンを用いることなく、多種多様なコンテンツに対して、視聴者の視聴状態を推定することが可能な視聴状態推定装置およびそのプログラムを提供することを課題とする。   The present invention has been made in view of such a problem, and it is possible to estimate the viewing state of the viewer with respect to various contents without using a biological signal pattern predetermined for each content. It is an object of the present invention to provide a simple viewing state estimation device and a program thereof.

前記課題を解決するため、本発明に係る視聴状態推定装置は、コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、学習用生体信号類似度算出手段と、学習用視聴状態類似度算出手段と、類似度間マッピング情報算出手段と、チャンネル選択手段と、生体信号抽出手段と、選択生体信号類似度算出手段と、視聴状態推定値算出手段と、を備える構成とした。   In order to solve the above-mentioned problem, the viewing state estimation apparatus according to the present invention is a result of the learning subject answering the biometric signals of a plurality of learning subjects who are viewing content and the question asking about the viewing state of the content. A viewing state estimation device for estimating the viewing state of the target subject from the biological signal of the target subject who is viewing the content based on the learning answer data, A configuration comprising learning viewing state similarity calculating means, similarity mapping information calculating means, channel selecting means, biological signal extracting means, selected biological signal similarity calculating means, and viewing state estimated value calculating means. It was.

かかる構成において、視聴状態推定装置は、学習用生体信号類似度算出手段によって、生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度(生体信号類似度)を算出する。
また、視聴状態推定装置は、学習用視聴状態類似度算出手段によって、学習用被験者間の学習用解答データの類似度(視聴状態類似度)を算出する
この生体信号類似度と視聴状態類似度とは、強い相関があると考えられる。
そこで、視聴状態推定装置は、生体信号類似度と視聴状態類似度とを関連付けるため、類似度間マッピング情報算出手段によって、計測チャンネルごとに、予め定めた人数の学習用被験者間の生体信号類似度と視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する。
In such a configuration, the viewing state estimation apparatus uses the learning biosignal similarity calculation unit to calculate the similarity between the learning subjects with respect to the biosignals of a plurality of learning subjects input for each measurement channel that is a measurement portion of the biosignal. The degree (biological signal similarity) is calculated.
In addition, the viewing state estimation apparatus calculates the similarity (viewing state similarity) of the answer data for learning between the learning subjects by the learning viewing state similarity calculating unit. Are considered to have a strong correlation.
Therefore, the viewing state estimation device associates the biological signal similarity with the viewing state similarity, so that the similarity signal mapping information calculation means calculates the biological signal similarity between a predetermined number of learning subjects for each measurement channel. And the weighting coefficient that maximizes the correlation between the viewing state similarity and the viewing state similarity are calculated as mapping information.

そして、視聴状態推定装置は、チャンネル選択手段によって、マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択する。
すなわち、視聴状態推定装置は、類似度間マッピング情報算出手段によって、予め定めた人数の学習用被験者から、マッピング情報を推定する。そして、視聴状態推定装置は、チャンネル選択手段によって、他の学習用被験者に対してそのマッピング情報を適用し、その推定誤差が予め定めた閾値よりも小さいマッピング情報を算出した計測チャンネルを選択チャンネルとして選択する。
Then, the viewing state estimation device uses the channel selection means to obtain mapping information for biosignal similarity and viewing state similarity between a plurality of other learning subjects different from the learning subject for which mapping information is calculated. A measurement channel whose correlation error when used is lower than a predetermined threshold is selected as a selected channel.
That is, the viewing state estimation apparatus estimates mapping information from a predetermined number of learning subjects by means of similarity mapping information calculation means. Then, the viewing state estimation device applies the mapping information to other learning subjects by the channel selection means, and uses the measurement channel that has calculated the mapping information whose estimation error is smaller than a predetermined threshold as the selection channel. select.

そして、視聴状態推定装置は、生体信号抽出手段によって、対象被験者について、計測チャンネルごとの生体信号から、選択チャンネルの生体信号を抽出する。これによって、視聴状態との相関が強い生体信号が抽出されることになる。
そして、視聴状態推定装置は、選択生体信号類似度算出手段によって、生体信号抽出手段で抽出された対象被験者の生体信号と、複数の学習用被験者の生体信号との類似度を算出する。
Then, the viewing state estimation device extracts the biological signal of the selected channel from the biological signal for each measurement channel for the subject subject by the biological signal extraction means. As a result, a biological signal having a strong correlation with the viewing state is extracted.
Then, the viewing state estimation apparatus calculates the similarity between the biological signal of the target subject extracted by the biological signal extraction means and the biological signals of the plurality of learning subjects by the selected biological signal similarity calculation means.

また、視聴状態推定装置は、視聴状態推定値算出手段によって、対象被験者の未知数の学習用解答データと複数の学習用被験者の学習用解答データとの類似度と、選択生体信号類似度算出手段で算出された類似度とについて、選択チャンネルに対応したマッピング情報を用いたときの相関が最大となる未知数の学習用解答データを視聴状態推定値として算出する。   Further, the viewing state estimation device uses the viewing state estimation value calculation means to calculate the similarity between the unknown learning answer data of the target subject and the learning answer data of the plurality of learning subjects, and the selected biological signal similarity calculation means. With respect to the calculated similarity, an unknown number of learning answer data having a maximum correlation when using mapping information corresponding to the selected channel is calculated as a viewing state estimation value.

このように、視聴状態推定装置は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報(重み係数)を推定し、そのマッピング情報に基づいて、対象被験者の生体信号から、対応する未知の解答データ(視聴状態)を推定する。
これによって、視聴状態推定装置は、従来のように、対象被験者の生体信号に予め定めた生体信号パターンが含まれるか否かにより視聴状態を判定することなく、対象被験者の視聴状態を推定することができる。
In this way, the viewing state estimation device is configured to map the mapping information (weighting coefficient) that associates the similarity of the biological signal between the plurality of learning subjects with the similarity of the viewing state (learning answer data) between the plurality of learning subjects. ) And the corresponding unknown answer data (viewing state) is estimated from the biological signal of the subject subject based on the mapping information.
Thereby, the viewing state estimation device estimates the viewing state of the target subject without determining the viewing state based on whether or not the biological signal pattern of the target subject includes a predetermined biological signal pattern as in the past. Can do.

なお、本発明に係る視聴状態推定装置は、視聴状態推定装置のコンピュータを、学習用生体信号類似度算出手段、学習用視聴状態類似度算出手段、類似度間マッピング情報算出手段、チャンネル選択手段、生体信号抽出手段、選択生体信号類似度算出手段、視聴状態推定値算出手段、として機能させるための視聴状態推定プログラムで動作させることができる。   The viewing state estimation apparatus according to the present invention includes a computer of the viewing state estimation apparatus, a learning biological signal similarity calculation unit, a learning viewing state similarity calculation unit, a similarity mapping information calculation unit, a channel selection unit, It is possible to operate with a viewing state estimation program for functioning as a biological signal extraction unit, a selected biological signal similarity calculation unit, and a viewing state estimation value calculation unit.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、コンテンツ視聴中に発生する特定の生体信号パターンと視聴状態とを関連付けるのではなく、学習用被験者間の生体信号の類似度と視聴状態(学習用解答データ)の類似度との関連性から、対象被験者の視聴状態を推定することができる。そのため、本発明は、任意のコンテンツに対して視聴状態を推定することができる。
また、本発明によれば、コンテンツの視聴者に与える影響を客観的に把握することができる。そのため、本発明は、コンテンツ配信による効果を定量的に評価することができる。
The present invention has the following excellent effects.
According to the present invention, rather than associating a specific biological signal pattern generated during content viewing with a viewing state, the similarity of the biological signal between the learning subjects and the similarity of the viewing state (learning answer data) The viewing state of the subject subject can be estimated from the relevance of. Therefore, the present invention can estimate the viewing state for any content.
Further, according to the present invention, it is possible to objectively grasp the influence of the content on the viewer. Therefore, the present invention can quantitatively evaluate the effect of content distribution.

本発明の実施形態に係る視聴状態推定装置の概要を説明するための説明図であって、(a)は視聴状態の学習段階、(b)は視聴状態の推定段階の概要を示す。It is explanatory drawing for demonstrating the outline | summary of the viewing-and-listening state estimation apparatus which concerns on embodiment of this invention, Comprising: (a) shows the learning stage of viewing-and-listening state, (b) shows the outline | summary of the viewing-and-listening state estimation stage. 本発明の実施形態に係る視聴状態推定装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the viewing-and-listening state estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る視聴状態推定装置の視聴状態の学習段階の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the learning stage of the viewing condition of the viewing condition estimation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る視聴状態推定装置の視聴状態の推定段階の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the estimation stage of the viewing condition of the viewing condition estimation apparatus which concerns on embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。
〔視聴状態推定装置の概要〕
最初に、図1を参照して、本発明の実施形態に係る視聴状態推定装置1の概要について説明する。
視聴状態推定装置1は、放送番組等のコンテンツを視聴中の被験者(対象被験者)の生体信号から、被験者のコンテンツに対する理解度、主観評価等の視聴状態を推定するものである。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of viewing state estimation device]
Initially, with reference to FIG. 1, the outline | summary of the viewing-and-listening state estimation apparatus 1 which concerns on embodiment of this invention is demonstrated.
The viewing state estimation device 1 estimates a viewing state such as a degree of comprehension and subjective evaluation of a subject's content from a biological signal of a subject (target subject) who is viewing the content such as a broadcast program.

図1(a)に示すように、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、テレビ受信機等のモニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)の複数の測定箇所(チャンネル)で計測される生体信号(学習用生体信号)を取得する。
また、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、視聴状態を尋ねる設問(アンケート)の解答(学習用解答データ)を取得する。そして、視聴状態推定装置1は、機械学習により、設問に関係の強い生体信号のチャンネルを推定する。
As shown in FIG. 1 (a), the viewing state estimation device 1 is viewing content presented on a monitor M such as a television receiver from a plurality of subjects (learning subjects Hs, Hs,...) As a learning stage. In addition, a biological signal (learning biological signal) measured at a plurality of measurement points (channels) of the biological signal measuring device (here, electroencephalograph B) is acquired.
Moreover, the viewing state estimation apparatus 1 acquires the answer (questioning answer data) of the question (questionnaire) which asks for a viewing state from a plurality of subjects (learning subjects Hs, Hs,...) As a learning stage. Then, the viewing state estimation apparatus 1 estimates the channel of the biological signal that is strongly related to the question by machine learning.

そして、図1(b)に示すように、視聴状態推定装置1は、推定段階として、対象被験者Htから、モニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)で計測される生体信号のうち、学習段階で推定したチャンネルの生体信号(推定対象生体信号)を取得して、対象被験者Htの視聴状態を示す解答データ(視聴状態推定値)を推定する。
なお、被験者(学習用被験者Hs、対象被験者Ht)が視聴するコンテンツは、同一のコンテンツである。また、複数の学習用被験者Hs,Hs,…に対して行うアンケートの内容は同一である。
以下、このように、学習と推定により使用するチャンネルを特定し、対象被験者Htの視聴状態を推定する視聴状態推定装置1の構成および動作について説明を行う。
Then, as shown in FIG. 1 (b), the viewing state estimation device 1 performs the biological signal measurement device (in this case, an electroencephalograph B) from the target subject Ht while viewing the content presented on the monitor M as an estimation stage. The biological signal (estimation target biological signal) of the channel estimated in the learning stage is acquired from the biological signals measured in step (1), and answer data (viewing state estimation value) indicating the viewing state of the target subject Ht is estimated.
Note that the content viewed by the subject (learning subject Hs, target subject Ht) is the same content. Moreover, the content of the questionnaire performed with respect to several test subjects Hs, Hs,... Is the same.
Hereinafter, the configuration and operation of the viewing state estimation apparatus 1 that identifies the channel to be used by learning and estimation and estimates the viewing state of the target subject Ht will be described below.

〔視聴状態推定装置の構成〕
まず、図2を参照して、本発明の実施形態に係る視聴状態推定装置1の構成について説明する。
[Configuration of viewing state estimation device]
First, the configuration of the viewing state estimation apparatus 1 according to the embodiment of the present invention will be described with reference to FIG.

図2に示すように、視聴状態推定装置1は、事前の学習段階において、推定段階で使用するチャンネルを選択するための、生体信号入力手段10と、生体信号記憶手段11と、学習用生体信号類似度算出手段12と、視聴状態入力手段13と、視聴状態記憶手段14と、学習用視聴状態類似度算出手段15と、類似度間マッピング情報算出手段16と、マッピング情報記憶手段17と、チャンネル選択手段18と、推定段階において、対象被験者の視聴状態を推定するための、生体信号抽出手段20と、選択生体信号類似度算出手段21と、視聴状態推定値算出手段22と、を備える。   As shown in FIG. 2, the viewing state estimation device 1 has a biological signal input means 10, a biological signal storage means 11, and a learning biological signal for selecting a channel to be used in the estimation stage in the prior learning stage. Similarity calculation means 12, viewing state input means 13, viewing state storage means 14, learning viewing state similarity calculation means 15, similarity mapping information calculation means 16, mapping information storage means 17, channel The selection unit 18 includes a biological signal extraction unit 20, a selection biological signal similarity calculation unit 21, and a viewing state estimation value calculation unit 22 for estimating the viewing state of the subject subject in the estimation stage.

生体信号入力手段10は、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、学習用被験者の生体信号を入力するものである。この生体信号入力手段10は、複数の学習用被験者から入力した生体信号を、それぞれ時系列信号として数値化し、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する。   The biological signal input means 10 inputs the biological signal of the subject for learning for each channel for measuring the biological signal via a biological signal measuring device (not shown) connected to the outside. The biological signal input means 10 digitizes biological signals input from a plurality of learning subjects as time series signals, and writes them into the biological signal storage means 11 in association with the learning subjects and channels.

ここで、生体信号とは、学習用被験者(対象被験者についても同様)の生体組織の状態や組織が機能している場合の情報を反映した信号である。この生体信号は、例えば、脳血中酸素量、脳波(EEG:Electroencephalogram)、人体の体表温度等である。
例えば、生体信号計測装置としてfMRI装置を用いることで、生体信号入力手段10は、機能的核磁気共鳴画像法(fMRI:Magnetic Resonance Imaging)により計測される画像の輝度データとして脳血中酸素量を取得することができる。
Here, the biological signal is a signal reflecting the state of the biological tissue of the learning subject (the same applies to the subject subject) and information when the tissue is functioning. This biological signal is, for example, cerebral blood oxygen content, electroencephalogram (EEG), body surface temperature of the human body, and the like.
For example, by using an fMRI apparatus as a biological signal measuring apparatus, the biological signal input means 10 can calculate the oxygen content in the brain blood as luminance data of an image measured by functional nuclear magnetic resonance imaging (fMRI: Magnetic Resonance Imaging). Can be acquired.

また、例えば、生体信号計測装置としてNIRS脳計測装置を用いることで、近赤外分光法(NIRS:Near Infrared Spectroscopy)により計測される近赤外光の吸収度合いを示すデータとして脳血中酸素量を取得することができる。
また、例えば、生体信号計測装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号計測装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
In addition, for example, by using a NIRS brain measuring device as a biological signal measuring device, the amount of oxygen in the brain blood as data indicating the degree of absorption of near infrared light measured by near infrared spectroscopy (NIRS) Can be obtained.
In addition, for example, by using an electroencephalograph as the biological signal measuring device, an electroencephalogram can be acquired as potential data measured by an electrode placed on the subject's scalp or the like.
In addition, for example, by using thermography as the biological signal measuring device, the body surface temperature can be acquired as image data indicating the heat distribution.

また、ここで、チャンネルとは、生体信号計測装置で計測される被験者の生体信号の計測箇所を示す。例えば、生体信号としてfMRIにより計測されるデータを用いる場合、fMRI装置が脳の複数の断面画像(3次元画像)を生成することから、チャンネルは、画像のピクセル単位(3次元画像であるため、より正確にはボクセル単位)で表された被験者の脳の部位に相当する。また、例えば、生体信号として、近赤外分光法により計測されるデータや脳波を用いる場合、チャンネルは、被験者の頭表上に置かれるプローブ単位または電極単位で表される脳の部位に相当する。   Here, the channel indicates a measurement point of the biological signal of the subject measured by the biological signal measurement device. For example, when data measured by fMRI is used as a biological signal, since the fMRI apparatus generates a plurality of cross-sectional images (three-dimensional images) of the brain, the channel is a pixel unit (three-dimensional image). More precisely, it corresponds to the brain part of the subject expressed in voxel units). In addition, for example, when using data or brain waves measured by near infrared spectroscopy as a biological signal, the channel corresponds to a portion of the brain expressed in probe units or electrode units placed on the subject's head surface. .

なお、fMRI装置は、脳内の酸素量を脳の断面画像として出力するが、その画像は被験者によって大きさ、形状等が異なる。そこで、生体信号入力手段10は、複数の被験者でチャンネルとして指し示す部位を揃えるため、アフィン変換等により、断面画像を圧縮、伸長、回転させ、標準脳と呼ばれるテンプレート脳画像と大きさ、形状等を合わせる正規化処理を行うことが好ましい。
また、生体信号入力手段10は、計測した生体信号に対して平滑化処理等を行うことで、生体信号のノイズを除去することが好ましい。
このように、生体信号入力手段10は、正規化処理、ノイズ除去等を行った生体信号を、生体信号記憶手段11に書き込み記憶する。
The fMRI apparatus outputs the amount of oxygen in the brain as a cross-sectional image of the brain, but the image differs in size, shape, etc. depending on the subject. Therefore, the biological signal input unit 10 compresses, expands, and rotates the cross-sectional image by affine transformation or the like in order to align the parts pointed as channels among a plurality of subjects, and the template brain image called a standard brain and the size, shape, and the like It is preferable to perform a normalization process for matching.
Moreover, it is preferable that the biological signal input unit 10 removes noise from the biological signal by performing a smoothing process or the like on the measured biological signal.
In this way, the biological signal input unit 10 writes and stores the biological signal subjected to normalization processing, noise removal, and the like in the biological signal storage unit 11.

生体信号記憶手段11は、生体信号入力手段10で入力された生体信号を記憶するものである。この生体信号記憶手段11は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この生体信号記憶手段11には、学習用被験者とチャンネルとに対応付けられた時系列信号として、複数の学習用被験者の生体信号が記憶される。例えば、生体信号記憶手段11には、10人の学習用被験者に対して、それぞれ10000箇所のチャンネルで計測された生体信号を記憶する。ここでは、生体信号記憶手段11に記憶される生体信号を計測した学習用被験者の数をM人とする。
この生体信号記憶手段11に記憶された生体信号は、学習用生体信号類似度算出手段12、チャンネル選択手段18および選択生体信号類似度算出手段21によって参照される。
The biological signal storage unit 11 stores the biological signal input by the biological signal input unit 10. The biological signal storage means 11 can be configured by a general storage device such as a semiconductor memory or a hard disk.
The biological signal storage unit 11 stores biological signals of a plurality of learning subjects as time-series signals associated with the learning subjects and channels. For example, the biological signal storage means 11 stores biological signals measured by 10,000 channels respectively for ten learning subjects. Here, it is assumed that the number of learning subjects who have measured the biological signals stored in the biological signal storage unit 11 is M.
The biological signal stored in the biological signal storage unit 11 is referred to by the learning biological signal similarity calculation unit 12, the channel selection unit 18, and the selected biological signal similarity calculation unit 21.

学習用生体信号類似度算出手段12は、生体信号記憶手段11に記憶されている同一コンテンツを視聴した複数の学習用被験者の生体信号について、学習用被験者間の類似度を算出するものである。
この学習用生体信号類似度算出手段12は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
The learning biosignal similarity calculation means 12 calculates the similarity between learning subjects for the biosignals of a plurality of learning subjects who have viewed the same content stored in the biosignal storage means 11.
The learning biosignal similarity calculation unit 12 outputs the calculated similarity to the similarity mapping information calculation unit 16.

具体的には、学習用生体信号類似度算出手段12は、以下のように類似度を算出する。ここでは、学習用生体信号類似度算出手段12は、類似度として相関係数を用いることとする。
ここで、チャンネルの識別子をc、学習用被験者の識別子をiとしたとき、生体信号記憶手段11に記憶されている時系列の生体信号x は、以下の式(1)のベクトルで表すことができる。
Specifically, the learning biosignal similarity calculating unit 12 calculates the similarity as follows. Here, the learning biosignal similarity calculation unit 12 uses a correlation coefficient as the similarity.
Here, when the channel identifier is c and the learning subject identifier is i, the time-series biological signal x c i stored in the biological signal storage means 11 is expressed by a vector of the following equation (1). be able to.

Figure 0006154728
Figure 0006154728

なお、tは転置を示す(以下の各式においても同様)。
この式(1)において、x i,1は、コンテンツ視聴中、最初に計測された生体信号で、x i,Tまで、順次、時系列に計測された生体信号を示す。
そして、学習用生体信号類似度算出手段12は、チャンネルcごとに、学習用被験者iの生体信号x と、学習用被験者jの生体信号x との相関係数M x,i,jを、以下の式(2)により算出する。
Note that t represents transposition (the same applies to the following equations).
In this equation (1), x c i, 1 is a biological signal first measured during content viewing, and indicates a biological signal sequentially measured in time series up to x c i, T.
Then, for each channel c, the learning biological signal similarity calculating means 12 correlates the correlation coefficient M c x, i between the biological signal x c i of the learning subject i and the biological signal x c j of the learning subject j. , J are calculated by the following equation (2).

Figure 0006154728
Figure 0006154728

ここで、x ̄ は前記式(1)のベクトルx の全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(3)および式(4)で表されるベクトルである(x ̄ も同様)。なお、式(3)中、Tは、前記式(1)に示したベクトルx の要素数を示す。また、式(4)は、すべての要素が“1”となるT次元のベクトルである。 Here, X - c i is a vector with the mean value of all elements of the vector x c i in the formula (1) to each element, specifically, the following equation (3) and (4) (X ̄ c j is also the same). In Equation (3), T represents the number of elements of the vector x c i shown in Equation (1). Expression (4) is a T-dimensional vector in which all elements are “1”.

Figure 0006154728
Figure 0006154728

Figure 0006154728
Figure 0006154728

そして、学習用生体信号類似度算出手段12は、前記式(2)で算出したN人の学習用被験者間の類似度(相関係数M x,i,j)を要素とする以下の式(5)に示すN×N次元の行列(生体信号類似度行列M )を、類似度間マッピング情報算出手段16に出力する。なお、この式(5)は対称行列で、対角成分の値はすべて“1”である。 Then, the learning biosignal similarity calculation means 12 uses the following expression having the similarity (correlation coefficient Mc x, i, j ) between the N learning subjects calculated by the expression (2) as an element. The N × N-dimensional matrix (biological signal similarity matrix M c x ) shown in (5) is output to the similarity mapping information calculation means 16. This equation (5) is a symmetric matrix, and the values of the diagonal components are all “1”.

Figure 0006154728
Figure 0006154728

ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、M人からN人を選択する組み合わせを順次変えて、異なる組み合わせでの学習用被験者間で生体信号の類似度を算出することとする。
なお、この学習用生体信号類似度算出手段12において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の生体信号については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
Here, the biometric signal similarity calculation means 12 for learning is different by sequentially changing the combination of selecting N persons from M persons for N persons (N <M) smaller than the total number of learning subjects (M persons). The similarity of the biological signal is calculated between the learning subjects in combination.
When the learning biosignal similarity calculation means 12 calculates the similarity for a certain N, the channel selection means 18 applies the remaining (MN) human biosignals corresponding to the N. This is used when verifying the accuracy of mapping, and the explanation thereof will be described later.

なお、ここでは、学習用生体信号類似度算出手段12は、生体信号の類似度として、相関係数を用いたが、ベクトル間の内積、コサイン距離等、他の類似度指標を用いても構わない。   Here, the biometric signal similarity calculation means 12 for learning uses a correlation coefficient as the biosignal similarity, but other similarity indices such as an inner product between vectors and a cosine distance may be used. Absent.

視聴状態入力手段13は、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する理解度、主観評価等の視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データを入力し、視聴状態を数値化するものである。この視聴状態入力手段13は、数値化した視聴状態(解答パターン)を、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する。ここでは、視聴状態入力手段13に記憶される視聴状態を取得した学習用被験者の数を、生体信号記憶手段11と同様、M人とする。   The viewing state input means 13 is a result obtained by answering a question (questionnaire) in which a plurality of learning subjects whose biological signals are measured during content viewing asks the viewing state such as the degree of understanding and subjective evaluation of the content. Learning answer data is input and the viewing state is digitized. The viewing state input means 13 writes and stores the digitized viewing state (answer pattern) in the viewing state storage means 14 in association with the learning subject. Here, the number of learning subjects who have acquired the viewing state stored in the viewing state input unit 13 is the same as that of the biological signal storage unit 11.

ここで、学習用被験者に尋ねる設問は、コンテンツの理解を問う設問、コンテンツの主観評価を問う設問等である。例えば、コンテンツがニュース番組の場合、コンテンツの理解を問う設問の例として、以下の例(設問Q1,Q2)が挙げられる。   Here, the questions that are asked to the learning subject are questions that ask the understanding of the content, questions that ask the subjective evaluation of the content, and the like. For example, when the content is a news program, the following examples (questions Q1 and Q2) are given as examples of questions that ask the understanding of the content.

設問Q1:コンテンツの内容は、何の話題ですか?
選択肢A1:通貨ユーロの危機
選択肢A2:EUの政情不安
選択肢A3:中国のEU圏への投資
選択肢A4:ドイツとフランスの経済紛争
Question Q1: What is the topic of the content?
Option A1: Currency euro crisis Option A2: EU political instability Option A3: China's investment in EU region Option A4: Economic conflict between Germany and France

設問Q2:現在のユーロはどのような状況ですか?
選択肢A1:ユーロ体制そのものへの信頼性が低下している
選択肢A2:IMFからの金融支援で信頼回復を果たしている
選択肢A3:EUの各国間の政治的な対立により価値切り下げの様相を呈している
選択肢A4:多くの国が自国通貨へ回帰を検討している
Question Q2: What is the current state of the euro?
Option A1: Reliability of the euro system itself is declining Option A2: Recovering trust through financial support from the IMF Option A3: The EU is showing a face of devaluation due to political conflict between countries Option A4: Many countries are considering returning to their own currency

また、例えば、コンテンツがドラマ番組の場合、コンテンツの主観評価を問う設問の例として、以下の例(設問Q3,Q4)が挙げられる。   In addition, for example, when the content is a drama program, the following examples (questions Q3 and Q4) are given as examples of questions about the subjective evaluation of the content.

設問Q3:このコンテンツは面白かったですか?3段階(1〜3)で評価してください。
(面白い:0、普通:1、面白くない:2)
Question Q3: Was this content interesting? Please evaluate in 3 stages (1-3).
(Interesting: 0, normal: 1, not interesting: 2)

設問Q4:主役Aの生き方に同感できますか?3段階(1〜3)で評価してください。
(同感できる:0、どちらでもない:1、同感できない:2)
Question Q4: Can you agree with the way of life of the protagonist A? Please evaluate in 3 stages (1-3).
(I can agree: 0, Neither: 1, I can't agree: 2)

ここでは、視聴状態入力手段13は、コンテンツに対する設問に対して、複数の学習用被験者が解答した結果を、例えば、キーボード、タッチパネル等の入力手段(不図示)を介して入力する。そして、視聴状態入力手段13は、正解または不正解が決まっている設問については、設問ごとに、解答を予め定めた正解と照合し、正解または不正解に対応する予め定めた値に数値化する。例えば、正解の場合“1”、不正解の場合”0”と数値化する。
また、視聴状態入力手段13は、主観評価のレベルのように、数値で解答する設問については、入力された数値をそのまま利用する。
Here, the viewing state input means 13 inputs the results answered by a plurality of subjects for learning in response to questions about the content, for example, via input means (not shown) such as a keyboard and a touch panel. Then, the viewing state input means 13 compares the answer with a predetermined correct answer for each question, and quantifies it to a predetermined value corresponding to the correct answer or the incorrect answer. . For example, it is digitized as “1” for correct answer and “0” for incorrect answer.
The viewing state input means 13 uses the input numerical value as it is for a question that is answered numerically, such as the subjective evaluation level.

そして、視聴状態入力手段13は、設問数がNであった場合、学習用被験者iごとに、視聴状態yとして、以下の式(6)に示すように、設問の解答に対応して、正誤、あるいは、評価レベルを数値化したN次元のベクトル(視聴状態ベクトル)を生成する。 Then, when the number of questions is N q , the viewing state input means 13 corresponds to the answer to the question as shown in the following formula (6) as the viewing state y i for each learning subject i. , correctness, or to produce a N q-dimensional vector obtained by digitizing the evaluation levels (viewing state vector).

Figure 0006154728
Figure 0006154728

この視聴状態yの各要素は、学習用被験者iの解答により、“0”または“1”、あるいは、評価レベルの数値となる。
なお、設問(アンケート)は、コンテンツの理解を問う設問のみ、コンテンツの主観評価を問う設問のみであってもよく、あるいは、それらを混在したものであってもよい。
この視聴状態入力手段13は、式(6)に示した視聴状態yを、視聴状態記憶手段14に書き込み記憶する。
Each element of the viewing state y i is “0” or “1” or a numerical value of the evaluation level depending on the answer of the learning subject i.
The question (questionnaire) may be only a question asking for understanding of the content, a question asking for subjective evaluation of the content, or a mixture of them.
This viewing state input means 13 writes and stores the viewing state y i shown in Equation (6) in the viewing state storage means 14.

なお、ここでは、視聴状態入力手段13は、学習用解答データとして、学習用被験者の設問に対する解答を入力することとしたが、すでに正誤判定等を行った前記式(6)に示したデータ(解答パターン)を直接入力することとしてもよい。   Here, the viewing state input means 13 inputs the answer to the question of the learning subject as the answer data for learning, but the data (6) that has already been subjected to the correctness determination etc. (Answer pattern) may be directly input.

視聴状態記憶手段14は、視聴状態入力手段13で入力された学習用解答データを記憶するものである。この視聴状態記憶手段14は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この視聴状態記憶手段14には、学習用被験者iに対応付けられた前記式(6)に示した視聴状態yが学習用解答データとして記憶される。
この視聴状態記憶手段14に記憶された学習用解答データ(視聴状態)は、学習用視聴状態類似度算出手段15、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
The viewing state storage unit 14 stores learning answer data input by the viewing state input unit 13. The viewing state storage unit 14 can be configured by a general storage device such as a semiconductor memory or a hard disk.
The viewing state storage means 14 stores the viewing state y i shown in the equation (6) associated with the learning subject i as learning answer data.
The learning answer data (viewing state) stored in the viewing state storage unit 14 is referred to by the learning viewing state similarity calculation unit 15, the channel selection unit 18, and the viewing state estimated value calculation unit 22.

学習用視聴状態類似度算出手段15は、視聴状態記憶手段14に記憶されている同一コンテンツを視聴した複数の学習用被験者の学習用解答データについて、学習用被験者間の類似度を算出するものである。
この学習用視聴状態類似度算出手段15は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
The learning viewing state similarity calculating unit 15 calculates the similarity between learning subjects with respect to learning answer data of a plurality of learning subjects who viewed the same content stored in the viewing state storage unit 14. is there.
The learning viewing state similarity calculating unit 15 outputs the calculated similarity to the similarity mapping information calculating unit 16.

具体的には、学習用視聴状態類似度算出手段15は、以下のように類似度を算出する。ここでは、学習用視聴状態類似度算出手段15は、類似度としてベクトル間の内積を用いることとする。
すなわち、学習用視聴状態類似度算出手段15は、学習用被験者iの視聴状態yと、学習用被験者jの視聴状態yとの類似度My,i,jを、以下の式(7)により算出する。
Specifically, the learning viewing state similarity calculating unit 15 calculates the similarity as follows. Here, the learning viewing state similarity calculating unit 15 uses an inner product between vectors as the similarity.
That is, the learning viewing state similarity calculating means 15 calculates the similarity My , i, j between the viewing state y i of the learning subject i and the viewing state y j of the learning subject j using the following formula (7 ).

Figure 0006154728
Figure 0006154728

そして、学習用視聴状態類似度算出手段15は、この式(7)で算出したN人の学習用被験者間の類似度My,i,jを要素とする以下の式(8)に示すN×N次元の行列(視聴状態類似度行列M)を、類似度間マッピング情報算出手段16に出力する。
なお、この式(8)は対称行列で、対角成分の値はすべて“1”である。
Then, the learning viewing state similarity calculating means 15 is represented by the following equation (8) having the similarity My , i, j between the N learning subjects calculated by the equation (7) as an element. The × N-dimensional matrix (viewing state similarity matrix M y ) is output to the similarity mapping information calculation means 16.
This equation (8) is a symmetric matrix, and the values of the diagonal components are all “1”.

Figure 0006154728
Figure 0006154728

ここでは、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12と同様に、全学習被験者数(M人)よりも少ない人数N人(N<M)について、学習用被験者間の類似度を算出することとする。この学習用視聴状態類似度算出手段15が選択するN人は、学習用生体信号類似度算出手段12において、生体信号の類似度を算出した際に選択したN人と対応している。すなわち、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12において、M人からN人を選択する同じ組み合わせについて、学習用被験者間で視聴状態の類似度を順次算出する。
なお、この学習用視聴状態類似度算出手段15において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の学習用解答データ(視聴状態)については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
Here, the learning viewing state similarity calculating means 15 is similar to the learning biosignal similarity calculating means 12 for learning N persons (N <M) less than the total number of learning subjects (M persons). The similarity between subjects will be calculated. The N persons selected by the learning viewing state similarity calculating unit 15 correspond to the N persons selected when the learning biosignal similarity calculating unit 12 calculates the biosignal similarity. That is, the learning viewing state similarity calculating unit 15 sequentially calculates the viewing state similarity between the learning subjects for the same combination of selecting N from M persons in the learning biosignal similarity calculating unit 12. .
When the learning viewing state similarity calculating unit 15 calculates the similarity for a certain N, the learning answer data (viewing state) for the remaining (MN) people corresponding to the N is as follows. The channel selection means 18 is used when verifying the accuracy of mapping, and the description thereof will be described later.

なお、ここでは、学習用視聴状態類似度算出手段15は、視聴状態の類似度として、ベクトル間の内積を用いたが、コサイン距離等、他の類似度指標を用いても構わない。   Here, the learning viewing state similarity calculating unit 15 uses the inner product between vectors as the viewing state similarity, but other similarity indices such as a cosine distance may be used.

類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号の類似度と、学習用視聴状態類似度算出手段15で算出された視聴状態の類似度とを関連付けるものである。ここでは、類似度間マッピング情報算出手段16は、同一の学習用被験者間における生体信号の類似度と視聴状態の類似度との相関が最大となるようなマッピング情報(重み係数)を算出する。   The similarity-to-similarity mapping information calculating unit 16 calculates the similarity between the biological signals calculated by the learning biological signal similarity calculating unit 12 and the viewing state similarity calculated by the learning viewing state similarity calculating unit 15. It is related. Here, the similarity-to-similarity mapping information calculation means 16 calculates mapping information (weighting coefficient) that maximizes the correlation between the similarity between the biological signals and the similarity in the viewing state between the same learning subjects.

すなわち、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号類似度行列M (前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列M(前記式(8)参照)とから、以下の式(9)の関係を満たす重みベクトルw(第1の重みベクトル),v(第2の重みベクトル)を求める。なお、w,vともに、チャンネルcに対応するN次元の縦ベクトルである。 That is, the similarity-to-similarity mapping information calculation unit 16 calculates the biological signal similarity matrix M c x (see the above equation (5)) calculated by the learning biological signal similarity calculation unit 12 and the learning viewing state similarity. From the viewing state similarity matrix M y calculated by the means 15 (see the above equation (8)), the weight vector w c (first weight vector), v c (the first weight vector) satisfying the relationship of the following equation (9): 2). Both w c and v c are N-dimensional vertical vectors corresponding to the channel c.

Figure 0006154728
Figure 0006154728

ここで、この式(9)が満たされる場合、相関係数が“1”となり、以下の式(10)も満たされることになる。なお、‖・‖は、ベクトルのノルムを表す。   When this equation (9) is satisfied, the correlation coefficient is “1”, and the following equation (10) is also satisfied. Note that ‖ / ‖ represents the norm of the vector.

Figure 0006154728
Figure 0006154728

ここで、分母のノルムをそれぞれ定数、例えば“1”とすれば、式(10)は、以下の式(11)となる。   Here, if the norm of the denominator is a constant, for example, “1”, Expression (10) becomes the following Expression (11).

Figure 0006154728
Figure 0006154728

ここで、M とMには測定誤差が含まれているため、この式(11)の左辺が“1”となるようなw,vを求めることは困難である。
そこで、類似度間マッピング情報算出手段16は、M とMとの相関が最大となる、式(11)の左辺を最大化するw(第1の重みベクトル),v(第2の重みベクトル)を求める。
Here, because it contains a measurement error in M c x and M y, it is difficult to obtain a w c, v c as the left-hand side of this equation (11) becomes "1".
Therefore, the similarity between the mapping information calculating unit 16, a maximum correlation with M c x and M y, w c (first weight vector) that maximizes the left side of the equation (11), v c (No. 2).

ここでは、類似度間マッピング情報算出手段16は、生体信号類似度行列M と学習被験者数の次元の未知の第1重みベクトルwとの積である第1ベクトルと、視聴状態類似度行列Mと学習被験者数の次元の未知の第2重みベクトルvとの積である第2ベクトルとの内積が、第1ベクトルおよび第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる第1重みベクトルwおよび第2重みベクトルvを、計測チャンネルごとに重み係数として算出する。 Here, the similarity-to-similarity mapping information calculation means 16 uses the first vector that is the product of the biological signal similarity matrix M c x and the unknown first weight vector w c of the number of learning subjects, and the viewing state similarity. inner product of the second vector is the product of the matrix M y an unknown second weight vector v c of the learning sample size dimensions, constraints to predetermined constant norm of the first vector and second vector The first weight vector w c and the second weight vector v c that are maximum at the beginning are calculated as weight coefficients for each measurement channel.

すなわち、類似度間マッピング情報算出手段16は、以下の式(12)を満たすw,vを算出する。 That is, the similarity-to-similarity mapping information calculation unit 16 calculates w c and v c that satisfy the following expression (12).

Figure 0006154728
Figure 0006154728

この式(12)の最大化問題は、ラグランジュの未定定数法を用いて解くことができる。ここで、誤差関数(ラグランジアン)Lは、以下の式(13)で表される。なお、λとλは、未定乗数である。 The maximization problem of equation (12) can be solved using Lagrange's undetermined constant method. Here, the error function (Lagrangian) L is expressed by the following equation (13). Note that λ w and λ v are undetermined multipliers.

Figure 0006154728
Figure 0006154728

なお、生体信号や視聴状態のデータに揺らぎ(ノイズ)が多いと、w,vのノルムが大きくなる傾向にある。そこで、ここでは、誤差関数Lに、w,vのノルムに依存する罰則項を追加した以下の式(14)に示す誤差関数L′とすることで、ノルムが過大にならないようにする。なお、ρとρは、データのノイズに対するぜい弱性を制御するためのパラメータであって、データに依存して予め設定しておく(ρ>0、ρ>0)。 Incidentally, when the data fluctuation of the biological signal and the viewing state (noise) is large, there is a tendency that w c, v norm of c increases. Therefore, here, the error function L ′ shown in the following formula (14), in which a penalty term depending on the norms of w c and v c is added to the error function L, is set so that the norm does not become excessive. . Note that ρ w and ρ v are parameters for controlling the vulnerability to data noise, and are preset depending on the data (ρ w > 0, ρ v > 0).

Figure 0006154728
Figure 0006154728

ここで、この式(14)は、L′をw,vで微分し、それぞれを“0”とすると、以下の式(15)に示す固定値問題に帰着することになる。なお、IはN×N次元の単位行列を示す。この式(15)の導出については、後で説明を行う。 Here, in this equation (14), when L ′ is differentiated by w c and v c and each is set to “0”, this results in a fixed value problem shown in the following equation (15). I represents an N × N-dimensional unit matrix. The derivation of equation (15) will be described later.

Figure 0006154728
Figure 0006154728

ここで、r=2ρ/λ、r=2ρ/λ、λ=4λλである。
なお、ここでは、ρとρを予め設定したが、ρとρを設定する代わりに、rとrを予め設定することとしてもよい(例えば、r=1、r=1)。
この式(15)の固有値問題を解くことで、w、vおよびλを定めることができる。
ただし、wおよびvは固有ベクトルでもあり、通常、固有値λの数だけ複数定まる。そこで、類似度間マッピング情報算出手段16は、固有値を大きい順から予め定めた個数(ここでは、P個)選択し、対応する固有ベクトルwとvをPペア定め、Pペアのベクトルから、マッピング情報として、以下の式(16)に示すようなマッピング行列W,Vを生成する。
Here, r w = 2ρ w / λ w, r v = 2ρ v / λ v, is a λ 2 = 4λ w λ v.
Here,, [rho was set w and [rho v advance, [rho instead of setting the w and [rho v, may be possible to preset the r w and r v (e.g., r w = 1, r v = 1).
By solving the eigenvalue problem of equation (15), w c , v c and λ can be determined.
However, w c and v c are also eigenvectors, and usually a plurality of them are determined by the number of eigenvalues λ. Therefore, the similarity-to-similarity mapping information calculation unit 16 selects a predetermined number (here, P) of eigenvalues in descending order, determines the corresponding eigenvectors w c and v c as P pairs, and from the P pair vectors, As mapping information, mapping matrices W c and V c as shown in the following equation (16) are generated.

Figure 0006154728
Figure 0006154728

これによって、学習用生体信号類似度算出手段12で算出された生体信号類似度行列M (前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列M(前記式(8)参照)との関係が、式(16)のマッピング行列によって、P次元空間を介して、以下の式(17)に示すように関連付けることができる。 As a result, the biological signal similarity matrix M c x (see Equation (5)) calculated by the learning biological signal similarity calculation unit 12 and the viewing state similarity calculated by the learning viewing state similarity calculation unit 15. The relationship with the degree matrix M y (see the above equation (8)) can be related as shown in the following equation (17) through the P-dimensional space by the mapping matrix of the equation (16).

Figure 0006154728
Figure 0006154728

この類似度間マッピング情報算出手段16は、すべてのチャンネルcについてマッピング情報(マッピング行列W,V)を算出し、マッピング情報記憶手段17に書き込み記憶する。
なお、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12および学習用視聴状態類似度算出手段15から、順次、異なる組み合わせのN人の学習用被験者に対応した類似度が入力される。
そこで、類似度間マッピング情報算出手段16は、学習用被験者の組み合わせごとに、マッピング情報(マッピング行列W,V)をマッピング情報記憶手段17に記憶する。
This inter-similarity mapping information calculation means 16 calculates mapping information (mapping matrices W c , V c ) for all channels c, and writes and stores them in the mapping information storage means 17.
Note that the similarity mapping information calculation unit 16 sequentially obtains similarities corresponding to N learning subjects in different combinations from the learning biosignal similarity calculation unit 12 and the learning viewing state similarity calculation unit 15. Entered.
Therefore, the similarity-to-similarity mapping information calculation means 16 stores mapping information (mapping matrices W c , V c ) in the mapping information storage means 17 for each combination of learning subjects.

マッピング情報記憶手段17は、類似度間マッピング情報算出手段16で算出されたマッピング情報(マッピング行列)を記憶するものである。このマッピング情報記憶手段17は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
このマッピング情報記憶手段17には、異なる組み合わせの学習用被験者(N人)ごとに算出されたマッピング情報(マッピング行列W,V)が記憶される。
このマッピング情報記憶手段17に記憶されたマッピング情報(マッピング行列)は、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
The mapping information storage unit 17 stores the mapping information (mapping matrix) calculated by the similarity mapping information calculation unit 16. The mapping information storage means 17 can be configured by a general storage device such as a semiconductor memory or a hard disk.
The mapping information storage means 17 stores mapping information (mapping matrices W c , V c ) calculated for different combinations of learning subjects (N persons).
The mapping information (mapping matrix) stored in the mapping information storage unit 17 is referred to by the channel selection unit 18 and the viewing state estimation value calculation unit 22.

チャンネル選択手段18は、生体信号を計測したチャンネルのうち、設問に対する解答(アンケート結果)と関連性の深いチャンネルを選択するものである。
このチャンネル選択手段18は、類似度間マッピング情報算出手段16でマッピング情報を算出した際に用いたデータ(生体信号、学習用解答データ〔視聴状態〕)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、その精度の高いチャンネルを選択する。
ここでは、チャンネル選択手段18は、類似度算出手段181と、誤差算出手段182と、チャンネル特定手段183と、を備える。
The channel selection means 18 selects a channel closely related to the answer to the question (questionnaire result) from the channels where the biological signal is measured.
This channel selection means 18 uses mapping information from learning subject data different from the data (biological signal, learning answer data [viewing state]) used when the mapping information calculation means 16 calculates the mapping information. Calculate the accuracy of and select the channel with the highest accuracy.
Here, the channel selecting unit 18 includes a similarity calculating unit 181, an error calculating unit 182, and a channel specifying unit 183.

類似度算出手段181は、マッピング情報を算出した際に用いた学習用被験者i(2≦i≦N)の生体信号および視聴状態とは異なる学習用被験者j(N+1≦j≦M)の生体信号と視聴状態とについて、学習用被験者間の類似度を算出するものである。
ここで、類似度算出手段181は、チャンネルcごとに、生体信号記憶手段11に記憶されている生体信号を参照して、学習用被験者i(N+1≦i≦M)の生体信号x と、学習用被験者j(N+1≦j≦M)の生体信号x との相関係数M x,i,jを、前記式(2)により算出する。なお、この類似度は、ベクトルの内積、コサイン距離等、他の類似度指標を用いても構わない。
The similarity calculation means 181 uses the biological signal of the learning subject i (2 ≦ i ≦ N) used when calculating the mapping information and the biological signal of the learning subject j (N + 1 ≦ j ≦ M) different from the viewing state. The degree of similarity between the learning subjects is calculated with respect to the viewing state.
Here, the similarity calculation unit 181 refers to the biological signal stored in the biological signal storage unit 11 for each channel c, and the biological signal x c i of the learning subject i (N + 1 ≦ i ≦ M). Then, the correlation coefficient M c x, i, j with the biological signal x c j of the learning subject j (N + 1 ≦ j ≦ M) is calculated by the above equation (2). For the similarity, another similarity index such as an inner product of vectors or a cosine distance may be used.

そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度(相関係数M x,i,j)を要素とする以下の式(18)に示す生体信号類似度行列M′ (第2生体信号類似度行列)を算出する。 Then, the similarity calculation means 181 is similar to the biological signal shown in the following formula (18) having the similarity (correlation coefficient M c x, i, j ) between (MN) learning subjects. A degree matrix M ′ c x (second biological signal similarity matrix) is calculated.

Figure 0006154728
Figure 0006154728

また、類似度算出手段181は、視聴状態記憶手段14に記憶されている視聴状態を参照して、学習用被験者i(N+1≦i≦M)の視聴状態yと、学習用被験者j(N+1≦j≦M)の視聴状態yとの類似度My,i,jを、前記式(7)により算出する。なお、この類似度は、コサイン距離等、他の類似度指標を用いても構わない。 Further, the similarity calculation unit 181 refers to the viewing state stored in the viewing state storage unit 14, and the viewing state y i of the learning subject i (N + 1 ≦ i ≦ M) and the learning subject j (N + 1). The similarity M y, i, j with the viewing state y j of ≦ j ≦ M) is calculated by the equation (7). For the similarity, another similarity index such as a cosine distance may be used.

そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度My,i,jを要素とする以下の式(19)に示す視聴状態類似度行列M′(第2視聴状態類似度行列)を算出する。 Then, the similarity calculation means 181 includes a viewing state similarity matrix M ′ y (Equation 19) having the similarity M y, i, j between (MN) learning subjects as an element. (Second viewing state similarity matrix) is calculated.

Figure 0006154728
Figure 0006154728

この類似度算出手段181は、前記式(18)で算出した生体信号類似度行列M′ と、前記式(19)で算出した視聴状態類似度行列M′とを、誤差算出手段182に出力する。
なお、類似度算出手段181は、類似度を算出する際に、N人の学習用被験者と残りの(M−N)人の学習用被験者との間で生体信号の類似度および視聴状態の類似度を算出することとする。なお、M人からN人を選択する組み合わせは一般には多数存在する。そこで、類似度算出手段181および後記する誤差算出手段182は、十分な数の組み合わせ(例えば、100種類)のもとで、繰り返し計算を行う。
The similarity calculation means 181 uses the biometric signal similarity matrix M ′ c x calculated by the expression (18) and the viewing state similarity matrix M ′ y calculated by the expression (19) as an error calculation means 182. Output to.
The similarity calculation means 181 calculates the similarity between the biological signals and the viewing state similarity between the N learning subjects and the remaining (MN) learning subjects when calculating the similarity. The degree will be calculated. In general, there are many combinations for selecting N people from M people. Therefore, the similarity calculation unit 181 and the error calculation unit 182 described later repeatedly perform calculation under a sufficient number of combinations (for example, 100 types).

誤差算出手段182は、類似度算出手段181で算出された生体信号の類似度(生体信号類似度行列M′ )と、視聴状態の類似度(視聴状態類似度行列M′)とに、マッピング情報記憶手段17に記憶されているマッピング情報(重み係数)を適用して、予測誤差を算出するものである。
ここでは、誤差算出手段182は、学習用生体信号類似度算出手段12や学習用視聴状態類似度算出手段15で類似度を算出した学習用被験者の組み合わせに対応してマッピング情報記憶手段17に記憶されているマッピング行列W,V(前記式(16)参照)を用いて、チャンネルcごとに、以下の式(20)により、予測誤差Eを算出する。
The error calculation unit 182 converts the biometric signal similarity (biological signal similarity matrix M ′ c x ) calculated by the similarity calculation unit 181 and the viewing state similarity (viewing state similarity matrix M ′ y ). The prediction error is calculated by applying the mapping information (weighting coefficient) stored in the mapping information storage means 17.
Here, the error calculation unit 182 stores the mapping information storage unit 17 corresponding to the combination of the learning subjects whose similarity is calculated by the learning biological signal similarity calculation unit 12 and the learning viewing state similarity calculation unit 15. The prediction error E is calculated by the following equation (20) for each channel c using the mapping matrices W c and V c (see the equation (16)).

Figure 0006154728
Figure 0006154728

この誤差算出手段182は、予測誤差Eと、予測誤差Eを算出した際のチャンネルcとを、チャンネル特定手段183に出力する。なお、学習用被験者の組み合わせが複数ある場合、誤差算出手段182は、それぞれの組み合わせに対する予測誤差Eを計算し、その平均を改めて予測誤差Eとする。   The error calculating unit 182 outputs the prediction error E and the channel c when the prediction error E is calculated to the channel specifying unit 183. When there are a plurality of combinations of learning subjects, the error calculation means 182 calculates the prediction error E for each combination, and sets the average as the prediction error E again.

チャンネル特定手段183は、誤差算出手段182に算出された予測誤差に基づいて、チャンネルを特定するものである。
ここでは、チャンネル特定手段183は、予測誤差が、予め定めた閾値(例えば、“0.1”)を下回る、すなわち、誤差の小さいチャンネルを、視聴状態を推定するために適したチャンネルであると特定する。なお、チャンネル特定手段183は、誤差の最も小さいチャンネルを1つ選択することとしてもよいし、予め定めた閾値を下回る複数のチャンネルを選択することとしてもよい。
The channel specifying unit 183 specifies a channel based on the prediction error calculated by the error calculating unit 182.
Here, the channel specifying means 183 is a channel suitable for estimating the viewing state of a channel whose prediction error is lower than a predetermined threshold value (for example, “0.1”), that is, a small error. Identify. Note that the channel specifying means 183 may select one channel with the smallest error, or may select a plurality of channels below a predetermined threshold.

このチャンネル特定手段183は、特定したチャンネル(選択チャンネルC)を、生体信号抽出手段20、選択生体信号類似度算出手段21および視聴状態推定値算出手段22に出力(通知)する。
このように、チャンネル選択手段18は、種々のマッピング情報を検証し、精度が高いマッピング情報に対応するチャンネルを選択する。
これによって、視聴状態推定装置1は、機械学習により、視聴状態を推定するために適したチャンネル(生体信号)を推定することができる。
The channel specifying unit 183 outputs (notifies) the specified channel (selected channel C) to the biological signal extracting unit 20, the selected biological signal similarity calculating unit 21, and the viewing state estimated value calculating unit 22.
Thus, the channel selection means 18 verifies various mapping information and selects a channel corresponding to mapping information with high accuracy.
Thus, the viewing state estimation apparatus 1 can estimate a channel (biological signal) suitable for estimating the viewing state by machine learning.

生体信号抽出手段20は、視聴状態を推定する対象被験者を対象として、外部に接続された生体信号計測装置(不図示)から入力される計測チャンネルごとの生体信号から、チャンネル選択手段18で選択されたチャンネルの生体信号を抽出するものである。
なお、生体信号抽出手段20は、選択されたチャンネルの生体信号を抽出すること以外、生体信号入力手段10と同様の機能を有する。すなわち、生体信号入力手段10は、選択されたチャンネルの生体信号を、時系列信号として数値化する。
この生体信号抽出手段20は、選択されたチャンネル(選択チャンネルC)に対応付けた時系列の生体信号を、選択生体信号類似度算出手段21に出力する。
The biological signal extraction means 20 is selected by the channel selection means 18 from biological signals for each measurement channel input from an externally connected biological signal measuring device (not shown) for the subject subject whose viewing state is to be estimated. The biological signal of the selected channel is extracted.
The biological signal extraction unit 20 has the same function as the biological signal input unit 10 except that the biological signal of the selected channel is extracted. That is, the biological signal input means 10 digitizes the biological signal of the selected channel as a time series signal.
The biological signal extraction unit 20 outputs a time-series biological signal associated with the selected channel (selected channel C) to the selected biological signal similarity calculation unit 21.

選択生体信号類似度算出手段21は、生体信号抽出手段20で抽出された対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者の選択チャンネルにおける生体信号との類似度を算出するものである。
ここで、選択チャンネルの識別子をCとしたとき、生体信号抽出手段20で抽出された対象被験者の選択チャンネルCにおける時系列の生体信号x newは、以下の式(21)のベクトルで表すことができる。
The selected biological signal similarity calculating unit 21 is configured to obtain the biological signal in the selected channel of the subject subject extracted by the biological signal extracting unit 20 and the biological signal in the selected channel of the learning subject stored in the biological signal storage unit 11. The similarity is calculated.
Here, when the identifier of the selected channel is C, the time-series biological signal x C new in the selected channel C of the subject subject extracted by the biological signal extracting unit 20 is expressed by a vector of the following equation (21). Can do.

Figure 0006154728
Figure 0006154728

この式(21)において、x new,1は、コンテンツ視聴中、最初に計測された生体信号で、x new,Tまで、順次、時系列に計測された生体信号を示す。
そして、選択生体信号類似度算出手段21は、チャンネル選択手段18で選択された選択チャンネルCにおける対象被験者の生体信号x newと、前記式(1)で示される全学習用被験者の生体信号x (i=1〜M)との類似度(選択生体信号類似度)を算出する。
ここでは、選択生体信号類似度算出手段21は、以下の式(22)に示すように、学習用被験者i(i=1〜M)ごとに、類似度として相関係数sxiを算出する。
In this equation (21), x C new, 1 is a biological signal first measured during content viewing, and indicates a biological signal measured sequentially in time series up to x C new, T.
Then, the selected biological signal similarity calculating unit 21 outputs the biological signal x C new of the subject subject in the selected channel C selected by the channel selecting unit 18 and the biological signal x of all the learning subjects represented by the above formula (1). The similarity (selected biological signal similarity) with C i (i = 1 to M) is calculated.
Here, the selected biological signal similarity calculating unit 21 calculates the correlation coefficient s xi as the similarity for each learning subject i (i = 1 to M) as shown in the following formula (22).

Figure 0006154728
Figure 0006154728

ここで、x ̄ newは前記式(21)のベクトルx newの全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(23)および式(24)で表されるベクトルである(x ̄ も同様)。なお、式(23)中、Tは、前記式(21)に示したベクトルx newの要素数を示す。また、式(24)は、すべての要素が“1”となるT次元のベクトルである。 Here, X - C new new is a vector with the mean value of all elements of the vector x C new new of the formula (21) to each element, specifically, the following equation (23) and (24) (X ̄ C j is also the same). In Expression (23), T represents the number of elements of the vector x C new shown in Expression (21). Expression (24) is a T-dimensional vector in which all elements are “1”.

Figure 0006154728
Figure 0006154728

Figure 0006154728
Figure 0006154728

この選択生体信号類似度算出手段21は、チャンネル選択手段18で選択チャンネルCを選択した場合、前記式(22)の相関係数sxiをi番目の要素とするM次元のベクトル(類似度ベクトル)sを、視聴状態推定値算出手段22に出力する。なお、チャンネル選択手段18において、複数のチャンネルが選択された場合、選択生体信号類似度算出手段21は、その選択チャンネルごとに、類似度ベクトルsを算出し、視聴状態推定値算出手段22に出力する。 When the selected channel C is selected by the channel selecting unit 18, the selected biological signal similarity calculating unit 21 is an M-dimensional vector (similarity vector) having the correlation coefficient s xi of the equation (22) as the i-th element. ) S x is output to the viewing state estimated value calculation means 22. When a plurality of channels are selected in the channel selection unit 18, the selected biological signal similarity calculation unit 21 calculates a similarity vector s x for each selected channel, and sends it to the viewing state estimation value calculation unit 22. Output.

視聴状態推定値算出手段22は、対象被験者の未知数の学習用解答データ(視聴状態)と、視聴状態記憶手段14に記憶されている学習用被験者の学習用解答データ(視聴状態)との類似度と、選択生体信号類似度算出手段21で算出された生体信号の類似度との相関が最大となる未知数の学習用解答データを視聴状態推定値として算出するものである。
この視聴状態推定値は、学習用被験者に対して行ったアンケートに対して、対象被験者が解答するであろうと推定されるアンケート結果を数値化したデータである。
The viewing state estimated value calculation means 22 is a degree of similarity between the unknown learning answer data (viewing state) of the target subject and the learning answer data (viewing state) of the learning subject stored in the viewing state storage means 14. And the unknown number of learning answer data having the maximum correlation with the similarity of the biological signal calculated by the selected biological signal similarity calculating unit 21 is calculated as the viewing state estimation value.
The viewing state estimation value is data obtained by quantifying the questionnaire result estimated that the target subject will answer the questionnaire conducted on the learning subject.

具体的には、視聴状態推定値算出手段22は、以下のように視聴状態推定値を算出する。
ここで、設問数がNである対象被験者の未知のアンケート結果(設問の解答に対応する正誤、あるいは、評価レベルを数値化したデータ)を以下の式(25)に示すようにN次元のベクトル(視聴状態ベクトルynew)とする。
Specifically, the viewing state estimated value calculation means 22 calculates the viewing state estimated value as follows.
Here, an unknown questionnaire result (correctness corresponding to the answer to the question or data obtained by quantifying the evaluation level) of the subject subject whose number of questions is N q is expressed as N q dimension as shown in the following formula (25). (Viewing state vector y new ).

Figure 0006154728
Figure 0006154728

このとき、視聴状態ベクトルynewと、視聴状態記憶手段14に記憶されているすべての学習用被験者の視聴状態ベクトルy(i=1〜M)(前記式(6)参照)との類似度は、以下の式(26)に示す類似度ベクトルsとして表すことができる。 At this time, the similarity between the viewing state vector y new and the viewing state vectors y i (i = 1 to M) of all the learning subjects stored in the viewing state storage unit 14 (see the above equation (6)). Can be expressed as a similarity vector s y shown in the following equation (26).

Figure 0006154728
Figure 0006154728

なお、マッピング情報記憶手段17には、生体信号と視聴状態とがマッピング行列W,V(式(16)参照)によって関連付けられている。すなわち、選択生体信号類似度算出手段21で算出された生体信号の類似度ベクトルsと、この式(26)の視聴状態の類似度ベクトルsとは、以下の式(27)に示す関係を有する。なお、Cは、チャンネル選択手段18で選択されたチャンネルを示す。 Note that the biological information and the viewing state are associated with the mapping information storage unit 17 by mapping matrices W c and V c (see Expression (16)). That is, the similarity vector s x of the calculated selected biological signal similarity calculation unit 21 biological signal, and the similarity vector s y of view condition of the equation (26), the relationship shown in the following equation (27) Have C indicates a channel selected by the channel selection means 18.

Figure 0006154728
Figure 0006154728

そこで、視聴状態推定値算出手段22は、この式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
すなわち、視聴状態推定値算出手段22は、視聴状態ベクトルynewのうちで、以下の式(28)を満たす視聴状態ベクトルを、視聴状態推定値y^newとして算出する。
Therefore, the viewing state estimated value calculation means 22 calculates the viewing state vector y new that satisfies the equation (27) as the viewing state estimated value y ^ new .
That is, the viewing state estimated value calculation means 22 calculates a viewing state vector satisfying the following equation (28) among the viewing state vectors y new as the viewing state estimated value y ^ new .

Figure 0006154728
Figure 0006154728

なお、この式(28)の解法は種々存在するが、例えば、視聴状態推定値算出手段22は、ynewのすべての値の組み合わせに対して、前記式(26)により類似度ベクトルsを生成し、式(28)の右辺のノルムの二乗(‖s −s )が最小となるynewを視聴状態推定値y^newとすればよい。
なお、アンケート項目によって、すべての値の組み合わせを挙げることが困難な場合もある。そこで、視聴状態推定値算出手段22は、前記式(28)を最小二乗法で解いた以下の式(29)を用いて視聴状態推定値y^newを算出してもよい。
There are various methods for solving the equation (28). For example, the viewing state estimation value calculating unit 22 calculates the similarity vector s y according to the equation (26) for all combinations of y new values. generated may be the right side of the norm squared (‖s x t W C -s y t V C ‖ 2) y new new which is minimum viewing state estimate y ^ new new equation (28).
Depending on the questionnaire items, it may be difficult to list all combinations of values. Therefore, the viewing state estimated value calculation means 22 may calculate the viewing state estimated value ^ new using the following equation (29) obtained by solving the equation (28) by the least square method.

Figure 0006154728
Figure 0006154728

この式(29)において、行列Yは、i列目が学習用被験者iの視聴状態ベクトルy(前記式(6)参照)となる行列を示す。また、行列YVCtは、YVの一般化逆行列を示す。なお、この式(29)の導出については、後で説明を行う。 In this equation (29), the matrix Y indicates a matrix in which the i-th column is the viewing state vector y i of the learning subject i (see the above equation (6)). The matrix YV C V Ct Y t indicates a generalized inverse matrix of YV C. The derivation of this equation (29) will be described later.

このように、視聴状態推定値算出手段22は、式(28)を満たす視聴状態推定値y^newを、対象被験者の視聴状態として外部に出力する。
なお、チャンネル選択手段18において、複数のチャンネルが選択され、複数の視聴状態推定値y^newが算出された場合、視聴状態推定値算出手段22は、それぞれの視聴状態推定値y^newの要素ごとに、平均値を算出することとする。
In this way, the viewing state estimated value calculation means 22 outputs the viewing state estimated value y ^ new satisfying the equation (28) to the outside as the viewing state of the target subject.
When a plurality of channels are selected by the channel selection unit 18 and a plurality of viewing state estimation values y ^ new are calculated, the viewing state estimation value calculation unit 22 includes elements of the respective viewing state estimation values y ^ new . Each time, an average value is calculated.

このとき、設問に対する解答に正誤の値(例えば、正解“1”,不正解“0”)が対応付けられている場合、視聴状態推定値算出手段22は、平均値を、対象被験者の理解の度合いとして推定する。これによって、より“1”に近ければ、当該設問に対して、対象被験者がより理解していると推定することができる。
なお、設問に対する解答に正誤の値が対応付けられている場合、視聴状態推定値算出手段22は、複数の視聴状態推定値y^newの要素ごとに最も多い結果を、当該設問に対する解答として推定することとしてもよい。
At this time, when correct / incorrect values (for example, correct answer “1”, incorrect answer “0”) are associated with the answer to the question, the viewing state estimated value calculation means 22 determines the average value of the target subject's understanding. Estimate as a degree. Thereby, if it is closer to “1”, it can be estimated that the subject subject understands the question more.
When correct / incorrect values are associated with the answer to the question, the viewing state estimated value calculation means 22 estimates the most frequent result for each element of the plurality of viewing state estimated values y ^ new as the answer to the question. It is good to do.

以上説明したように、視聴状態推定装置1を構成することで、視聴状態推定装置1は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(アンケートの解答パターン)の類似度との間をマッピング情報によって関連付けることで、新たな対象被験者の生体信号から、未知の視聴状態を推定することができる。
なお、視聴状態推定装置1は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(視聴状態推定プログラム)で動作させることができる。
As described above, by configuring the viewing state estimation device 1, the viewing state estimation device 1 allows the similarity of the biological signal between the plurality of learning subjects and the viewing state (questionnaire of the questionnaire) between the plurality of learning subjects. By associating the similarity of the answer pattern) with the mapping information, the unknown viewing state can be estimated from the biological signal of the new target subject.
Note that the viewing state estimation apparatus 1 can operate the computer with a program (viewing state estimation program) for causing the computer to function as each unit configured as described above.

(式(15)の導出について)
類似度間マッピング情報算出手段16において、前記式(14)から、固有値問題となる前記式(15)を導出する手順について説明する。
まず、前記式(14)のL′を、以下の式(30)に示すようにwで微分し、“0”とおく。
(Derivation of equation (15))
A procedure for deriving the equation (15), which is an eigenvalue problem, from the equation (14) in the similarity mapping information calculation unit 16 will be described.
First, L ′ in the equation (14) is differentiated by w c as shown in the following equation (30) and set to “0”.

Figure 0006154728
Figure 0006154728

ここで、M は対称行列であるため、M =M ctの関係がある。従って、この式(30)は、以下の式(31)に変形することができる。 Here, since M x c is a symmetric matrix, there is a relationship of M x c = M x ct . Therefore, this equation (30) can be transformed into the following equation (31).

Figure 0006154728
Figure 0006154728

ここで、IはN×N次元の単位行列を示す。
同様に、前記式(14)のL′を、以下の式(32)に示すようにvで微分し、“0”とおく。
Here, I represents an N × N-dimensional unit matrix.
Similarly, the L 'in the formula (14), differentiated by v c as shown in the following equation (32), put "0".

Figure 0006154728
Figure 0006154728

ここで、Mは対称行列であるため、M=M の関係がある。従って、この式(32)は、以下の式(33)に変形することができる。 Since M y is a symmetric matrix, a relationship of M y = M y t. Therefore, this equation (32) can be transformed into the following equation (33).

Figure 0006154728
Figure 0006154728

さらに、この式(33)は、以下の式(34)に変形することができる。   Further, the equation (33) can be transformed into the following equation (34).

Figure 0006154728
Figure 0006154728

このvを、前記式(31)に代入すると、以下の式(35)となる。
The v c, are substituted into the equation (31) by the following expression (35).

Figure 0006154728
Figure 0006154728

ここで、r=ρ/λ、r=ρ/λ、4λλ=λとおくと(すなわち、r=2ρ/λ、r=2ρ/λ)、前記式(34)および式(35)から、前記式(15)を導出することができる。 Here, if r w = ρ w / λ w , r v = ρ v / λ v , 4λ w λ v = λ 2 (that is, r w = 2ρ w / λ, r v = 2ρ v / λ). The equation (15) can be derived from the equations (34) and (35).

(式(29)の導出について)
視聴状態推定値算出手段22において、視聴状態推定値y^newを算出するための前記式(29)の導出について以下説明する。
前記式(28)は、以下の式(36)に示すように変形することができる。
(Derivation of Equation (29))
Derivation of the expression (29) for calculating the viewing state estimated value ^ new in the viewing state estimated value calculating means 22 will be described below.
The equation (28) can be modified as shown in the following equation (36).

Figure 0006154728
Figure 0006154728

ここで、式(36)の右辺のノルムの二乗を、以下の式(37)に示すようにynewで微分し、“0”とおく。 Here, the square of the norm on the right side of the equation (36) is differentiated by y new as shown in the following equation (37), and set to “0”.

Figure 0006154728
Figure 0006154728

そして、この式(37)を以下の式(38)〜式(41)に示すように変形することで、前記式(29)を導出することができる。   Then, the equation (29) can be derived by modifying the equation (37) as shown in the following equations (38) to (41).

Figure 0006154728
Figure 0006154728

〔視聴状態推定装置の動作〕
次に、図3および図4を参照して、本発明の実施形態に係る視聴状態推定装置1の動作について説明する。ここでは、図3で視聴状態推定装置1の学習段階の動作、図4で推定段階の動作について説明する。
[Operation of viewing state estimation device]
Next, with reference to FIG. 3 and FIG. 4, operation | movement of the viewing-and-listening state estimation apparatus 1 which concerns on embodiment of this invention is demonstrated. Here, the learning stage operation of the viewing state estimation apparatus 1 will be described with reference to FIG. 3, and the estimation stage operation will be described with reference to FIG.

(学習段階の動作)
まず、図3を参照(構成については、適宜図2参照)して、視聴状態推定装置1の学習段階の動作について説明する。
視聴状態推定装置1は、生体信号入力手段10によって、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、コンテンツ視聴中の学習用被験者から生体信号(学習用生体信号)を入力する(ステップS1)。
(Learning stage operation)
First, the learning stage operation of the viewing state estimation apparatus 1 will be described with reference to FIG.
The viewing state estimation device 1 receives a biological signal from a learning subject who is viewing content for each channel for measuring a biological signal by means of a biological signal input means 10 via a biological signal measuring device (not shown) connected to the outside. (Biological signal for learning) is input (step S1).

そして、視聴状態推定装置1は、生体信号入力手段10によって、ステップS1で入力した学習用生体信号を、時系列信号として、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する(ステップS2)。   Then, the viewing state estimation device 1 writes and stores the learning biological signal input in step S1 by the biological signal input means 10 in the biological signal storage means 11 as a time series signal in association with the learning subject and the channel. (Step S2).

また、視聴状態推定装置1は、視聴状態入力手段13によって、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データ(視聴状態)を入力する(ステップS3)。   In addition, the viewing state estimation device 1 is a result of a plurality of learning subjects whose biological signals are measured during content viewing by the viewing state input unit 13 answering a question (questionnaire) asking about the viewing state of the content. The answer data for learning (viewing state) is input (step S3).

そして、視聴状態推定装置1は、視聴状態入力手段13によって、ステップS3で入力した学習用解答データを、数値化した解答パターンとして、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する(ステップS4)。   Then, the viewing state estimation device 1 writes and stores the learning answer data input in step S3 by the viewing state input unit 13 in the viewing state storage unit 14 as a numerical answer pattern in association with the learning subject. (Step S4).

そして、視聴状態推定装置1は、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力していなければ(ステップS5でNo)、ステップS1に戻って、動作を繰り返す。   Then, the viewing state estimation device 1 returns to step S1 if the learning biosignal and the learning answer data are not input by the predetermined number of learning subjects (M) (No in step S5). Repeat the operation.

一方、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力した場合(ステップS5でYes)、視聴状態推定装置1は、学習用生体信号類似度算出手段12によって、ステップS2で記憶された複数の学習用被験者の生体信号について、チャンネルごとに学習用被験者間の生体信号の類似度(生体信号類似度行列M 〔前記式(5)参照〕)を算出する(ステップS6)。
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で生体信号の類似度(N×N次元の生体信号類似度行列)を算出する。
On the other hand, when the learning biosignal and the learning answer data are input by the predetermined number of learning subjects (M) (Yes in step S5), the viewing state estimation device 1 calculates the biometric similarity for learning. For the biological signals of the plurality of learning subjects stored in step S2 by means 12, the similarity of the biological signals between the learning subjects for each channel (biological signal similarity matrix M c x [see Equation (5) above)] ) Is calculated (step S6).
Here, the biometric signal similarity calculation means 12 for learning uses a combination of N persons sequentially for N persons (N <M), which is smaller than the total number of learning persons (M), and learners with different combinations. A biosignal similarity (N × N-dimensional biosignal similarity matrix) is calculated.

また、視聴状態推定装置1は、学習用視聴状態類似度算出手段15によって、ステップS4で記憶された複数の学習用被験者の学習用解答データ(視聴状態)について、学習用被験者間の視聴状態の類似度(視聴状態類似度行列M〔前記式(5)参照〕))を算出する(ステップS7)。
ここでは、学習用視聴状態類似度算出手段15は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で学習用解答データ(視聴状態)の類似度(N×N次元の視聴状態類似度行列)を算出する。
In addition, the viewing state estimation device 1 uses the learning viewing state similarity calculation unit 15 to determine the viewing state between the learning subjects for the learning answer data (viewing state) of the plurality of learning subjects stored in step S4. Similarity (viewing state similarity matrix M y [see the above equation (5)])) is calculated (step S7).
Here, the learning viewing state similarity calculating means 15 changes the combination of N persons sequentially for N persons (N <M), which is smaller than the total number of learning persons (M persons), and learners with different combinations. The similarity (N × N-dimensional viewing state similarity matrix) of the answer data for learning (viewing state) is calculated.

そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS6で算出された類似度(生体信号類似度行列)と、ステップS7で算出された類似度(視聴状態類似度行列)とを関連付けるマッピング情報(重み係数)を算出する(ステップS8)。   Then, the viewing state estimation device 1 uses the similarity mapping information calculation unit 16 to calculate the similarity (biological signal similarity matrix) calculated in step S6 and the similarity (viewing state similarity matrix) calculated in step S7. Mapping information (weighting coefficient) is calculated (step S8).

ここでは、類似度間マッピング情報算出手段16は、チャンネルおよび学習被験者の組み合わせごとに、N×N次元の生体信号類似度行列M およびN次元の重みベクトルwの積のベクトルと、視聴状態類似度行列Mおよび次元数の同じ重みベクトルvの積のベクトルとの内積が、それぞれのベクトルのノルムが“1”という制約条件のもとで最大化するように、複数(P個)の重みベクトルのペア(W,V)を算出する。 Here, the similarity-to-similarity mapping information calculation means 16 calculates the product vector of the N × N-dimensional biological signal similarity matrix M c x and the N-dimensional weight vector w c for each combination of channel and learning subject, and viewing. as the inner product of the vector product of the state similarity matrix M y and the number of dimensions of the same weight vector v c is the norm of each vector is maximized under the constraint that "1", a plurality (P number ) Weight vector pair (W c , V c ) is calculated.

そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS8で算出した複数の重みベクトルからなるマッピング行列をマッピング情報記憶手段17に書き込み記憶する(ステップS9)。   Then, the viewing state estimation device 1 writes the mapping matrix composed of the plurality of weight vectors calculated in step S8 in the mapping information storage unit 17 by the similarity mapping information calculation unit 16 (step S9).

そして、視聴状態推定装置1は、チャンネル選択手段18によって、ステップS8でマッピング情報を算出した際に用いたデータ(生体信号、視聴状態)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、精度の高いチャンネルを選択する(ステップS10)。   Then, the viewing state estimation apparatus 1 calculates the accuracy of the mapping information from the data of the learning subject different from the data (biological signal, viewing state) used when the mapping information is calculated in step S8 by the channel selection unit 18. Then, a highly accurate channel is selected (step S10).

ここでは、チャンネル選択手段18は、類似度算出手段181によって、ステップS6およびステップS7でのマッピング情報算出に用いた学習被験者組み合わせ(N人)と、それ以外の学習被験者(〔M−N〕人)との間で、生体信号の類似度(生体信号類似度行列M′ 〔前記式(18)参照〕)と、視聴状態の類似度(視聴状態類似度行列M′〔前記式(19)参照〕)とを、チャンネルごとに算出する。 Here, the channel selection means 18 uses the similarity calculation means 181 to learn learning subject combinations (N people) used for the mapping information calculation in step S6 and step S7, and other learning subjects ([MN] people). ) Between the biological signal (biological signal similarity matrix M ′ c x [refer to the above equation (18)]) and the viewing state similarity (viewing state similarity matrix M ′ y [the above equation ( 19)]]) is calculated for each channel.

そして、チャンネル選択手段18は、誤差算出手段182によって、学習被験者(N+1〜M)について算出したチャンネルごとの生体信号類似度行列M′ およびステップS8で算出されたマッピング行列Wとの積と、視聴状態類似度行列M′およびステップS8で算出されたマッピング行列Vとの積との誤差を算出する(前記式(20)参照)。 Then, the channel selection means 18 is the product of the biological signal similarity matrix M ′ c x for each channel calculated for the learning subject (N + 1 to M) by the error calculation means 182 and the mapping matrix W c calculated in step S8. And the product of the viewing state similarity matrix M ′ y and the mapping matrix V c calculated in step S8 is calculated (see the above equation (20)).

そして、チャンネル選択手段18は、チャンネル特定手段183によって、誤差算出手段182で算出された誤差が、予め定めた閾値を下回るチャンネルを選択する。
これによって、視聴状態推定装置1は、対象被験者の視聴状態を示す解答データ(視聴状態推定値)を推定するために適したチャンネルを選択することができる。
Then, the channel selecting unit 18 selects a channel for which the error calculated by the error calculating unit 182 is lower than a predetermined threshold by the channel specifying unit 183.
Thereby, the viewing state estimation apparatus 1 can select a channel suitable for estimating the answer data (viewing state estimation value) indicating the viewing state of the subject subject.

(推定段階の動作)
次に、図4を参照(構成については、適宜図2参照)して、視聴状態推定装置1の推定段階の動作について説明する。
視聴状態推定装置1は、生体信号抽出手段20によって、外部に接続された生体信号計測装置(不図示)を介して入力される対象被験者の生体信号から、図3で説明した学習段階で選択されたチャンネルの生体信号を抽出する(ステップS20)。
(Estimation stage operation)
Next, referring to FIG. 4 (refer to FIG. 2 as appropriate for the configuration), the operation in the estimation stage of the viewing state estimation apparatus 1 will be described.
The viewing state estimation device 1 is selected by the biological signal extraction means 20 from the biological signal of the target subject input via a biological signal measuring device (not shown) connected to the outside at the learning stage described in FIG. The biological signal of the selected channel is extracted (step S20).

そして、視聴状態推定装置1は、選択生体信号類似度算出手段21によって、ステップS20で抽出した対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者(1〜M)の選択チャンネルにおける生体信号との類似度(相関係数sxi〔前記式(22)参照〕をi番目の要素とする類似度ベクトルs)を算出する(ステップS21)。 Then, the viewing state estimation apparatus 1 uses the selected biological signal similarity calculating unit 21 to detect the biological signal in the selected channel of the target subject extracted in step S20 and the learning subjects (1 to 1) stored in the biological signal storage unit 11. M) The similarity with the biological signal in the selected channel (similarity vector s x with the correlation coefficient s xi [see Equation (22) above) as the i-th element) is calculated (step S21).

そして、視聴状態推定装置1は、視聴状態推定値算出手段22によって、学習用被験者間の生体信号の類似度と視聴状態の類似度とのマッピング情報(重み係数)に基づいて、ステップS21で算出された対象被験者と学習用被験者間の生体信号の類似度から、対象被験者の視聴状態(視聴状態推定値)を算出する(ステップS22)。   Then, the viewing state estimation apparatus 1 is calculated in step S21 by the viewing state estimated value calculation means 22 based on mapping information (weighting factor) between the similarity of the biological signal between the learning subjects and the similarity of the viewing state. The viewing state (viewing state estimation value) of the target subject is calculated from the similarity of the biological signal between the target subject and the learning subject (step S22).

ここでは、視聴状態推定値算出手段22は、対象被験者の未知のアンケート結果を視聴状態ベクトルynewとし、視聴状態記憶手段14に記憶されている学習用被験者の視聴状態ベクトルy(i=1〜M)との類似度ベクトルsを前記式(26)とする。
そして、視聴状態推定値算出手段22は、選択チャンネルCに対応してマッピング情報記憶手段17に記憶されているマッピング行列から、前記式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
これによって、視聴状態推定装置1は、視聴状態を推定するために適したチャンネルの生体信号から、対象被験者の視聴状態を推定することができる。
Here, the viewing state estimated value calculation means 22 uses the unknown questionnaire result of the subject subject as the viewing state vector y new, and the learning subject viewing state vector y i (i = 1) stored in the viewing state storage means 14. formula similarity vector s y with ~M) and (26).
Then, the viewing state estimated value calculation unit 22 obtains the viewing state vector y new that satisfies the expression (27) from the mapping matrix stored in the mapping information storage unit 17 corresponding to the selected channel C. ^ Calculated as new .
Thereby, the viewing state estimation apparatus 1 can estimate the viewing state of the subject subject from the biological signal of the channel suitable for estimating the viewing state.

以上説明したように、視聴状態推定装置1は、複数の学習用被験者間の生体信号(時系列データ)の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報を推定することで、新たに対象被験者の生体信号(時系列データ)から、対応する未知の解答データ(視聴状態)を推定することができる。   As described above, the viewing state estimation device 1 uses the similarity of the biological signal (time-series data) between the plurality of learning subjects and the similarity of the viewing state (learning answer data) between the plurality of learning subjects. Thus, the corresponding unknown answer data (viewing state) can be newly estimated from the biological signal (time-series data) of the subject subject.

このように、視聴状態推定装置1は、従来のようにコンテンツ視聴中に発生する特定の生体反応と視聴状態とを関連付けるのではなく、学習用被験者間の生体信号(時系列データ)の類似度と視聴状態の類似度との関連性から、対象被験者の視聴状態を推定することができるため、任意のコンテンツに対して視聴状態を推定することができる。
また、視聴状態推定装置1を用いることで、コンテンツ制作者は、コンテンツが視聴者に与える影響を客観的に把握し、コンテンツによる効果を定量的に評価することが可能になる。
In this way, the viewing state estimation device 1 does not associate a specific biological reaction that occurs during content viewing with the viewing state as in the past, but the similarity of the biological signal (time-series data) between the learning subjects. Since the viewing state of the target subject can be estimated from the relevance between the similarity of the viewing state and the viewing state, the viewing state can be estimated for any content.
Also, by using the viewing state estimation device 1, the content creator can objectively grasp the influence of the content on the viewer and quantitatively evaluate the effect of the content.

1 視聴状態推定装置
10 生体信号入力手段
11 生体信号記憶手段
12 学習用生体信号類似度算出手段
13 視聴状態入力手段
14 視聴状態記憶手段
15 学習用視聴状態類似度算出手段
16 類似度マッピング情報算出手段
17 マッピング情報記憶手段
18 チャンネル選択手段
181 類似度算出手段
182 誤差算出手段
183 チャンネル特定手段
20 生体信号抽出手段
21 選択生体信号類似度算出手段
22 視聴状態推定値算出手段
DESCRIPTION OF SYMBOLS 1 Viewing state estimation apparatus 10 Biological signal input means 11 Biological signal storage means 12 Learning biological signal similarity calculation means 13 Viewing state input means 14 Viewing state storage means 15 Learning viewing state similarity calculation means 16 Similarity mapping information calculation means 17 mapping information storage means 18 channel selection means 181 similarity calculation means 182 error calculation means 183 channel identification means 20 biological signal extraction means 21 selected biological signal similarity calculation means 22 viewing state estimation value calculation means

Claims (5)

コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、
前記生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度である生体信号類似度を算出する学習用生体信号類似度算出手段と、
前記学習用解答データについて、前記学習用被験者間の類似度である視聴状態類似度を算出する学習用視聴状態類似度算出手段と、
前記計測チャンネルごとに、予め定めた人数の学習用被験者間の前記生体信号類似度と前記視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する類似度間マッピング情報算出手段と、
前記マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、前記マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択するチャンネル選択手段と、
前記対象被験者について、前記計測チャンネルごとの生体信号から、前記選択チャンネルの生体信号を抽出する生体信号抽出手段と、
この生体信号抽出手段で抽出された前記対象被験者の生体信号と、前記複数の学習用被験者の生体信号との類似度を算出する選択生体信号類似度算出手段と、
前記対象被験者の未知数の学習用解答データと前記複数の学習用被験者の学習用解答データとの類似度と、前記選択生体信号類似度算出手段で算出された生体信号の類似度とについて、前記選択チャンネルに対応した前記マッピング情報を用いたときの相関が最大となる前記未知数の学習用解答データを視聴状態推定値として算出する視聴状態推定値算出手段と、
を備えることを特徴とする視聴状態推定装置。
Based on the biological signals of a plurality of learning subjects who are viewing the content and the learning answer data which is a result of the learning subject answering the question asking the viewing state of the content A viewing state estimation device that estimates a viewing state of the target subject from a biological signal of the subject,
Learning biosignal similarity calculating means for calculating biosignal similarity, which is a similarity between learning subjects, with respect to biosignals of a plurality of learning subjects input for each measurement channel that is a measurement site of the biosignal. ,
With respect to the learning answer data, learning viewing state similarity calculating means for calculating a viewing state similarity that is a similarity between the learning subjects;
A similarity-to-similarity mapping information calculation unit that calculates, as mapping information, a weighting coefficient that maximizes the correlation between the biological signal similarity between the predetermined number of learning subjects and the viewing state similarity for each measurement channel; ,
The correlation error when using the mapping information is determined in advance for biosignal similarity and viewing state similarity between a plurality of other learning subjects different from the learning subject for which the mapping information is calculated. Channel selection means for selecting a measurement channel below a threshold as a selection channel;
For the subject subject, a biological signal extraction means for extracting a biological signal of the selected channel from a biological signal for each measurement channel;
A selected biological signal similarity calculating means for calculating a similarity between the biological signal of the target subject extracted by the biological signal extracting means and the biological signals of the plurality of learning subjects;
The selection of the similarity between the unknown learning answer data of the target subject and the learning answer data of the plurality of learning subjects, and the similarity of the biological signal calculated by the selected biological signal similarity calculating means Viewing state estimation value calculating means for calculating, as a viewing state estimation value, the unknown number of learning answer data having a maximum correlation when using the mapping information corresponding to a channel;
A viewing state estimation apparatus comprising:
前記類似度間マッピング情報算出手段は、
前記学習被験者間の生体信号の類似度を行列の要素とする生体信号類似度行列と学習被験者数の次元の未知の第1重みベクトルとの積である第1ベクトルと、前記学習被験者間の学習用解答データの類似度を行列の要素とする視聴状態類似度行列と学習被験者数の次元の未知の第2重みベクトルとの積である第2ベクトルとの内積が、前記第1ベクトルおよび前記第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる前記第1重みベクトルおよび前記第2重みベクトルを、前記計測チャンネルごとに前記重み係数として算出することを特徴とする請求項1に記載の視聴状態推定装置。
The similarity mapping information calculation means includes:
A first vector that is a product of a biosignal similarity matrix having biosignal similarity between learning subjects as a matrix element and an unknown first weight vector of the number of learning subjects, and learning between the learning subjects The inner product of the second state vector, which is the product of the viewing state similarity matrix having the similarity of the answer data for the matrix as an element of the matrix and the unknown second weight vector of the number of learning subjects, is the first vector and the first The first weight vector and the second weight vector, which are maximized under a constraint condition in which a norm of two vectors is a predetermined constant, are calculated as the weight coefficients for each measurement channel. The viewing state estimation apparatus according to Item 1.
前記チャンネル選択手段は、
前記複数の他の学習用被験者の生体信号と当該学習用被験者の学習用解答データについて、前記計測チャンネルごとに、前記複数の他の学習用被験者間の生体信号の類似度を行列の要素とする第2生体信号類似度行列と、前記複数の他の学習被験者間の学習用解答データの類似度を行列の要素とする第2視聴状態類似度行列とを算出する類似度算出手段と、
前記計測チャンネルごとに、前記第2生体信号類似度行列と前記第1重みベクトルとの積と、前記第2視聴状態類似度行列と前記第2重みベクトルとの積との誤差を算出する誤差算出手段と、
この誤差算出手段で算出された誤差が予め定めた閾値を下回る計測チャンネルを前記選択チャンネルとして特定するチャンネル特定手段と、
を備えることを特徴とする請求項2に記載の視聴状態推定装置。
The channel selection means includes
With respect to the biological signals of the plurality of other learning subjects and the answer data for learning of the learning subjects, the similarity between the plurality of other learning subjects is used as a matrix element for each measurement channel. Similarity calculating means for calculating a second biological signal similarity matrix and a second viewing state similarity matrix having the similarity of the answer data for learning among the plurality of other learning subjects as elements of the matrix;
Error calculation for calculating an error between the product of the second biological signal similarity matrix and the first weight vector and the product of the second viewing state similarity matrix and the second weight vector for each measurement channel. Means,
Channel specifying means for specifying, as the selected channel, a measurement channel in which the error calculated by the error calculating means falls below a predetermined threshold;
The viewing state estimation apparatus according to claim 2, further comprising:
前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段は、それぞれ、前記学習用被験者の数が異なる生体信号類似度および視聴状態類似度を算出し、
前記チャンネル選択手段は、すべての学習用被験者から、前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段で類似度を算出する対象となった学習用被験者を除いた学習用被験者を対象として、前記第2生体信号類似度行列と前記第2視聴状態類似度行列とを算出することを特徴とする請求項3に記載の視聴状態推定装置。
The learning biological signal similarity calculating unit and the learning viewing state similarity calculating unit calculate a biological signal similarity and a viewing state similarity with different numbers of the learning subjects, respectively.
The channel selection means is for learning except for all the learning subjects excluding the learning subjects for which the biometric signal similarity calculating means for learning and the learning viewing state similarity calculating means calculate the similarity. The viewing state estimation apparatus according to claim 3, wherein the second biological signal similarity matrix and the second viewing state similarity matrix are calculated for a subject.
コンピュータを、請求項1に記載の視聴状態推定装置として機能させるための視聴状態推定プログラム。   A viewing state estimation program for causing a computer to function as the viewing state estimation apparatus according to claim 1.
JP2013223058A 2013-10-28 2013-10-28 Viewing state estimation apparatus and program thereof Active JP6154728B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013223058A JP6154728B2 (en) 2013-10-28 2013-10-28 Viewing state estimation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013223058A JP6154728B2 (en) 2013-10-28 2013-10-28 Viewing state estimation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2015087782A JP2015087782A (en) 2015-05-07
JP6154728B2 true JP6154728B2 (en) 2017-06-28

Family

ID=53050559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013223058A Active JP6154728B2 (en) 2013-10-28 2013-10-28 Viewing state estimation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6154728B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699057B2 (en) 2015-10-07 2020-06-30 Hitachi Ltd. System and method for controlling information presented to user referring to contents
JP6635899B2 (en) * 2016-09-02 2020-01-29 株式会社日立製作所 Comprehension calculating device and comprehension calculating method
JP2022155614A (en) * 2021-03-31 2022-10-14 国立研究開発法人情報通信研究機構 Empathy measuring method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003111106A (en) * 2001-09-28 2003-04-11 Toshiba Corp Apparatus for acquiring degree of concentration and apparatus and system utilizing degree of concentration
JP4335642B2 (en) * 2003-11-10 2009-09-30 日本電信電話株式会社 Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device
JP2005210155A (en) * 2004-01-20 2005-08-04 Sanyo Electric Co Ltd Mobile viewing apparatus
JP2006134282A (en) * 2004-11-06 2006-05-25 Kazuyoshi Tateno Individual information provision system using similarity value
US8230457B2 (en) * 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
JP2011129997A (en) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method
AU2011265090A1 (en) * 2010-06-07 2012-11-29 Affectiva,Inc. Mental state analysis using web services
KR20120018061A (en) * 2010-08-19 2012-02-29 한국전자통신연구원 Method and apparatus acquiring channel information using a broadcast data
JP2012089061A (en) * 2010-10-22 2012-05-10 Nec Corp Question survey apparatus, question survey method and program
JP5470302B2 (en) * 2011-02-15 2014-04-16 日本電信電話株式会社 Group action determination apparatus, method, and program
US20120324491A1 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing
JP5937829B2 (en) * 2012-01-25 2016-06-22 日本放送協会 Viewing situation recognition device and viewing situation recognition program
JP5775837B2 (en) * 2012-03-02 2015-09-09 日本電信電話株式会社 Interest degree estimation apparatus, method and program

Also Published As

Publication number Publication date
JP2015087782A (en) 2015-05-07

Similar Documents

Publication Publication Date Title
Grootswagers et al. Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data
Wan et al. Sparse Bayesian multi-task learning for predicting cognitive outcomes from neuroimaging measures in Alzheimer's disease
Stahl et al. Novel machine learning methods for ERP analysis: a validation from research on infants at risk for autism
Chen et al. A multichannel deep neural network model analyzing multiscale functional brain connectome data for attention deficit hyperactivity disorder detection
Zhang et al. Characterization of task-free and task-performance brain states via functional connectome patterns
EP3281079B1 (en) System and method for estimating cognitive traits
Das et al. Unsupervised approach for measurement of cognitive load using EEG signals
CN105225222A (en) To the automatic evaluation of the perception visual quality of different images collection
JP6154728B2 (en) Viewing state estimation apparatus and program thereof
Churchill et al. Comparing within‐subject classification and regularization methods in fMRI for large and small sample sizes
Ardakani et al. Application of texture analysis in diagnosis of multiple sclerosis by magnetic resonance imaging
JP6259353B2 (en) Image evaluation apparatus and program thereof
Wang et al. Partial least squares for functional joint models with applications to the Alzheimer's disease neuroimaging initiative study
Feilong et al. The Individualized Neural Tuning Model: Precise and generalizable cartography of functional architecture in individual brains
JP6417232B2 (en) Image evaluation apparatus and program thereof
Shen et al. Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models
Wang et al. Causality analysis of fMRI data based on the directed information theory framework
Rao et al. A comparison of strategies for incorporating nuisance variables into predictive neuroimaging models
Stamile et al. Multiparametric non-negative matrix factorization for longitudinal variations detection in white-matter fiber bundles
US11768258B2 (en) Signal separating apparatus, signal separating method, and non-transitory recording medium
Brahim et al. Classification of autism spectrum disorder through the graph fourier transform of fmri temporal signals projected on structural connectome
KR101213677B1 (en) System for imputating of missing values using incremental expectation maximization principal component analysis
Li et al. Diagnosis of Alzheimer's disease by feature weighted-LSTM: a preliminary study of temporal features in brain resting-state fMRI
Peruzzo et al. A framework for the automatic detection and characterization of brain malformations: Validation on the corpus callosum
Xiao et al. Correlation guided graph learning to estimate functional connectivity patterns from fMRI data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160831

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6154728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250