JP6154728B2 - Viewing state estimation apparatus and program thereof - Google Patents
Viewing state estimation apparatus and program thereof Download PDFInfo
- Publication number
- JP6154728B2 JP6154728B2 JP2013223058A JP2013223058A JP6154728B2 JP 6154728 B2 JP6154728 B2 JP 6154728B2 JP 2013223058 A JP2013223058 A JP 2013223058A JP 2013223058 A JP2013223058 A JP 2013223058A JP 6154728 B2 JP6154728 B2 JP 6154728B2
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- learning
- viewing state
- biological signal
- subjects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 99
- 238000013507 mapping Methods 0.000 claims description 88
- 239000013598 vector Substances 0.000 claims description 67
- 239000011159 matrix material Substances 0.000 claims description 60
- 238000005259 measurement Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 description 13
- 210000004556 brain Anatomy 0.000 description 11
- 238000000034 method Methods 0.000 description 9
- 238000009795 derivation Methods 0.000 description 5
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 5
- 238000004497 NIR spectroscopy Methods 0.000 description 4
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 4
- 229910052760 oxygen Inorganic materials 0.000 description 4
- 239000001301 oxygen Substances 0.000 description 4
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Description
本発明は、コンテンツを視聴する視聴者の当該コンテンツに対する理解度、主観評価等の視聴状態を推定する視聴状態推定装置およびそのプログラムに関する。 The present invention relates to a viewing state estimation device and a program for estimating a viewing state such as a degree of understanding of a content of a viewer who views the content and subjective evaluation.
従来、放送番組等のコンテンツに対する理解度や主観評価は、コンテンツ視聴後の視聴者に対するアンケート(メール、はがき等)や、複数の被験者にコンテンツを視聴させた後の被験者に対するアンケート(解答用紙等による解答)により行われてきた。
このようなコンテンツに対する理解度や主観評価は、視聴者の嗜好等の把握に役立つとともに、視聴者に対して有益な情報推薦等の応用が期待される。しかし、コンテンツに対する理解度や主観評価を行うには、数多くのアンケートを集計する必要があり、コンテンツ視聴後に毎回アンケートを行うことは現実的ではない。
そこで、近年、任意の被験者を対象として、生体信号等の計測データから客観的かつ自動的に理解度等の視聴者の視聴状態を把握する技術が提案されている(特許文献1〜6参照)。
これらの技術では、計測された生体信号に、予め定めた生体信号パターンが含まれるか否かによって理解度等の推定を行っている。
Conventionally, comprehension and subjective evaluation of content such as broadcast programs are based on questionnaires (emails, postcards, etc.) for viewers after viewing the content, and questionnaires (subjects such as answer sheets) for subjects after having multiple subjects view the content. Answer).
Such an understanding level and subjective evaluation for content are useful for grasping viewer's preference and the like, and are expected to be useful for information recommendation and the like for viewers. However, in order to perform understanding and subjective evaluation of content, it is necessary to count a large number of questionnaires, and it is not realistic to conduct a questionnaire every time after viewing the content.
Therefore, in recent years, a technique has been proposed in which an arbitrary subject is subjected to objective and automatic grasping of a viewer's viewing state such as an understanding level from measurement data such as a biological signal (see Patent Documents 1 to 6). .
In these techniques, the degree of understanding or the like is estimated based on whether or not a measured biological signal includes a predetermined biological signal pattern.
しかし、放送番組等のコンテンツは種類(ジャンル、内容等)が多種多様であり、それに対する応答は複雑である。
前記したような予め定めた生体信号パターンを用いる技術では、その生体信号パターンが固定されているため、多種多様なコンテンツに対して適用することができない。
すなわち、従来の技術は、特定のコンテンツについては、予め定めた生体信号パターンによって視聴者の視聴状態を推定できたとしても、異なるコンテンツについては、生体信号パターンが異なるため、視聴者の視聴状態を推定することができないという問題がある。
However, there are various types (genre, content, etc.) of contents such as broadcast programs, and the response to them is complicated.
The technique using a predetermined biological signal pattern as described above cannot be applied to a wide variety of contents because the biological signal pattern is fixed.
That is, even if the conventional technology can estimate the viewing state of the viewer based on a predetermined biological signal pattern for specific content, the biological signal pattern is different for different content. There is a problem that it cannot be estimated.
本発明は、このような問題に鑑みてなされたものであり、コンテンツごとに予め定めた生体信号パターンを用いることなく、多種多様なコンテンツに対して、視聴者の視聴状態を推定することが可能な視聴状態推定装置およびそのプログラムを提供することを課題とする。 The present invention has been made in view of such a problem, and it is possible to estimate the viewing state of the viewer with respect to various contents without using a biological signal pattern predetermined for each content. It is an object of the present invention to provide a simple viewing state estimation device and a program thereof.
前記課題を解決するため、本発明に係る視聴状態推定装置は、コンテンツ視聴中の複数の学習用被験者の生体信号と、前記コンテンツに対する視聴状態を尋ねる設問に対して前記学習用被験者が解答した結果である学習用解答データとに基づいて、前記コンテンツ視聴中の対象被験者の生体信号から、前記対象被験者の視聴状態を推定する視聴状態推定装置であって、学習用生体信号類似度算出手段と、学習用視聴状態類似度算出手段と、類似度間マッピング情報算出手段と、チャンネル選択手段と、生体信号抽出手段と、選択生体信号類似度算出手段と、視聴状態推定値算出手段と、を備える構成とした。 In order to solve the above-mentioned problem, the viewing state estimation apparatus according to the present invention is a result of the learning subject answering the biometric signals of a plurality of learning subjects who are viewing content and the question asking about the viewing state of the content. A viewing state estimation device for estimating the viewing state of the target subject from the biological signal of the target subject who is viewing the content based on the learning answer data, A configuration comprising learning viewing state similarity calculating means, similarity mapping information calculating means, channel selecting means, biological signal extracting means, selected biological signal similarity calculating means, and viewing state estimated value calculating means. It was.
かかる構成において、視聴状態推定装置は、学習用生体信号類似度算出手段によって、生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度(生体信号類似度)を算出する。
また、視聴状態推定装置は、学習用視聴状態類似度算出手段によって、学習用被験者間の学習用解答データの類似度(視聴状態類似度)を算出する
この生体信号類似度と視聴状態類似度とは、強い相関があると考えられる。
そこで、視聴状態推定装置は、生体信号類似度と視聴状態類似度とを関連付けるため、類似度間マッピング情報算出手段によって、計測チャンネルごとに、予め定めた人数の学習用被験者間の生体信号類似度と視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する。
In such a configuration, the viewing state estimation apparatus uses the learning biosignal similarity calculation unit to calculate the similarity between the learning subjects with respect to the biosignals of a plurality of learning subjects input for each measurement channel that is a measurement portion of the biosignal. The degree (biological signal similarity) is calculated.
In addition, the viewing state estimation apparatus calculates the similarity (viewing state similarity) of the answer data for learning between the learning subjects by the learning viewing state similarity calculating unit. Are considered to have a strong correlation.
Therefore, the viewing state estimation device associates the biological signal similarity with the viewing state similarity, so that the similarity signal mapping information calculation means calculates the biological signal similarity between a predetermined number of learning subjects for each measurement channel. And the weighting coefficient that maximizes the correlation between the viewing state similarity and the viewing state similarity are calculated as mapping information.
そして、視聴状態推定装置は、チャンネル選択手段によって、マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択する。
すなわち、視聴状態推定装置は、類似度間マッピング情報算出手段によって、予め定めた人数の学習用被験者から、マッピング情報を推定する。そして、視聴状態推定装置は、チャンネル選択手段によって、他の学習用被験者に対してそのマッピング情報を適用し、その推定誤差が予め定めた閾値よりも小さいマッピング情報を算出した計測チャンネルを選択チャンネルとして選択する。
Then, the viewing state estimation device uses the channel selection means to obtain mapping information for biosignal similarity and viewing state similarity between a plurality of other learning subjects different from the learning subject for which mapping information is calculated. A measurement channel whose correlation error when used is lower than a predetermined threshold is selected as a selected channel.
That is, the viewing state estimation apparatus estimates mapping information from a predetermined number of learning subjects by means of similarity mapping information calculation means. Then, the viewing state estimation device applies the mapping information to other learning subjects by the channel selection means, and uses the measurement channel that has calculated the mapping information whose estimation error is smaller than a predetermined threshold as the selection channel. select.
そして、視聴状態推定装置は、生体信号抽出手段によって、対象被験者について、計測チャンネルごとの生体信号から、選択チャンネルの生体信号を抽出する。これによって、視聴状態との相関が強い生体信号が抽出されることになる。
そして、視聴状態推定装置は、選択生体信号類似度算出手段によって、生体信号抽出手段で抽出された対象被験者の生体信号と、複数の学習用被験者の生体信号との類似度を算出する。
Then, the viewing state estimation device extracts the biological signal of the selected channel from the biological signal for each measurement channel for the subject subject by the biological signal extraction means. As a result, a biological signal having a strong correlation with the viewing state is extracted.
Then, the viewing state estimation apparatus calculates the similarity between the biological signal of the target subject extracted by the biological signal extraction means and the biological signals of the plurality of learning subjects by the selected biological signal similarity calculation means.
また、視聴状態推定装置は、視聴状態推定値算出手段によって、対象被験者の未知数の学習用解答データと複数の学習用被験者の学習用解答データとの類似度と、選択生体信号類似度算出手段で算出された類似度とについて、選択チャンネルに対応したマッピング情報を用いたときの相関が最大となる未知数の学習用解答データを視聴状態推定値として算出する。 Further, the viewing state estimation device uses the viewing state estimation value calculation means to calculate the similarity between the unknown learning answer data of the target subject and the learning answer data of the plurality of learning subjects, and the selected biological signal similarity calculation means. With respect to the calculated similarity, an unknown number of learning answer data having a maximum correlation when using mapping information corresponding to the selected channel is calculated as a viewing state estimation value.
このように、視聴状態推定装置は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報(重み係数)を推定し、そのマッピング情報に基づいて、対象被験者の生体信号から、対応する未知の解答データ(視聴状態)を推定する。
これによって、視聴状態推定装置は、従来のように、対象被験者の生体信号に予め定めた生体信号パターンが含まれるか否かにより視聴状態を判定することなく、対象被験者の視聴状態を推定することができる。
In this way, the viewing state estimation device is configured to map the mapping information (weighting coefficient) that associates the similarity of the biological signal between the plurality of learning subjects with the similarity of the viewing state (learning answer data) between the plurality of learning subjects. ) And the corresponding unknown answer data (viewing state) is estimated from the biological signal of the subject subject based on the mapping information.
Thereby, the viewing state estimation device estimates the viewing state of the target subject without determining the viewing state based on whether or not the biological signal pattern of the target subject includes a predetermined biological signal pattern as in the past. Can do.
なお、本発明に係る視聴状態推定装置は、視聴状態推定装置のコンピュータを、学習用生体信号類似度算出手段、学習用視聴状態類似度算出手段、類似度間マッピング情報算出手段、チャンネル選択手段、生体信号抽出手段、選択生体信号類似度算出手段、視聴状態推定値算出手段、として機能させるための視聴状態推定プログラムで動作させることができる。 The viewing state estimation apparatus according to the present invention includes a computer of the viewing state estimation apparatus, a learning biological signal similarity calculation unit, a learning viewing state similarity calculation unit, a similarity mapping information calculation unit, a channel selection unit, It is possible to operate with a viewing state estimation program for functioning as a biological signal extraction unit, a selected biological signal similarity calculation unit, and a viewing state estimation value calculation unit.
本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、コンテンツ視聴中に発生する特定の生体信号パターンと視聴状態とを関連付けるのではなく、学習用被験者間の生体信号の類似度と視聴状態(学習用解答データ)の類似度との関連性から、対象被験者の視聴状態を推定することができる。そのため、本発明は、任意のコンテンツに対して視聴状態を推定することができる。
また、本発明によれば、コンテンツの視聴者に与える影響を客観的に把握することができる。そのため、本発明は、コンテンツ配信による効果を定量的に評価することができる。
The present invention has the following excellent effects.
According to the present invention, rather than associating a specific biological signal pattern generated during content viewing with a viewing state, the similarity of the biological signal between the learning subjects and the similarity of the viewing state (learning answer data) The viewing state of the subject subject can be estimated from the relevance of. Therefore, the present invention can estimate the viewing state for any content.
Further, according to the present invention, it is possible to objectively grasp the influence of the content on the viewer. Therefore, the present invention can quantitatively evaluate the effect of content distribution.
以下、本発明の実施形態について図面を参照して説明する。
〔視聴状態推定装置の概要〕
最初に、図1を参照して、本発明の実施形態に係る視聴状態推定装置1の概要について説明する。
視聴状態推定装置1は、放送番組等のコンテンツを視聴中の被験者(対象被験者)の生体信号から、被験者のコンテンツに対する理解度、主観評価等の視聴状態を推定するものである。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of viewing state estimation device]
Initially, with reference to FIG. 1, the outline | summary of the viewing-and-listening state estimation apparatus 1 which concerns on embodiment of this invention is demonstrated.
The viewing state estimation device 1 estimates a viewing state such as a degree of comprehension and subjective evaluation of a subject's content from a biological signal of a subject (target subject) who is viewing the content such as a broadcast program.
図1(a)に示すように、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、テレビ受信機等のモニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)の複数の測定箇所(チャンネル)で計測される生体信号(学習用生体信号)を取得する。
また、視聴状態推定装置1は、学習段階として、複数の被験者(学習用被験者Hs,Hs,…)から、視聴状態を尋ねる設問(アンケート)の解答(学習用解答データ)を取得する。そして、視聴状態推定装置1は、機械学習により、設問に関係の強い生体信号のチャンネルを推定する。
As shown in FIG. 1 (a), the viewing state estimation device 1 is viewing content presented on a monitor M such as a television receiver from a plurality of subjects (learning subjects Hs, Hs,...) As a learning stage. In addition, a biological signal (learning biological signal) measured at a plurality of measurement points (channels) of the biological signal measuring device (here, electroencephalograph B) is acquired.
Moreover, the viewing state estimation apparatus 1 acquires the answer (questioning answer data) of the question (questionnaire) which asks for a viewing state from a plurality of subjects (learning subjects Hs, Hs,...) As a learning stage. Then, the viewing state estimation apparatus 1 estimates the channel of the biological signal that is strongly related to the question by machine learning.
そして、図1(b)に示すように、視聴状態推定装置1は、推定段階として、対象被験者Htから、モニタMに提示されるコンテンツ視聴中に生体信号計測装置(ここでは、脳波計B)で計測される生体信号のうち、学習段階で推定したチャンネルの生体信号(推定対象生体信号)を取得して、対象被験者Htの視聴状態を示す解答データ(視聴状態推定値)を推定する。
なお、被験者(学習用被験者Hs、対象被験者Ht)が視聴するコンテンツは、同一のコンテンツである。また、複数の学習用被験者Hs,Hs,…に対して行うアンケートの内容は同一である。
以下、このように、学習と推定により使用するチャンネルを特定し、対象被験者Htの視聴状態を推定する視聴状態推定装置1の構成および動作について説明を行う。
Then, as shown in FIG. 1 (b), the viewing state estimation device 1 performs the biological signal measurement device (in this case, an electroencephalograph B) from the target subject Ht while viewing the content presented on the monitor M as an estimation stage. The biological signal (estimation target biological signal) of the channel estimated in the learning stage is acquired from the biological signals measured in step (1), and answer data (viewing state estimation value) indicating the viewing state of the target subject Ht is estimated.
Note that the content viewed by the subject (learning subject Hs, target subject Ht) is the same content. Moreover, the content of the questionnaire performed with respect to several test subjects Hs, Hs,... Is the same.
Hereinafter, the configuration and operation of the viewing state estimation apparatus 1 that identifies the channel to be used by learning and estimation and estimates the viewing state of the target subject Ht will be described below.
〔視聴状態推定装置の構成〕
まず、図2を参照して、本発明の実施形態に係る視聴状態推定装置1の構成について説明する。
[Configuration of viewing state estimation device]
First, the configuration of the viewing state estimation apparatus 1 according to the embodiment of the present invention will be described with reference to FIG.
図2に示すように、視聴状態推定装置1は、事前の学習段階において、推定段階で使用するチャンネルを選択するための、生体信号入力手段10と、生体信号記憶手段11と、学習用生体信号類似度算出手段12と、視聴状態入力手段13と、視聴状態記憶手段14と、学習用視聴状態類似度算出手段15と、類似度間マッピング情報算出手段16と、マッピング情報記憶手段17と、チャンネル選択手段18と、推定段階において、対象被験者の視聴状態を推定するための、生体信号抽出手段20と、選択生体信号類似度算出手段21と、視聴状態推定値算出手段22と、を備える。
As shown in FIG. 2, the viewing state estimation device 1 has a biological signal input means 10, a biological signal storage means 11, and a learning biological signal for selecting a channel to be used in the estimation stage in the prior learning stage. Similarity calculation means 12, viewing state input means 13, viewing state storage means 14, learning viewing state similarity calculation means 15, similarity mapping information calculation means 16, mapping information storage means 17, channel The
生体信号入力手段10は、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、学習用被験者の生体信号を入力するものである。この生体信号入力手段10は、複数の学習用被験者から入力した生体信号を、それぞれ時系列信号として数値化し、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する。 The biological signal input means 10 inputs the biological signal of the subject for learning for each channel for measuring the biological signal via a biological signal measuring device (not shown) connected to the outside. The biological signal input means 10 digitizes biological signals input from a plurality of learning subjects as time series signals, and writes them into the biological signal storage means 11 in association with the learning subjects and channels.
ここで、生体信号とは、学習用被験者(対象被験者についても同様)の生体組織の状態や組織が機能している場合の情報を反映した信号である。この生体信号は、例えば、脳血中酸素量、脳波(EEG:Electroencephalogram)、人体の体表温度等である。
例えば、生体信号計測装置としてfMRI装置を用いることで、生体信号入力手段10は、機能的核磁気共鳴画像法(fMRI:Magnetic Resonance Imaging)により計測される画像の輝度データとして脳血中酸素量を取得することができる。
Here, the biological signal is a signal reflecting the state of the biological tissue of the learning subject (the same applies to the subject subject) and information when the tissue is functioning. This biological signal is, for example, cerebral blood oxygen content, electroencephalogram (EEG), body surface temperature of the human body, and the like.
For example, by using an fMRI apparatus as a biological signal measuring apparatus, the biological signal input means 10 can calculate the oxygen content in the brain blood as luminance data of an image measured by functional nuclear magnetic resonance imaging (fMRI: Magnetic Resonance Imaging). Can be acquired.
また、例えば、生体信号計測装置としてNIRS脳計測装置を用いることで、近赤外分光法(NIRS:Near Infrared Spectroscopy)により計測される近赤外光の吸収度合いを示すデータとして脳血中酸素量を取得することができる。
また、例えば、生体信号計測装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号計測装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
In addition, for example, by using a NIRS brain measuring device as a biological signal measuring device, the amount of oxygen in the brain blood as data indicating the degree of absorption of near infrared light measured by near infrared spectroscopy (NIRS) Can be obtained.
In addition, for example, by using an electroencephalograph as the biological signal measuring device, an electroencephalogram can be acquired as potential data measured by an electrode placed on the subject's scalp or the like.
In addition, for example, by using thermography as the biological signal measuring device, the body surface temperature can be acquired as image data indicating the heat distribution.
また、ここで、チャンネルとは、生体信号計測装置で計測される被験者の生体信号の計測箇所を示す。例えば、生体信号としてfMRIにより計測されるデータを用いる場合、fMRI装置が脳の複数の断面画像(3次元画像)を生成することから、チャンネルは、画像のピクセル単位(3次元画像であるため、より正確にはボクセル単位)で表された被験者の脳の部位に相当する。また、例えば、生体信号として、近赤外分光法により計測されるデータや脳波を用いる場合、チャンネルは、被験者の頭表上に置かれるプローブ単位または電極単位で表される脳の部位に相当する。 Here, the channel indicates a measurement point of the biological signal of the subject measured by the biological signal measurement device. For example, when data measured by fMRI is used as a biological signal, since the fMRI apparatus generates a plurality of cross-sectional images (three-dimensional images) of the brain, the channel is a pixel unit (three-dimensional image). More precisely, it corresponds to the brain part of the subject expressed in voxel units). In addition, for example, when using data or brain waves measured by near infrared spectroscopy as a biological signal, the channel corresponds to a portion of the brain expressed in probe units or electrode units placed on the subject's head surface. .
なお、fMRI装置は、脳内の酸素量を脳の断面画像として出力するが、その画像は被験者によって大きさ、形状等が異なる。そこで、生体信号入力手段10は、複数の被験者でチャンネルとして指し示す部位を揃えるため、アフィン変換等により、断面画像を圧縮、伸長、回転させ、標準脳と呼ばれるテンプレート脳画像と大きさ、形状等を合わせる正規化処理を行うことが好ましい。
また、生体信号入力手段10は、計測した生体信号に対して平滑化処理等を行うことで、生体信号のノイズを除去することが好ましい。
このように、生体信号入力手段10は、正規化処理、ノイズ除去等を行った生体信号を、生体信号記憶手段11に書き込み記憶する。
The fMRI apparatus outputs the amount of oxygen in the brain as a cross-sectional image of the brain, but the image differs in size, shape, etc. depending on the subject. Therefore, the biological
Moreover, it is preferable that the biological
In this way, the biological
生体信号記憶手段11は、生体信号入力手段10で入力された生体信号を記憶するものである。この生体信号記憶手段11は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この生体信号記憶手段11には、学習用被験者とチャンネルとに対応付けられた時系列信号として、複数の学習用被験者の生体信号が記憶される。例えば、生体信号記憶手段11には、10人の学習用被験者に対して、それぞれ10000箇所のチャンネルで計測された生体信号を記憶する。ここでは、生体信号記憶手段11に記憶される生体信号を計測した学習用被験者の数をM人とする。
この生体信号記憶手段11に記憶された生体信号は、学習用生体信号類似度算出手段12、チャンネル選択手段18および選択生体信号類似度算出手段21によって参照される。
The biological
The biological
The biological signal stored in the biological
学習用生体信号類似度算出手段12は、生体信号記憶手段11に記憶されている同一コンテンツを視聴した複数の学習用被験者の生体信号について、学習用被験者間の類似度を算出するものである。
この学習用生体信号類似度算出手段12は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
The learning biosignal similarity calculation means 12 calculates the similarity between learning subjects for the biosignals of a plurality of learning subjects who have viewed the same content stored in the biosignal storage means 11.
The learning biosignal
具体的には、学習用生体信号類似度算出手段12は、以下のように類似度を算出する。ここでは、学習用生体信号類似度算出手段12は、類似度として相関係数を用いることとする。
ここで、チャンネルの識別子をc、学習用被験者の識別子をiとしたとき、生体信号記憶手段11に記憶されている時系列の生体信号xc iは、以下の式(1)のベクトルで表すことができる。
Specifically, the learning biosignal
Here, when the channel identifier is c and the learning subject identifier is i, the time-series biological signal x c i stored in the biological signal storage means 11 is expressed by a vector of the following equation (1). be able to.
なお、tは転置を示す(以下の各式においても同様)。
この式(1)において、xc i,1は、コンテンツ視聴中、最初に計測された生体信号で、xc i,Tまで、順次、時系列に計測された生体信号を示す。
そして、学習用生体信号類似度算出手段12は、チャンネルcごとに、学習用被験者iの生体信号xc iと、学習用被験者jの生体信号xc jとの相関係数Mc x,i,jを、以下の式(2)により算出する。
Note that t represents transposition (the same applies to the following equations).
In this equation (1), x c i, 1 is a biological signal first measured during content viewing, and indicates a biological signal sequentially measured in time series up to x c i, T.
Then, for each channel c, the learning biological signal similarity calculating means 12 correlates the correlation coefficient M c x, i between the biological signal x c i of the learning subject i and the biological signal x c j of the learning subject j. , J are calculated by the following equation (2).
ここで、x ̄c iは前記式(1)のベクトルxc iの全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(3)および式(4)で表されるベクトルである(x ̄c jも同様)。なお、式(3)中、Tは、前記式(1)に示したベクトルxc iの要素数を示す。また、式(4)は、すべての要素が“1”となるT次元のベクトルである。 Here, X - c i is a vector with the mean value of all elements of the vector x c i in the formula (1) to each element, specifically, the following equation (3) and (4) (X ̄ c j is also the same). In Equation (3), T represents the number of elements of the vector x c i shown in Equation (1). Expression (4) is a T-dimensional vector in which all elements are “1”.
そして、学習用生体信号類似度算出手段12は、前記式(2)で算出したN人の学習用被験者間の類似度(相関係数Mc x,i,j)を要素とする以下の式(5)に示すN×N次元の行列(生体信号類似度行列Mc x)を、類似度間マッピング情報算出手段16に出力する。なお、この式(5)は対称行列で、対角成分の値はすべて“1”である。 Then, the learning biosignal similarity calculation means 12 uses the following expression having the similarity (correlation coefficient Mc x, i, j ) between the N learning subjects calculated by the expression (2) as an element. The N × N-dimensional matrix (biological signal similarity matrix M c x ) shown in (5) is output to the similarity mapping information calculation means 16. This equation (5) is a symmetric matrix, and the values of the diagonal components are all “1”.
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、M人からN人を選択する組み合わせを順次変えて、異なる組み合わせでの学習用被験者間で生体信号の類似度を算出することとする。
なお、この学習用生体信号類似度算出手段12において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の生体信号については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
Here, the biometric signal similarity calculation means 12 for learning is different by sequentially changing the combination of selecting N persons from M persons for N persons (N <M) smaller than the total number of learning subjects (M persons). The similarity of the biological signal is calculated between the learning subjects in combination.
When the learning biosignal similarity calculation means 12 calculates the similarity for a certain N, the channel selection means 18 applies the remaining (MN) human biosignals corresponding to the N. This is used when verifying the accuracy of mapping, and the explanation thereof will be described later.
なお、ここでは、学習用生体信号類似度算出手段12は、生体信号の類似度として、相関係数を用いたが、ベクトル間の内積、コサイン距離等、他の類似度指標を用いても構わない。 Here, the biometric signal similarity calculation means 12 for learning uses a correlation coefficient as the biosignal similarity, but other similarity indices such as an inner product between vectors and a cosine distance may be used. Absent.
視聴状態入力手段13は、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する理解度、主観評価等の視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データを入力し、視聴状態を数値化するものである。この視聴状態入力手段13は、数値化した視聴状態(解答パターン)を、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する。ここでは、視聴状態入力手段13に記憶される視聴状態を取得した学習用被験者の数を、生体信号記憶手段11と同様、M人とする。
The viewing state input means 13 is a result obtained by answering a question (questionnaire) in which a plurality of learning subjects whose biological signals are measured during content viewing asks the viewing state such as the degree of understanding and subjective evaluation of the content. Learning answer data is input and the viewing state is digitized. The viewing state input means 13 writes and stores the digitized viewing state (answer pattern) in the viewing state storage means 14 in association with the learning subject. Here, the number of learning subjects who have acquired the viewing state stored in the viewing
ここで、学習用被験者に尋ねる設問は、コンテンツの理解を問う設問、コンテンツの主観評価を問う設問等である。例えば、コンテンツがニュース番組の場合、コンテンツの理解を問う設問の例として、以下の例(設問Q1,Q2)が挙げられる。 Here, the questions that are asked to the learning subject are questions that ask the understanding of the content, questions that ask the subjective evaluation of the content, and the like. For example, when the content is a news program, the following examples (questions Q1 and Q2) are given as examples of questions that ask the understanding of the content.
設問Q1:コンテンツの内容は、何の話題ですか?
選択肢A1:通貨ユーロの危機
選択肢A2:EUの政情不安
選択肢A3:中国のEU圏への投資
選択肢A4:ドイツとフランスの経済紛争
Question Q1: What is the topic of the content?
Option A1: Currency euro crisis Option A2: EU political instability Option A3: China's investment in EU region Option A4: Economic conflict between Germany and France
設問Q2:現在のユーロはどのような状況ですか?
選択肢A1:ユーロ体制そのものへの信頼性が低下している
選択肢A2:IMFからの金融支援で信頼回復を果たしている
選択肢A3:EUの各国間の政治的な対立により価値切り下げの様相を呈している
選択肢A4:多くの国が自国通貨へ回帰を検討している
Question Q2: What is the current state of the euro?
Option A1: Reliability of the euro system itself is declining Option A2: Recovering trust through financial support from the IMF Option A3: The EU is showing a face of devaluation due to political conflict between countries Option A4: Many countries are considering returning to their own currency
また、例えば、コンテンツがドラマ番組の場合、コンテンツの主観評価を問う設問の例として、以下の例(設問Q3,Q4)が挙げられる。 In addition, for example, when the content is a drama program, the following examples (questions Q3 and Q4) are given as examples of questions about the subjective evaluation of the content.
設問Q3:このコンテンツは面白かったですか?3段階(1〜3)で評価してください。
(面白い:0、普通:1、面白くない:2)
Question Q3: Was this content interesting? Please evaluate in 3 stages (1-3).
(Interesting: 0, normal: 1, not interesting: 2)
設問Q4:主役Aの生き方に同感できますか?3段階(1〜3)で評価してください。
(同感できる:0、どちらでもない:1、同感できない:2)
Question Q4: Can you agree with the way of life of the protagonist A? Please evaluate in 3 stages (1-3).
(I can agree: 0, Neither: 1, I can't agree: 2)
ここでは、視聴状態入力手段13は、コンテンツに対する設問に対して、複数の学習用被験者が解答した結果を、例えば、キーボード、タッチパネル等の入力手段(不図示)を介して入力する。そして、視聴状態入力手段13は、正解または不正解が決まっている設問については、設問ごとに、解答を予め定めた正解と照合し、正解または不正解に対応する予め定めた値に数値化する。例えば、正解の場合“1”、不正解の場合”0”と数値化する。
また、視聴状態入力手段13は、主観評価のレベルのように、数値で解答する設問については、入力された数値をそのまま利用する。
Here, the viewing state input means 13 inputs the results answered by a plurality of subjects for learning in response to questions about the content, for example, via input means (not shown) such as a keyboard and a touch panel. Then, the viewing state input means 13 compares the answer with a predetermined correct answer for each question, and quantifies it to a predetermined value corresponding to the correct answer or the incorrect answer. . For example, it is digitized as “1” for correct answer and “0” for incorrect answer.
The viewing state input means 13 uses the input numerical value as it is for a question that is answered numerically, such as the subjective evaluation level.
そして、視聴状態入力手段13は、設問数がNqであった場合、学習用被験者iごとに、視聴状態yiとして、以下の式(6)に示すように、設問の解答に対応して、正誤、あるいは、評価レベルを数値化したNq次元のベクトル(視聴状態ベクトル)を生成する。 Then, when the number of questions is N q , the viewing state input means 13 corresponds to the answer to the question as shown in the following formula (6) as the viewing state y i for each learning subject i. , correctness, or to produce a N q-dimensional vector obtained by digitizing the evaluation levels (viewing state vector).
この視聴状態yiの各要素は、学習用被験者iの解答により、“0”または“1”、あるいは、評価レベルの数値となる。
なお、設問(アンケート)は、コンテンツの理解を問う設問のみ、コンテンツの主観評価を問う設問のみであってもよく、あるいは、それらを混在したものであってもよい。
この視聴状態入力手段13は、式(6)に示した視聴状態yiを、視聴状態記憶手段14に書き込み記憶する。
Each element of the viewing state y i is “0” or “1” or a numerical value of the evaluation level depending on the answer of the learning subject i.
The question (questionnaire) may be only a question asking for understanding of the content, a question asking for subjective evaluation of the content, or a mixture of them.
This viewing state input means 13 writes and stores the viewing state y i shown in Equation (6) in the viewing state storage means 14.
なお、ここでは、視聴状態入力手段13は、学習用解答データとして、学習用被験者の設問に対する解答を入力することとしたが、すでに正誤判定等を行った前記式(6)に示したデータ(解答パターン)を直接入力することとしてもよい。 Here, the viewing state input means 13 inputs the answer to the question of the learning subject as the answer data for learning, but the data (6) that has already been subjected to the correctness determination etc. (Answer pattern) may be directly input.
視聴状態記憶手段14は、視聴状態入力手段13で入力された学習用解答データを記憶するものである。この視聴状態記憶手段14は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この視聴状態記憶手段14には、学習用被験者iに対応付けられた前記式(6)に示した視聴状態yiが学習用解答データとして記憶される。
この視聴状態記憶手段14に記憶された学習用解答データ(視聴状態)は、学習用視聴状態類似度算出手段15、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
The viewing
The viewing state storage means 14 stores the viewing state y i shown in the equation (6) associated with the learning subject i as learning answer data.
The learning answer data (viewing state) stored in the viewing
学習用視聴状態類似度算出手段15は、視聴状態記憶手段14に記憶されている同一コンテンツを視聴した複数の学習用被験者の学習用解答データについて、学習用被験者間の類似度を算出するものである。
この学習用視聴状態類似度算出手段15は、算出した類似度を類似度間マッピング情報算出手段16に出力する。
The learning viewing state
The learning viewing state
具体的には、学習用視聴状態類似度算出手段15は、以下のように類似度を算出する。ここでは、学習用視聴状態類似度算出手段15は、類似度としてベクトル間の内積を用いることとする。
すなわち、学習用視聴状態類似度算出手段15は、学習用被験者iの視聴状態yiと、学習用被験者jの視聴状態yjとの類似度My,i,jを、以下の式(7)により算出する。
Specifically, the learning viewing state
That is, the learning viewing state similarity calculating means 15 calculates the similarity My , i, j between the viewing state y i of the learning subject i and the viewing state y j of the learning subject j using the following formula (7 ).
そして、学習用視聴状態類似度算出手段15は、この式(7)で算出したN人の学習用被験者間の類似度My,i,jを要素とする以下の式(8)に示すN×N次元の行列(視聴状態類似度行列My)を、類似度間マッピング情報算出手段16に出力する。
なお、この式(8)は対称行列で、対角成分の値はすべて“1”である。
Then, the learning viewing state similarity calculating means 15 is represented by the following equation (8) having the similarity My , i, j between the N learning subjects calculated by the equation (7) as an element. The × N-dimensional matrix (viewing state similarity matrix M y ) is output to the similarity mapping information calculation means 16.
This equation (8) is a symmetric matrix, and the values of the diagonal components are all “1”.
ここでは、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12と同様に、全学習被験者数(M人)よりも少ない人数N人(N<M)について、学習用被験者間の類似度を算出することとする。この学習用視聴状態類似度算出手段15が選択するN人は、学習用生体信号類似度算出手段12において、生体信号の類似度を算出した際に選択したN人と対応している。すなわち、学習用視聴状態類似度算出手段15は、学習用生体信号類似度算出手段12において、M人からN人を選択する同じ組み合わせについて、学習用被験者間で視聴状態の類似度を順次算出する。
なお、この学習用視聴状態類似度算出手段15において、あるNについて類似度を算出した場合、そのNに対応する残りの(M−N)人分の学習用解答データ(視聴状態)については、チャンネル選択手段18において、マッピングの精度を検証する際に用いられるが、その説明については後記する。
Here, the learning viewing state similarity calculating means 15 is similar to the learning biosignal similarity calculating means 12 for learning N persons (N <M) less than the total number of learning subjects (M persons). The similarity between subjects will be calculated. The N persons selected by the learning viewing state
When the learning viewing state
なお、ここでは、学習用視聴状態類似度算出手段15は、視聴状態の類似度として、ベクトル間の内積を用いたが、コサイン距離等、他の類似度指標を用いても構わない。
Here, the learning viewing state
類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号の類似度と、学習用視聴状態類似度算出手段15で算出された視聴状態の類似度とを関連付けるものである。ここでは、類似度間マッピング情報算出手段16は、同一の学習用被験者間における生体信号の類似度と視聴状態の類似度との相関が最大となるようなマッピング情報(重み係数)を算出する。
The similarity-to-similarity mapping
すなわち、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12で算出された生体信号類似度行列Mc x(前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列My(前記式(8)参照)とから、以下の式(9)の関係を満たす重みベクトルwc(第1の重みベクトル),vc(第2の重みベクトル)を求める。なお、wc,vcともに、チャンネルcに対応するN次元の縦ベクトルである。
That is, the similarity-to-similarity mapping
ここで、この式(9)が満たされる場合、相関係数が“1”となり、以下の式(10)も満たされることになる。なお、‖・‖は、ベクトルのノルムを表す。 When this equation (9) is satisfied, the correlation coefficient is “1”, and the following equation (10) is also satisfied. Note that ‖ / ‖ represents the norm of the vector.
ここで、分母のノルムをそれぞれ定数、例えば“1”とすれば、式(10)は、以下の式(11)となる。 Here, if the norm of the denominator is a constant, for example, “1”, Expression (10) becomes the following Expression (11).
ここで、Mc xとMyには測定誤差が含まれているため、この式(11)の左辺が“1”となるようなwc,vcを求めることは困難である。
そこで、類似度間マッピング情報算出手段16は、Mc xとMyとの相関が最大となる、式(11)の左辺を最大化するwc(第1の重みベクトル),vc(第2の重みベクトル)を求める。
Here, because it contains a measurement error in M c x and M y, it is difficult to obtain a w c, v c as the left-hand side of this equation (11) becomes "1".
Therefore, the similarity between the mapping information calculating unit 16, a maximum correlation with M c x and M y, w c (first weight vector) that maximizes the left side of the equation (11), v c (No. 2).
ここでは、類似度間マッピング情報算出手段16は、生体信号類似度行列Mc xと学習被験者数の次元の未知の第1重みベクトルwcとの積である第1ベクトルと、視聴状態類似度行列Myと学習被験者数の次元の未知の第2重みベクトルvcとの積である第2ベクトルとの内積が、第1ベクトルおよび第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる第1重みベクトルwcおよび第2重みベクトルvcを、計測チャンネルごとに重み係数として算出する。 Here, the similarity-to-similarity mapping information calculation means 16 uses the first vector that is the product of the biological signal similarity matrix M c x and the unknown first weight vector w c of the number of learning subjects, and the viewing state similarity. inner product of the second vector is the product of the matrix M y an unknown second weight vector v c of the learning sample size dimensions, constraints to predetermined constant norm of the first vector and second vector The first weight vector w c and the second weight vector v c that are maximum at the beginning are calculated as weight coefficients for each measurement channel.
すなわち、類似度間マッピング情報算出手段16は、以下の式(12)を満たすwc,vcを算出する。
That is, the similarity-to-similarity mapping
この式(12)の最大化問題は、ラグランジュの未定定数法を用いて解くことができる。ここで、誤差関数(ラグランジアン)Lは、以下の式(13)で表される。なお、λwとλvは、未定乗数である。 The maximization problem of equation (12) can be solved using Lagrange's undetermined constant method. Here, the error function (Lagrangian) L is expressed by the following equation (13). Note that λ w and λ v are undetermined multipliers.
なお、生体信号や視聴状態のデータに揺らぎ(ノイズ)が多いと、wc,vcのノルムが大きくなる傾向にある。そこで、ここでは、誤差関数Lに、wc,vcのノルムに依存する罰則項を追加した以下の式(14)に示す誤差関数L′とすることで、ノルムが過大にならないようにする。なお、ρwとρvは、データのノイズに対するぜい弱性を制御するためのパラメータであって、データに依存して予め設定しておく(ρw>0、ρv>0)。 Incidentally, when the data fluctuation of the biological signal and the viewing state (noise) is large, there is a tendency that w c, v norm of c increases. Therefore, here, the error function L ′ shown in the following formula (14), in which a penalty term depending on the norms of w c and v c is added to the error function L, is set so that the norm does not become excessive. . Note that ρ w and ρ v are parameters for controlling the vulnerability to data noise, and are preset depending on the data (ρ w > 0, ρ v > 0).
ここで、この式(14)は、L′をwc,vcで微分し、それぞれを“0”とすると、以下の式(15)に示す固定値問題に帰着することになる。なお、IはN×N次元の単位行列を示す。この式(15)の導出については、後で説明を行う。 Here, in this equation (14), when L ′ is differentiated by w c and v c and each is set to “0”, this results in a fixed value problem shown in the following equation (15). I represents an N × N-dimensional unit matrix. The derivation of equation (15) will be described later.
ここで、rw=2ρw/λw、rv=2ρv/λv、λ2=4λwλvである。
なお、ここでは、ρwとρvを予め設定したが、ρwとρvを設定する代わりに、rwとrvを予め設定することとしてもよい(例えば、rw=1、rv=1)。
この式(15)の固有値問題を解くことで、wc、vcおよびλを定めることができる。
ただし、wcおよびvcは固有ベクトルでもあり、通常、固有値λの数だけ複数定まる。そこで、類似度間マッピング情報算出手段16は、固有値を大きい順から予め定めた個数(ここでは、P個)選択し、対応する固有ベクトルwcとvcをPペア定め、Pペアのベクトルから、マッピング情報として、以下の式(16)に示すようなマッピング行列Wc,Vcを生成する。
Here, r w = 2ρ w / λ w, r v = 2ρ v / λ v, is a λ 2 = 4λ w λ v.
Here,, [rho was set w and [rho v advance, [rho instead of setting the w and [rho v, may be possible to preset the r w and r v (e.g., r w = 1, r v = 1).
By solving the eigenvalue problem of equation (15), w c , v c and λ can be determined.
However, w c and v c are also eigenvectors, and usually a plurality of them are determined by the number of eigenvalues λ. Therefore, the similarity-to-similarity mapping
これによって、学習用生体信号類似度算出手段12で算出された生体信号類似度行列Mc x(前記式(5)参照)と、学習用視聴状態類似度算出手段15で算出された視聴状態類似度行列My(前記式(8)参照)との関係が、式(16)のマッピング行列によって、P次元空間を介して、以下の式(17)に示すように関連付けることができる。
As a result, the biological signal similarity matrix M c x (see Equation (5)) calculated by the learning biological signal
この類似度間マッピング情報算出手段16は、すべてのチャンネルcについてマッピング情報(マッピング行列Wc,Vc)を算出し、マッピング情報記憶手段17に書き込み記憶する。
なお、類似度間マッピング情報算出手段16は、学習用生体信号類似度算出手段12および学習用視聴状態類似度算出手段15から、順次、異なる組み合わせのN人の学習用被験者に対応した類似度が入力される。
そこで、類似度間マッピング情報算出手段16は、学習用被験者の組み合わせごとに、マッピング情報(マッピング行列Wc,Vc)をマッピング情報記憶手段17に記憶する。
This inter-similarity mapping information calculation means 16 calculates mapping information (mapping matrices W c , V c ) for all channels c, and writes and stores them in the mapping information storage means 17.
Note that the similarity mapping
Therefore, the similarity-to-similarity mapping information calculation means 16 stores mapping information (mapping matrices W c , V c ) in the mapping information storage means 17 for each combination of learning subjects.
マッピング情報記憶手段17は、類似度間マッピング情報算出手段16で算出されたマッピング情報(マッピング行列)を記憶するものである。このマッピング情報記憶手段17は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
このマッピング情報記憶手段17には、異なる組み合わせの学習用被験者(N人)ごとに算出されたマッピング情報(マッピング行列Wc,Vc)が記憶される。
このマッピング情報記憶手段17に記憶されたマッピング情報(マッピング行列)は、チャンネル選択手段18および視聴状態推定値算出手段22によって参照される。
The mapping
The mapping information storage means 17 stores mapping information (mapping matrices W c , V c ) calculated for different combinations of learning subjects (N persons).
The mapping information (mapping matrix) stored in the mapping
チャンネル選択手段18は、生体信号を計測したチャンネルのうち、設問に対する解答(アンケート結果)と関連性の深いチャンネルを選択するものである。
このチャンネル選択手段18は、類似度間マッピング情報算出手段16でマッピング情報を算出した際に用いたデータ(生体信号、学習用解答データ〔視聴状態〕)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、その精度の高いチャンネルを選択する。
ここでは、チャンネル選択手段18は、類似度算出手段181と、誤差算出手段182と、チャンネル特定手段183と、を備える。
The channel selection means 18 selects a channel closely related to the answer to the question (questionnaire result) from the channels where the biological signal is measured.
This channel selection means 18 uses mapping information from learning subject data different from the data (biological signal, learning answer data [viewing state]) used when the mapping information calculation means 16 calculates the mapping information. Calculate the accuracy of and select the channel with the highest accuracy.
Here, the
類似度算出手段181は、マッピング情報を算出した際に用いた学習用被験者i(2≦i≦N)の生体信号および視聴状態とは異なる学習用被験者j(N+1≦j≦M)の生体信号と視聴状態とについて、学習用被験者間の類似度を算出するものである。
ここで、類似度算出手段181は、チャンネルcごとに、生体信号記憶手段11に記憶されている生体信号を参照して、学習用被験者i(N+1≦i≦M)の生体信号xc iと、学習用被験者j(N+1≦j≦M)の生体信号xc jとの相関係数Mc x,i,jを、前記式(2)により算出する。なお、この類似度は、ベクトルの内積、コサイン距離等、他の類似度指標を用いても構わない。
The similarity calculation means 181 uses the biological signal of the learning subject i (2 ≦ i ≦ N) used when calculating the mapping information and the biological signal of the learning subject j (N + 1 ≦ j ≦ M) different from the viewing state. The degree of similarity between the learning subjects is calculated with respect to the viewing state.
Here, the
そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度(相関係数Mc x,i,j)を要素とする以下の式(18)に示す生体信号類似度行列M′c x(第2生体信号類似度行列)を算出する。 Then, the similarity calculation means 181 is similar to the biological signal shown in the following formula (18) having the similarity (correlation coefficient M c x, i, j ) between (MN) learning subjects. A degree matrix M ′ c x (second biological signal similarity matrix) is calculated.
また、類似度算出手段181は、視聴状態記憶手段14に記憶されている視聴状態を参照して、学習用被験者i(N+1≦i≦M)の視聴状態yiと、学習用被験者j(N+1≦j≦M)の視聴状態yjとの類似度My,i,jを、前記式(7)により算出する。なお、この類似度は、コサイン距離等、他の類似度指標を用いても構わない。
Further, the
そして、類似度算出手段181は、(M−N)人の学習用被験者間の類似度My,i,jを要素とする以下の式(19)に示す視聴状態類似度行列M′y(第2視聴状態類似度行列)を算出する。 Then, the similarity calculation means 181 includes a viewing state similarity matrix M ′ y (Equation 19) having the similarity M y, i, j between (MN) learning subjects as an element. (Second viewing state similarity matrix) is calculated.
この類似度算出手段181は、前記式(18)で算出した生体信号類似度行列M′c xと、前記式(19)で算出した視聴状態類似度行列M′yとを、誤差算出手段182に出力する。
なお、類似度算出手段181は、類似度を算出する際に、N人の学習用被験者と残りの(M−N)人の学習用被験者との間で生体信号の類似度および視聴状態の類似度を算出することとする。なお、M人からN人を選択する組み合わせは一般には多数存在する。そこで、類似度算出手段181および後記する誤差算出手段182は、十分な数の組み合わせ(例えば、100種類)のもとで、繰り返し計算を行う。
The similarity calculation means 181 uses the biometric signal similarity matrix M ′ c x calculated by the expression (18) and the viewing state similarity matrix M ′ y calculated by the expression (19) as an error calculation means 182. Output to.
The similarity calculation means 181 calculates the similarity between the biological signals and the viewing state similarity between the N learning subjects and the remaining (MN) learning subjects when calculating the similarity. The degree will be calculated. In general, there are many combinations for selecting N people from M people. Therefore, the
誤差算出手段182は、類似度算出手段181で算出された生体信号の類似度(生体信号類似度行列M′c x)と、視聴状態の類似度(視聴状態類似度行列M′y)とに、マッピング情報記憶手段17に記憶されているマッピング情報(重み係数)を適用して、予測誤差を算出するものである。
ここでは、誤差算出手段182は、学習用生体信号類似度算出手段12や学習用視聴状態類似度算出手段15で類似度を算出した学習用被験者の組み合わせに対応してマッピング情報記憶手段17に記憶されているマッピング行列Wc,Vc(前記式(16)参照)を用いて、チャンネルcごとに、以下の式(20)により、予測誤差Eを算出する。
The
Here, the
この誤差算出手段182は、予測誤差Eと、予測誤差Eを算出した際のチャンネルcとを、チャンネル特定手段183に出力する。なお、学習用被験者の組み合わせが複数ある場合、誤差算出手段182は、それぞれの組み合わせに対する予測誤差Eを計算し、その平均を改めて予測誤差Eとする。
The
チャンネル特定手段183は、誤差算出手段182に算出された予測誤差に基づいて、チャンネルを特定するものである。
ここでは、チャンネル特定手段183は、予測誤差が、予め定めた閾値(例えば、“0.1”)を下回る、すなわち、誤差の小さいチャンネルを、視聴状態を推定するために適したチャンネルであると特定する。なお、チャンネル特定手段183は、誤差の最も小さいチャンネルを1つ選択することとしてもよいし、予め定めた閾値を下回る複数のチャンネルを選択することとしてもよい。
The
Here, the channel specifying means 183 is a channel suitable for estimating the viewing state of a channel whose prediction error is lower than a predetermined threshold value (for example, “0.1”), that is, a small error. Identify. Note that the channel specifying means 183 may select one channel with the smallest error, or may select a plurality of channels below a predetermined threshold.
このチャンネル特定手段183は、特定したチャンネル(選択チャンネルC)を、生体信号抽出手段20、選択生体信号類似度算出手段21および視聴状態推定値算出手段22に出力(通知)する。
このように、チャンネル選択手段18は、種々のマッピング情報を検証し、精度が高いマッピング情報に対応するチャンネルを選択する。
これによって、視聴状態推定装置1は、機械学習により、視聴状態を推定するために適したチャンネル(生体信号)を推定することができる。
The
Thus, the channel selection means 18 verifies various mapping information and selects a channel corresponding to mapping information with high accuracy.
Thus, the viewing state estimation apparatus 1 can estimate a channel (biological signal) suitable for estimating the viewing state by machine learning.
生体信号抽出手段20は、視聴状態を推定する対象被験者を対象として、外部に接続された生体信号計測装置(不図示)から入力される計測チャンネルごとの生体信号から、チャンネル選択手段18で選択されたチャンネルの生体信号を抽出するものである。
なお、生体信号抽出手段20は、選択されたチャンネルの生体信号を抽出すること以外、生体信号入力手段10と同様の機能を有する。すなわち、生体信号入力手段10は、選択されたチャンネルの生体信号を、時系列信号として数値化する。
この生体信号抽出手段20は、選択されたチャンネル(選択チャンネルC)に対応付けた時系列の生体信号を、選択生体信号類似度算出手段21に出力する。
The biological signal extraction means 20 is selected by the channel selection means 18 from biological signals for each measurement channel input from an externally connected biological signal measuring device (not shown) for the subject subject whose viewing state is to be estimated. The biological signal of the selected channel is extracted.
The biological
The biological
選択生体信号類似度算出手段21は、生体信号抽出手段20で抽出された対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者の選択チャンネルにおける生体信号との類似度を算出するものである。
ここで、選択チャンネルの識別子をCとしたとき、生体信号抽出手段20で抽出された対象被験者の選択チャンネルCにおける時系列の生体信号xC newは、以下の式(21)のベクトルで表すことができる。
The selected biological signal
Here, when the identifier of the selected channel is C, the time-series biological signal x C new in the selected channel C of the subject subject extracted by the biological
この式(21)において、xC new,1は、コンテンツ視聴中、最初に計測された生体信号で、xC new,Tまで、順次、時系列に計測された生体信号を示す。
そして、選択生体信号類似度算出手段21は、チャンネル選択手段18で選択された選択チャンネルCにおける対象被験者の生体信号xC newと、前記式(1)で示される全学習用被験者の生体信号xC i(i=1〜M)との類似度(選択生体信号類似度)を算出する。
ここでは、選択生体信号類似度算出手段21は、以下の式(22)に示すように、学習用被験者i(i=1〜M)ごとに、類似度として相関係数sxiを算出する。
In this equation (21), x C new, 1 is a biological signal first measured during content viewing, and indicates a biological signal measured sequentially in time series up to x C new, T.
Then, the selected biological signal
Here, the selected biological signal
ここで、x ̄C newは前記式(21)のベクトルxC newの全要素の平均値を各要素に持つベクトルであって、具体的には、以下の式(23)および式(24)で表されるベクトルである(x ̄C jも同様)。なお、式(23)中、Tは、前記式(21)に示したベクトルxC newの要素数を示す。また、式(24)は、すべての要素が“1”となるT次元のベクトルである。 Here, X - C new new is a vector with the mean value of all elements of the vector x C new new of the formula (21) to each element, specifically, the following equation (23) and (24) (X ̄ C j is also the same). In Expression (23), T represents the number of elements of the vector x C new shown in Expression (21). Expression (24) is a T-dimensional vector in which all elements are “1”.
この選択生体信号類似度算出手段21は、チャンネル選択手段18で選択チャンネルCを選択した場合、前記式(22)の相関係数sxiをi番目の要素とするM次元のベクトル(類似度ベクトル)sxを、視聴状態推定値算出手段22に出力する。なお、チャンネル選択手段18において、複数のチャンネルが選択された場合、選択生体信号類似度算出手段21は、その選択チャンネルごとに、類似度ベクトルsxを算出し、視聴状態推定値算出手段22に出力する。
When the selected channel C is selected by the
視聴状態推定値算出手段22は、対象被験者の未知数の学習用解答データ(視聴状態)と、視聴状態記憶手段14に記憶されている学習用被験者の学習用解答データ(視聴状態)との類似度と、選択生体信号類似度算出手段21で算出された生体信号の類似度との相関が最大となる未知数の学習用解答データを視聴状態推定値として算出するものである。
この視聴状態推定値は、学習用被験者に対して行ったアンケートに対して、対象被験者が解答するであろうと推定されるアンケート結果を数値化したデータである。
The viewing state estimated value calculation means 22 is a degree of similarity between the unknown learning answer data (viewing state) of the target subject and the learning answer data (viewing state) of the learning subject stored in the viewing state storage means 14. And the unknown number of learning answer data having the maximum correlation with the similarity of the biological signal calculated by the selected biological signal
The viewing state estimation value is data obtained by quantifying the questionnaire result estimated that the target subject will answer the questionnaire conducted on the learning subject.
具体的には、視聴状態推定値算出手段22は、以下のように視聴状態推定値を算出する。
ここで、設問数がNqである対象被験者の未知のアンケート結果(設問の解答に対応する正誤、あるいは、評価レベルを数値化したデータ)を以下の式(25)に示すようにNq次元のベクトル(視聴状態ベクトルynew)とする。
Specifically, the viewing state estimated value calculation means 22 calculates the viewing state estimated value as follows.
Here, an unknown questionnaire result (correctness corresponding to the answer to the question or data obtained by quantifying the evaluation level) of the subject subject whose number of questions is N q is expressed as N q dimension as shown in the following formula (25). (Viewing state vector y new ).
このとき、視聴状態ベクトルynewと、視聴状態記憶手段14に記憶されているすべての学習用被験者の視聴状態ベクトルyi(i=1〜M)(前記式(6)参照)との類似度は、以下の式(26)に示す類似度ベクトルsyとして表すことができる。 At this time, the similarity between the viewing state vector y new and the viewing state vectors y i (i = 1 to M) of all the learning subjects stored in the viewing state storage unit 14 (see the above equation (6)). Can be expressed as a similarity vector s y shown in the following equation (26).
なお、マッピング情報記憶手段17には、生体信号と視聴状態とがマッピング行列Wc,Vc(式(16)参照)によって関連付けられている。すなわち、選択生体信号類似度算出手段21で算出された生体信号の類似度ベクトルsxと、この式(26)の視聴状態の類似度ベクトルsyとは、以下の式(27)に示す関係を有する。なお、Cは、チャンネル選択手段18で選択されたチャンネルを示す。
Note that the biological information and the viewing state are associated with the mapping
そこで、視聴状態推定値算出手段22は、この式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
すなわち、視聴状態推定値算出手段22は、視聴状態ベクトルynewのうちで、以下の式(28)を満たす視聴状態ベクトルを、視聴状態推定値y^newとして算出する。
Therefore, the viewing state estimated value calculation means 22 calculates the viewing state vector y new that satisfies the equation (27) as the viewing state estimated value y ^ new .
That is, the viewing state estimated value calculation means 22 calculates a viewing state vector satisfying the following equation (28) among the viewing state vectors y new as the viewing state estimated value y ^ new .
なお、この式(28)の解法は種々存在するが、例えば、視聴状態推定値算出手段22は、ynewのすべての値の組み合わせに対して、前記式(26)により類似度ベクトルsyを生成し、式(28)の右辺のノルムの二乗(‖sx tWC−sy tVC‖2)が最小となるynewを視聴状態推定値y^newとすればよい。
なお、アンケート項目によって、すべての値の組み合わせを挙げることが困難な場合もある。そこで、視聴状態推定値算出手段22は、前記式(28)を最小二乗法で解いた以下の式(29)を用いて視聴状態推定値y^newを算出してもよい。
There are various methods for solving the equation (28). For example, the viewing state estimation
Depending on the questionnaire items, it may be difficult to list all combinations of values. Therefore, the viewing state estimated value calculation means 22 may calculate the viewing state estimated value ^ new using the following equation (29) obtained by solving the equation (28) by the least square method.
この式(29)において、行列Yは、i列目が学習用被験者iの視聴状態ベクトルyi(前記式(6)参照)となる行列を示す。また、行列YVCVCtYtは、YVCの一般化逆行列を示す。なお、この式(29)の導出については、後で説明を行う。 In this equation (29), the matrix Y indicates a matrix in which the i-th column is the viewing state vector y i of the learning subject i (see the above equation (6)). The matrix YV C V Ct Y t indicates a generalized inverse matrix of YV C. The derivation of this equation (29) will be described later.
このように、視聴状態推定値算出手段22は、式(28)を満たす視聴状態推定値y^newを、対象被験者の視聴状態として外部に出力する。
なお、チャンネル選択手段18において、複数のチャンネルが選択され、複数の視聴状態推定値y^newが算出された場合、視聴状態推定値算出手段22は、それぞれの視聴状態推定値y^newの要素ごとに、平均値を算出することとする。
In this way, the viewing state estimated value calculation means 22 outputs the viewing state estimated value y ^ new satisfying the equation (28) to the outside as the viewing state of the target subject.
When a plurality of channels are selected by the
このとき、設問に対する解答に正誤の値(例えば、正解“1”,不正解“0”)が対応付けられている場合、視聴状態推定値算出手段22は、平均値を、対象被験者の理解の度合いとして推定する。これによって、より“1”に近ければ、当該設問に対して、対象被験者がより理解していると推定することができる。
なお、設問に対する解答に正誤の値が対応付けられている場合、視聴状態推定値算出手段22は、複数の視聴状態推定値y^newの要素ごとに最も多い結果を、当該設問に対する解答として推定することとしてもよい。
At this time, when correct / incorrect values (for example, correct answer “1”, incorrect answer “0”) are associated with the answer to the question, the viewing state estimated value calculation means 22 determines the average value of the target subject's understanding. Estimate as a degree. Thereby, if it is closer to “1”, it can be estimated that the subject subject understands the question more.
When correct / incorrect values are associated with the answer to the question, the viewing state estimated value calculation means 22 estimates the most frequent result for each element of the plurality of viewing state estimated values y ^ new as the answer to the question. It is good to do.
以上説明したように、視聴状態推定装置1を構成することで、視聴状態推定装置1は、複数の学習用被験者間の生体信号の類似度と、複数の学習用被験者間の視聴状態(アンケートの解答パターン)の類似度との間をマッピング情報によって関連付けることで、新たな対象被験者の生体信号から、未知の視聴状態を推定することができる。
なお、視聴状態推定装置1は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(視聴状態推定プログラム)で動作させることができる。
As described above, by configuring the viewing state estimation device 1, the viewing state estimation device 1 allows the similarity of the biological signal between the plurality of learning subjects and the viewing state (questionnaire of the questionnaire) between the plurality of learning subjects. By associating the similarity of the answer pattern) with the mapping information, the unknown viewing state can be estimated from the biological signal of the new target subject.
Note that the viewing state estimation apparatus 1 can operate the computer with a program (viewing state estimation program) for causing the computer to function as each unit configured as described above.
(式(15)の導出について)
類似度間マッピング情報算出手段16において、前記式(14)から、固有値問題となる前記式(15)を導出する手順について説明する。
まず、前記式(14)のL′を、以下の式(30)に示すようにwcで微分し、“0”とおく。
(Derivation of equation (15))
A procedure for deriving the equation (15), which is an eigenvalue problem, from the equation (14) in the similarity mapping
First, L ′ in the equation (14) is differentiated by w c as shown in the following equation (30) and set to “0”.
ここで、Mx cは対称行列であるため、Mx c=Mx ctの関係がある。従って、この式(30)は、以下の式(31)に変形することができる。 Here, since M x c is a symmetric matrix, there is a relationship of M x c = M x ct . Therefore, this equation (30) can be transformed into the following equation (31).
ここで、IはN×N次元の単位行列を示す。
同様に、前記式(14)のL′を、以下の式(32)に示すようにvcで微分し、“0”とおく。
Here, I represents an N × N-dimensional unit matrix.
Similarly, the L 'in the formula (14), differentiated by v c as shown in the following equation (32), put "0".
ここで、Myは対称行列であるため、My=My tの関係がある。従って、この式(32)は、以下の式(33)に変形することができる。 Since M y is a symmetric matrix, a relationship of M y = M y t. Therefore, this equation (32) can be transformed into the following equation (33).
さらに、この式(33)は、以下の式(34)に変形することができる。 Further, the equation (33) can be transformed into the following equation (34).
このvcを、前記式(31)に代入すると、以下の式(35)となる。
The v c, are substituted into the equation (31) by the following expression (35).
ここで、rw=ρw/λw、rv=ρv/λv、4λwλv=λ2とおくと(すなわち、rw=2ρw/λ、rv=2ρv/λ)、前記式(34)および式(35)から、前記式(15)を導出することができる。 Here, if r w = ρ w / λ w , r v = ρ v / λ v , 4λ w λ v = λ 2 (that is, r w = 2ρ w / λ, r v = 2ρ v / λ). The equation (15) can be derived from the equations (34) and (35).
(式(29)の導出について)
視聴状態推定値算出手段22において、視聴状態推定値y^newを算出するための前記式(29)の導出について以下説明する。
前記式(28)は、以下の式(36)に示すように変形することができる。
(Derivation of Equation (29))
Derivation of the expression (29) for calculating the viewing state estimated value ^ new in the viewing state estimated value calculating means 22 will be described below.
The equation (28) can be modified as shown in the following equation (36).
ここで、式(36)の右辺のノルムの二乗を、以下の式(37)に示すようにynewで微分し、“0”とおく。 Here, the square of the norm on the right side of the equation (36) is differentiated by y new as shown in the following equation (37), and set to “0”.
そして、この式(37)を以下の式(38)〜式(41)に示すように変形することで、前記式(29)を導出することができる。 Then, the equation (29) can be derived by modifying the equation (37) as shown in the following equations (38) to (41).
〔視聴状態推定装置の動作〕
次に、図3および図4を参照して、本発明の実施形態に係る視聴状態推定装置1の動作について説明する。ここでは、図3で視聴状態推定装置1の学習段階の動作、図4で推定段階の動作について説明する。
[Operation of viewing state estimation device]
Next, with reference to FIG. 3 and FIG. 4, operation | movement of the viewing-and-listening state estimation apparatus 1 which concerns on embodiment of this invention is demonstrated. Here, the learning stage operation of the viewing state estimation apparatus 1 will be described with reference to FIG. 3, and the estimation stage operation will be described with reference to FIG.
(学習段階の動作)
まず、図3を参照(構成については、適宜図2参照)して、視聴状態推定装置1の学習段階の動作について説明する。
視聴状態推定装置1は、生体信号入力手段10によって、外部に接続された生体信号計測装置(不図示)を介して、生体信号を計測するチャンネルごとに、コンテンツ視聴中の学習用被験者から生体信号(学習用生体信号)を入力する(ステップS1)。
(Learning stage operation)
First, the learning stage operation of the viewing state estimation apparatus 1 will be described with reference to FIG.
The viewing state estimation device 1 receives a biological signal from a learning subject who is viewing content for each channel for measuring a biological signal by means of a biological signal input means 10 via a biological signal measuring device (not shown) connected to the outside. (Biological signal for learning) is input (step S1).
そして、視聴状態推定装置1は、生体信号入力手段10によって、ステップS1で入力した学習用生体信号を、時系列信号として、学習用被験者とチャンネルとに対応付けて生体信号記憶手段11に書き込み記憶する(ステップS2)。 Then, the viewing state estimation device 1 writes and stores the learning biological signal input in step S1 by the biological signal input means 10 in the biological signal storage means 11 as a time series signal in association with the learning subject and the channel. (Step S2).
また、視聴状態推定装置1は、視聴状態入力手段13によって、コンテンツ視聴中に生体信号を計測された複数の学習用被験者が、当該コンテンツに対する視聴状態を尋ねる設問(アンケート)に対して解答した結果である学習用解答データ(視聴状態)を入力する(ステップS3)。
In addition, the viewing state estimation device 1 is a result of a plurality of learning subjects whose biological signals are measured during content viewing by the viewing
そして、視聴状態推定装置1は、視聴状態入力手段13によって、ステップS3で入力した学習用解答データを、数値化した解答パターンとして、学習用被験者に対応付けて視聴状態記憶手段14に書き込み記憶する(ステップS4)。
Then, the viewing state estimation device 1 writes and stores the learning answer data input in step S3 by the viewing
そして、視聴状態推定装置1は、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力していなければ(ステップS5でNo)、ステップS1に戻って、動作を繰り返す。 Then, the viewing state estimation device 1 returns to step S1 if the learning biosignal and the learning answer data are not input by the predetermined number of learning subjects (M) (No in step S5). Repeat the operation.
一方、予め定めた学習用被験者の数(M人)だけ、学習用生体信号および学習用解答データを入力した場合(ステップS5でYes)、視聴状態推定装置1は、学習用生体信号類似度算出手段12によって、ステップS2で記憶された複数の学習用被験者の生体信号について、チャンネルごとに学習用被験者間の生体信号の類似度(生体信号類似度行列Mc x〔前記式(5)参照〕)を算出する(ステップS6)。
ここでは、学習用生体信号類似度算出手段12は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で生体信号の類似度(N×N次元の生体信号類似度行列)を算出する。
On the other hand, when the learning biosignal and the learning answer data are input by the predetermined number of learning subjects (M) (Yes in step S5), the viewing state estimation device 1 calculates the biometric similarity for learning. For the biological signals of the plurality of learning subjects stored in step S2 by means 12, the similarity of the biological signals between the learning subjects for each channel (biological signal similarity matrix M c x [see Equation (5) above)] ) Is calculated (step S6).
Here, the biometric signal similarity calculation means 12 for learning uses a combination of N persons sequentially for N persons (N <M), which is smaller than the total number of learning persons (M), and learners with different combinations. A biosignal similarity (N × N-dimensional biosignal similarity matrix) is calculated.
また、視聴状態推定装置1は、学習用視聴状態類似度算出手段15によって、ステップS4で記憶された複数の学習用被験者の学習用解答データ(視聴状態)について、学習用被験者間の視聴状態の類似度(視聴状態類似度行列My〔前記式(5)参照〕))を算出する(ステップS7)。
ここでは、学習用視聴状態類似度算出手段15は、全学習被験者数(M人)よりも少ない人数N人(N<M)について、N人の組み合わせを順次変えて、異なる組み合わせの学習用被験者間で学習用解答データ(視聴状態)の類似度(N×N次元の視聴状態類似度行列)を算出する。
In addition, the viewing state estimation device 1 uses the learning viewing state
Here, the learning viewing state similarity calculating means 15 changes the combination of N persons sequentially for N persons (N <M), which is smaller than the total number of learning persons (M persons), and learners with different combinations. The similarity (N × N-dimensional viewing state similarity matrix) of the answer data for learning (viewing state) is calculated.
そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS6で算出された類似度(生体信号類似度行列)と、ステップS7で算出された類似度(視聴状態類似度行列)とを関連付けるマッピング情報(重み係数)を算出する(ステップS8)。
Then, the viewing state estimation device 1 uses the similarity mapping
ここでは、類似度間マッピング情報算出手段16は、チャンネルおよび学習被験者の組み合わせごとに、N×N次元の生体信号類似度行列Mc xおよびN次元の重みベクトルwcの積のベクトルと、視聴状態類似度行列Myおよび次元数の同じ重みベクトルvcの積のベクトルとの内積が、それぞれのベクトルのノルムが“1”という制約条件のもとで最大化するように、複数(P個)の重みベクトルのペア(Wc,Vc)を算出する。 Here, the similarity-to-similarity mapping information calculation means 16 calculates the product vector of the N × N-dimensional biological signal similarity matrix M c x and the N-dimensional weight vector w c for each combination of channel and learning subject, and viewing. as the inner product of the vector product of the state similarity matrix M y and the number of dimensions of the same weight vector v c is the norm of each vector is maximized under the constraint that "1", a plurality (P number ) Weight vector pair (W c , V c ) is calculated.
そして、視聴状態推定装置1は、類似度間マッピング情報算出手段16によって、ステップS8で算出した複数の重みベクトルからなるマッピング行列をマッピング情報記憶手段17に書き込み記憶する(ステップS9)。
Then, the viewing state estimation device 1 writes the mapping matrix composed of the plurality of weight vectors calculated in step S8 in the mapping
そして、視聴状態推定装置1は、チャンネル選択手段18によって、ステップS8でマッピング情報を算出した際に用いたデータ(生体信号、視聴状態)とは異なる学習被験者のデータから、マッピング情報の精度を計算し、精度の高いチャンネルを選択する(ステップS10)。
Then, the viewing state estimation apparatus 1 calculates the accuracy of the mapping information from the data of the learning subject different from the data (biological signal, viewing state) used when the mapping information is calculated in step S8 by the
ここでは、チャンネル選択手段18は、類似度算出手段181によって、ステップS6およびステップS7でのマッピング情報算出に用いた学習被験者組み合わせ(N人)と、それ以外の学習被験者(〔M−N〕人)との間で、生体信号の類似度(生体信号類似度行列M′c x〔前記式(18)参照〕)と、視聴状態の類似度(視聴状態類似度行列M′y〔前記式(19)参照〕)とを、チャンネルごとに算出する。 Here, the channel selection means 18 uses the similarity calculation means 181 to learn learning subject combinations (N people) used for the mapping information calculation in step S6 and step S7, and other learning subjects ([MN] people). ) Between the biological signal (biological signal similarity matrix M ′ c x [refer to the above equation (18)]) and the viewing state similarity (viewing state similarity matrix M ′ y [the above equation ( 19)]]) is calculated for each channel.
そして、チャンネル選択手段18は、誤差算出手段182によって、学習被験者(N+1〜M)について算出したチャンネルごとの生体信号類似度行列M′c xおよびステップS8で算出されたマッピング行列Wcとの積と、視聴状態類似度行列M′yおよびステップS8で算出されたマッピング行列Vcとの積との誤差を算出する(前記式(20)参照)。 Then, the channel selection means 18 is the product of the biological signal similarity matrix M ′ c x for each channel calculated for the learning subject (N + 1 to M) by the error calculation means 182 and the mapping matrix W c calculated in step S8. And the product of the viewing state similarity matrix M ′ y and the mapping matrix V c calculated in step S8 is calculated (see the above equation (20)).
そして、チャンネル選択手段18は、チャンネル特定手段183によって、誤差算出手段182で算出された誤差が、予め定めた閾値を下回るチャンネルを選択する。
これによって、視聴状態推定装置1は、対象被験者の視聴状態を示す解答データ(視聴状態推定値)を推定するために適したチャンネルを選択することができる。
Then, the
Thereby, the viewing state estimation apparatus 1 can select a channel suitable for estimating the answer data (viewing state estimation value) indicating the viewing state of the subject subject.
(推定段階の動作)
次に、図4を参照(構成については、適宜図2参照)して、視聴状態推定装置1の推定段階の動作について説明する。
視聴状態推定装置1は、生体信号抽出手段20によって、外部に接続された生体信号計測装置(不図示)を介して入力される対象被験者の生体信号から、図3で説明した学習段階で選択されたチャンネルの生体信号を抽出する(ステップS20)。
(Estimation stage operation)
Next, referring to FIG. 4 (refer to FIG. 2 as appropriate for the configuration), the operation in the estimation stage of the viewing state estimation apparatus 1 will be described.
The viewing state estimation device 1 is selected by the biological signal extraction means 20 from the biological signal of the target subject input via a biological signal measuring device (not shown) connected to the outside at the learning stage described in FIG. The biological signal of the selected channel is extracted (step S20).
そして、視聴状態推定装置1は、選択生体信号類似度算出手段21によって、ステップS20で抽出した対象被験者の選択チャンネルにおける生体信号と、生体信号記憶手段11に記憶されている学習用被験者(1〜M)の選択チャンネルにおける生体信号との類似度(相関係数sxi〔前記式(22)参照〕をi番目の要素とする類似度ベクトルsx)を算出する(ステップS21)。
Then, the viewing state estimation apparatus 1 uses the selected biological signal
そして、視聴状態推定装置1は、視聴状態推定値算出手段22によって、学習用被験者間の生体信号の類似度と視聴状態の類似度とのマッピング情報(重み係数)に基づいて、ステップS21で算出された対象被験者と学習用被験者間の生体信号の類似度から、対象被験者の視聴状態(視聴状態推定値)を算出する(ステップS22)。 Then, the viewing state estimation apparatus 1 is calculated in step S21 by the viewing state estimated value calculation means 22 based on mapping information (weighting factor) between the similarity of the biological signal between the learning subjects and the similarity of the viewing state. The viewing state (viewing state estimation value) of the target subject is calculated from the similarity of the biological signal between the target subject and the learning subject (step S22).
ここでは、視聴状態推定値算出手段22は、対象被験者の未知のアンケート結果を視聴状態ベクトルynewとし、視聴状態記憶手段14に記憶されている学習用被験者の視聴状態ベクトルyi(i=1〜M)との類似度ベクトルsyを前記式(26)とする。
そして、視聴状態推定値算出手段22は、選択チャンネルCに対応してマッピング情報記憶手段17に記憶されているマッピング行列から、前記式(27)を満たす視聴状態ベクトルynewを視聴状態推定値y^newとして算出する。
これによって、視聴状態推定装置1は、視聴状態を推定するために適したチャンネルの生体信号から、対象被験者の視聴状態を推定することができる。
Here, the viewing state estimated value calculation means 22 uses the unknown questionnaire result of the subject subject as the viewing state vector y new, and the learning subject viewing state vector y i (i = 1) stored in the viewing state storage means 14. formula similarity vector s y with ~M) and (26).
Then, the viewing state estimated
Thereby, the viewing state estimation apparatus 1 can estimate the viewing state of the subject subject from the biological signal of the channel suitable for estimating the viewing state.
以上説明したように、視聴状態推定装置1は、複数の学習用被験者間の生体信号(時系列データ)の類似度と、複数の学習用被験者間の視聴状態(学習用解答データ)の類似度とを関連付けるマッピング情報を推定することで、新たに対象被験者の生体信号(時系列データ)から、対応する未知の解答データ(視聴状態)を推定することができる。 As described above, the viewing state estimation device 1 uses the similarity of the biological signal (time-series data) between the plurality of learning subjects and the similarity of the viewing state (learning answer data) between the plurality of learning subjects. Thus, the corresponding unknown answer data (viewing state) can be newly estimated from the biological signal (time-series data) of the subject subject.
このように、視聴状態推定装置1は、従来のようにコンテンツ視聴中に発生する特定の生体反応と視聴状態とを関連付けるのではなく、学習用被験者間の生体信号(時系列データ)の類似度と視聴状態の類似度との関連性から、対象被験者の視聴状態を推定することができるため、任意のコンテンツに対して視聴状態を推定することができる。
また、視聴状態推定装置1を用いることで、コンテンツ制作者は、コンテンツが視聴者に与える影響を客観的に把握し、コンテンツによる効果を定量的に評価することが可能になる。
In this way, the viewing state estimation device 1 does not associate a specific biological reaction that occurs during content viewing with the viewing state as in the past, but the similarity of the biological signal (time-series data) between the learning subjects. Since the viewing state of the target subject can be estimated from the relevance between the similarity of the viewing state and the viewing state, the viewing state can be estimated for any content.
Also, by using the viewing state estimation device 1, the content creator can objectively grasp the influence of the content on the viewer and quantitatively evaluate the effect of the content.
1 視聴状態推定装置
10 生体信号入力手段
11 生体信号記憶手段
12 学習用生体信号類似度算出手段
13 視聴状態入力手段
14 視聴状態記憶手段
15 学習用視聴状態類似度算出手段
16 類似度マッピング情報算出手段
17 マッピング情報記憶手段
18 チャンネル選択手段
181 類似度算出手段
182 誤差算出手段
183 チャンネル特定手段
20 生体信号抽出手段
21 選択生体信号類似度算出手段
22 視聴状態推定値算出手段
DESCRIPTION OF SYMBOLS 1 Viewing
Claims (5)
前記生体信号の計測部位である計測チャンネルごとに入力された複数の学習用被験者の生体信号について、学習用被験者間の類似度である生体信号類似度を算出する学習用生体信号類似度算出手段と、
前記学習用解答データについて、前記学習用被験者間の類似度である視聴状態類似度を算出する学習用視聴状態類似度算出手段と、
前記計測チャンネルごとに、予め定めた人数の学習用被験者間の前記生体信号類似度と前記視聴状態類似度との相関が最大となる重み係数をマッピング情報として算出する類似度間マッピング情報算出手段と、
前記マッピング情報の算出対象となった学習用被験者とは異なる複数の他の学習用被験者間の生体信号類似度および視聴状態類似度について、前記マッピング情報を用いたときの相関の誤差が予め定めた閾値を下回る計測チャンネルを選択チャンネルとして選択するチャンネル選択手段と、
前記対象被験者について、前記計測チャンネルごとの生体信号から、前記選択チャンネルの生体信号を抽出する生体信号抽出手段と、
この生体信号抽出手段で抽出された前記対象被験者の生体信号と、前記複数の学習用被験者の生体信号との類似度を算出する選択生体信号類似度算出手段と、
前記対象被験者の未知数の学習用解答データと前記複数の学習用被験者の学習用解答データとの類似度と、前記選択生体信号類似度算出手段で算出された生体信号の類似度とについて、前記選択チャンネルに対応した前記マッピング情報を用いたときの相関が最大となる前記未知数の学習用解答データを視聴状態推定値として算出する視聴状態推定値算出手段と、
を備えることを特徴とする視聴状態推定装置。 Based on the biological signals of a plurality of learning subjects who are viewing the content and the learning answer data which is a result of the learning subject answering the question asking the viewing state of the content A viewing state estimation device that estimates a viewing state of the target subject from a biological signal of the subject,
Learning biosignal similarity calculating means for calculating biosignal similarity, which is a similarity between learning subjects, with respect to biosignals of a plurality of learning subjects input for each measurement channel that is a measurement site of the biosignal. ,
With respect to the learning answer data, learning viewing state similarity calculating means for calculating a viewing state similarity that is a similarity between the learning subjects;
A similarity-to-similarity mapping information calculation unit that calculates, as mapping information, a weighting coefficient that maximizes the correlation between the biological signal similarity between the predetermined number of learning subjects and the viewing state similarity for each measurement channel; ,
The correlation error when using the mapping information is determined in advance for biosignal similarity and viewing state similarity between a plurality of other learning subjects different from the learning subject for which the mapping information is calculated. Channel selection means for selecting a measurement channel below a threshold as a selection channel;
For the subject subject, a biological signal extraction means for extracting a biological signal of the selected channel from a biological signal for each measurement channel;
A selected biological signal similarity calculating means for calculating a similarity between the biological signal of the target subject extracted by the biological signal extracting means and the biological signals of the plurality of learning subjects;
The selection of the similarity between the unknown learning answer data of the target subject and the learning answer data of the plurality of learning subjects, and the similarity of the biological signal calculated by the selected biological signal similarity calculating means Viewing state estimation value calculating means for calculating, as a viewing state estimation value, the unknown number of learning answer data having a maximum correlation when using the mapping information corresponding to a channel;
A viewing state estimation apparatus comprising:
前記学習被験者間の生体信号の類似度を行列の要素とする生体信号類似度行列と学習被験者数の次元の未知の第1重みベクトルとの積である第1ベクトルと、前記学習被験者間の学習用解答データの類似度を行列の要素とする視聴状態類似度行列と学習被験者数の次元の未知の第2重みベクトルとの積である第2ベクトルとの内積が、前記第1ベクトルおよび前記第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる前記第1重みベクトルおよび前記第2重みベクトルを、前記計測チャンネルごとに前記重み係数として算出することを特徴とする請求項1に記載の視聴状態推定装置。 The similarity mapping information calculation means includes:
A first vector that is a product of a biosignal similarity matrix having biosignal similarity between learning subjects as a matrix element and an unknown first weight vector of the number of learning subjects, and learning between the learning subjects The inner product of the second state vector, which is the product of the viewing state similarity matrix having the similarity of the answer data for the matrix as an element of the matrix and the unknown second weight vector of the number of learning subjects, is the first vector and the first The first weight vector and the second weight vector, which are maximized under a constraint condition in which a norm of two vectors is a predetermined constant, are calculated as the weight coefficients for each measurement channel. The viewing state estimation apparatus according to Item 1.
前記複数の他の学習用被験者の生体信号と当該学習用被験者の学習用解答データについて、前記計測チャンネルごとに、前記複数の他の学習用被験者間の生体信号の類似度を行列の要素とする第2生体信号類似度行列と、前記複数の他の学習被験者間の学習用解答データの類似度を行列の要素とする第2視聴状態類似度行列とを算出する類似度算出手段と、
前記計測チャンネルごとに、前記第2生体信号類似度行列と前記第1重みベクトルとの積と、前記第2視聴状態類似度行列と前記第2重みベクトルとの積との誤差を算出する誤差算出手段と、
この誤差算出手段で算出された誤差が予め定めた閾値を下回る計測チャンネルを前記選択チャンネルとして特定するチャンネル特定手段と、
を備えることを特徴とする請求項2に記載の視聴状態推定装置。 The channel selection means includes
With respect to the biological signals of the plurality of other learning subjects and the answer data for learning of the learning subjects, the similarity between the plurality of other learning subjects is used as a matrix element for each measurement channel. Similarity calculating means for calculating a second biological signal similarity matrix and a second viewing state similarity matrix having the similarity of the answer data for learning among the plurality of other learning subjects as elements of the matrix;
Error calculation for calculating an error between the product of the second biological signal similarity matrix and the first weight vector and the product of the second viewing state similarity matrix and the second weight vector for each measurement channel. Means,
Channel specifying means for specifying, as the selected channel, a measurement channel in which the error calculated by the error calculating means falls below a predetermined threshold;
The viewing state estimation apparatus according to claim 2, further comprising:
前記チャンネル選択手段は、すべての学習用被験者から、前記学習用生体信号類似度算出手段および前記学習用視聴状態類似度算出手段で類似度を算出する対象となった学習用被験者を除いた学習用被験者を対象として、前記第2生体信号類似度行列と前記第2視聴状態類似度行列とを算出することを特徴とする請求項3に記載の視聴状態推定装置。 The learning biological signal similarity calculating unit and the learning viewing state similarity calculating unit calculate a biological signal similarity and a viewing state similarity with different numbers of the learning subjects, respectively.
The channel selection means is for learning except for all the learning subjects excluding the learning subjects for which the biometric signal similarity calculating means for learning and the learning viewing state similarity calculating means calculate the similarity. The viewing state estimation apparatus according to claim 3, wherein the second biological signal similarity matrix and the second viewing state similarity matrix are calculated for a subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223058A JP6154728B2 (en) | 2013-10-28 | 2013-10-28 | Viewing state estimation apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013223058A JP6154728B2 (en) | 2013-10-28 | 2013-10-28 | Viewing state estimation apparatus and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015087782A JP2015087782A (en) | 2015-05-07 |
JP6154728B2 true JP6154728B2 (en) | 2017-06-28 |
Family
ID=53050559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013223058A Active JP6154728B2 (en) | 2013-10-28 | 2013-10-28 | Viewing state estimation apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6154728B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10699057B2 (en) | 2015-10-07 | 2020-06-30 | Hitachi Ltd. | System and method for controlling information presented to user referring to contents |
JP6635899B2 (en) * | 2016-09-02 | 2020-01-29 | 株式会社日立製作所 | Comprehension calculating device and comprehension calculating method |
JP2022155614A (en) * | 2021-03-31 | 2022-10-14 | 国立研究開発法人情報通信研究機構 | Empathy measuring method |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003111106A (en) * | 2001-09-28 | 2003-04-11 | Toshiba Corp | Apparatus for acquiring degree of concentration and apparatus and system utilizing degree of concentration |
JP4335642B2 (en) * | 2003-11-10 | 2009-09-30 | 日本電信電話株式会社 | Viewer reaction information collecting method, user terminal and viewer reaction information providing device used in the viewer reaction information collecting system, and program for creating viewer reaction information used for realizing the user terminal / viewer reaction information providing device |
JP2005210155A (en) * | 2004-01-20 | 2005-08-04 | Sanyo Electric Co Ltd | Mobile viewing apparatus |
JP2006134282A (en) * | 2004-11-06 | 2006-05-25 | Kazuyoshi Tateno | Individual information provision system using similarity value |
US8230457B2 (en) * | 2007-03-07 | 2012-07-24 | The Nielsen Company (Us), Llc. | Method and system for using coherence of biological responses as a measure of performance of a media |
JP2011129997A (en) * | 2009-12-15 | 2011-06-30 | Victor Co Of Japan Ltd | User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method |
AU2011265090A1 (en) * | 2010-06-07 | 2012-11-29 | Affectiva,Inc. | Mental state analysis using web services |
KR20120018061A (en) * | 2010-08-19 | 2012-02-29 | 한국전자통신연구원 | Method and apparatus acquiring channel information using a broadcast data |
JP2012089061A (en) * | 2010-10-22 | 2012-05-10 | Nec Corp | Question survey apparatus, question survey method and program |
JP5470302B2 (en) * | 2011-02-15 | 2014-04-16 | 日本電信電話株式会社 | Group action determination apparatus, method, and program |
US20120324491A1 (en) * | 2011-06-17 | 2012-12-20 | Microsoft Corporation | Video highlight identification based on environmental sensing |
JP5937829B2 (en) * | 2012-01-25 | 2016-06-22 | 日本放送協会 | Viewing situation recognition device and viewing situation recognition program |
JP5775837B2 (en) * | 2012-03-02 | 2015-09-09 | 日本電信電話株式会社 | Interest degree estimation apparatus, method and program |
-
2013
- 2013-10-28 JP JP2013223058A patent/JP6154728B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015087782A (en) | 2015-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grootswagers et al. | Decoding dynamic brain patterns from evoked responses: A tutorial on multivariate pattern analysis applied to time series neuroimaging data | |
Wan et al. | Sparse Bayesian multi-task learning for predicting cognitive outcomes from neuroimaging measures in Alzheimer's disease | |
Stahl et al. | Novel machine learning methods for ERP analysis: a validation from research on infants at risk for autism | |
Chen et al. | A multichannel deep neural network model analyzing multiscale functional brain connectome data for attention deficit hyperactivity disorder detection | |
Zhang et al. | Characterization of task-free and task-performance brain states via functional connectome patterns | |
EP3281079B1 (en) | System and method for estimating cognitive traits | |
Das et al. | Unsupervised approach for measurement of cognitive load using EEG signals | |
CN105225222A (en) | To the automatic evaluation of the perception visual quality of different images collection | |
JP6154728B2 (en) | Viewing state estimation apparatus and program thereof | |
Churchill et al. | Comparing within‐subject classification and regularization methods in fMRI for large and small sample sizes | |
Ardakani et al. | Application of texture analysis in diagnosis of multiple sclerosis by magnetic resonance imaging | |
JP6259353B2 (en) | Image evaluation apparatus and program thereof | |
Wang et al. | Partial least squares for functional joint models with applications to the Alzheimer's disease neuroimaging initiative study | |
Feilong et al. | The Individualized Neural Tuning Model: Precise and generalizable cartography of functional architecture in individual brains | |
JP6417232B2 (en) | Image evaluation apparatus and program thereof | |
Shen et al. | Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models | |
Wang et al. | Causality analysis of fMRI data based on the directed information theory framework | |
Rao et al. | A comparison of strategies for incorporating nuisance variables into predictive neuroimaging models | |
Stamile et al. | Multiparametric non-negative matrix factorization for longitudinal variations detection in white-matter fiber bundles | |
US11768258B2 (en) | Signal separating apparatus, signal separating method, and non-transitory recording medium | |
Brahim et al. | Classification of autism spectrum disorder through the graph fourier transform of fmri temporal signals projected on structural connectome | |
KR101213677B1 (en) | System for imputating of missing values using incremental expectation maximization principal component analysis | |
Li et al. | Diagnosis of Alzheimer's disease by feature weighted-LSTM: a preliminary study of temporal features in brain resting-state fMRI | |
Peruzzo et al. | A framework for the automatic detection and characterization of brain malformations: Validation on the corpus callosum | |
Xiao et al. | Correlation guided graph learning to estimate functional connectivity patterns from fMRI data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160831 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6154728 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |