JP2015207038A - Video image evaluation device and program - Google Patents

Video image evaluation device and program Download PDF

Info

Publication number
JP2015207038A
JP2015207038A JP2014085262A JP2014085262A JP2015207038A JP 2015207038 A JP2015207038 A JP 2015207038A JP 2014085262 A JP2014085262 A JP 2014085262A JP 2014085262 A JP2014085262 A JP 2014085262A JP 2015207038 A JP2015207038 A JP 2015207038A
Authority
JP
Japan
Prior art keywords
evaluation
similarity
vector
biological signal
subjects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014085262A
Other languages
Japanese (ja)
Other versions
JP6259353B2 (en
Inventor
康仁 澤畠
Yasuhito Sawahata
康仁 澤畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014085262A priority Critical patent/JP6259353B2/en
Publication of JP2015207038A publication Critical patent/JP2015207038A/en
Application granted granted Critical
Publication of JP6259353B2 publication Critical patent/JP6259353B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To evaluate a video image system taking into consideration of video image contents.SOLUTION: A video image evaluation device 100 comprises: subject evaluation similarity calculation means 113 that calculates similarity between a subject evaluation vector yabout all items of a plurality of evaluation axes about a plurality of subjects and a subject evaluation similarity vector yhaving only a specific evaluation item of the evaluation axis selected and calculates a subject evaluation similarity vector s; mapping selection means 120 that selects mapping information associating bio-signal similarity between the subjects with subject evaluation similarity between the subjects; and subject evaluation corresponding scene estimation means 114 that obtains an estimation value of the vector xso as to establish a relationship expression associating a bio-signal similarity vector sserving as an integration of a time-series bio-signal vector of the plurality of subjects and an unknown time-series bio-signal vector xand the subject evaluation similarity sby the mapping information, and determines a scene of a video image on the basis of the estimation value.

Description

本発明は、映像システムを客観的に評価する映像評価装置に係り、特に、映像コンテンツ提示装置を評価する映像評価装置及びそのプログラムに関する。   The present invention relates to a video evaluation apparatus that objectively evaluates a video system, and more particularly to a video evaluation apparatus that evaluates a video content presentation apparatus and a program thereof.

従来、映像システムを評価するために、その映像システムを用いて提示した映像コンテンツを視聴した評価者が視聴後に1つ又は複数の評価項目に対して評価値を与えるという主観評価が行われてきた。しかしながら、映像システムの品質が高まるにつれて、主観評価の結果は映像コンテンツの内容により強く依存する傾向が顕著になってきている。そのため、主観評価の結果は、映像システムに対する評価結果であるのか、その映像システムを用いて表示された映像コンテンツに対する評価結果であるのかを分けて取り扱うことが非常に困難になっている。   Conventionally, in order to evaluate a video system, subjective evaluation has been performed in which an evaluator who has viewed video content presented using the video system gives an evaluation value to one or a plurality of evaluation items after viewing. . However, as the quality of video systems increases, the result of subjective evaluation tends to be more strongly dependent on the content of video content. Therefore, it is very difficult to separately handle whether the result of the subjective evaluation is an evaluation result for the video system or an evaluation result for the video content displayed using the video system.

特に、映像システムについての主観評価は、主に映像コンテンツの視聴後に行うため、その評価値は映像コンテンツの特定のシーンというよりは、映像コンテンツ全体に対するものであるという傾向となる。よって、映像コンテンツのどのシーンが主観評価への影響が大きいかを特定することは、原理的に難しい。例えば、どのシーンが主観評価への影響が大きいかを特定するために、映像コンテンツを時間的に細切れにして、短い時間に対する主観評価を行う手法が考えられる。ただし、この手法では、主観評価の原因となるシーンを探ることは可能ではあるが、次の2つの課題がある。1つ目は、短い時間ごとに主観評価を行うことは大きな手間である。2つ目は、評価の項目や評価の設問ごとに映像コンテンツを寸断するために、映像コンテンツを自然な形で視聴することができない。以上のように、映像システムを映像コンテンツ提示装置として評価することが難しい。なお、映像コンテンツとは、例えば放送番組や映画等のコンテンツを指すものである。映像コンテンツ以外の画像、例えば画質を確かめるための静止画や動画のサンプル(例えば自然の植物や風景等のサンプル画像)を単に表示したときには画像表示装置と呼び、上記映像コンテンツ提示装置とは区別する。   In particular, since the subjective evaluation of the video system is mainly performed after viewing the video content, the evaluation value tends to be for the entire video content rather than a specific scene of the video content. Therefore, it is in principle difficult to specify which scene of the video content has a great influence on the subjective evaluation. For example, in order to identify which scene has a large influence on the subjective evaluation, a method of performing a subjective evaluation for a short time by segmenting video content in time can be considered. However, with this method, it is possible to search for a scene that causes subjective evaluation, but there are the following two problems. First, performing subjective evaluation every short time is a great effort. Second, the video content cannot be viewed in a natural manner because the video content is cut into pieces for each evaluation item or evaluation question. As described above, it is difficult to evaluate a video system as a video content presentation device. The video content refers to content such as a broadcast program or a movie. When an image other than video content, for example, a still image or moving image sample (for example, a sample image of a natural plant or landscape) for confirming image quality, is simply displayed, it is called an image display device and is distinguished from the video content presentation device. .

また、従来、主観評価法の1つとして、映像コンテンツの視聴と同時に行う、連続品質評価法が知られている。この手法では、評価軸(評価尺度)を、画質の良し悪しなど、映像コンテンツの内容そのものとは関連の低い単純なものとすることが多い。すなわち、映像システムの、主に画像表示装置としての評価に用いられている。
一方、映像システムの、主に映像コンテンツ提示装置として評価する場合に、連続品質評価法を用いることを想定すると、評価軸を次のように変更する必要がある。すなわち、より映像コンテンツの内容に踏み込んだ評価軸、例えば、感動度、臨場感、立体感、迫力感といった評価軸に変更する必要がある。ただし、こういった評価軸は、画質の良し悪しなどの評価軸と比べて複雑であり、被験者が適切な評価を連続的に行うことは非常に困難なことである。
Conventionally, as one of subjective evaluation methods, a continuous quality evaluation method that is performed simultaneously with viewing of video content is known. In this method, the evaluation axis (evaluation scale) is often a simple one that is not related to the content of the video content itself, such as whether the image quality is good or bad. That is, it is used for evaluation of a video system mainly as an image display device.
On the other hand, when the video system is evaluated mainly as a video content presentation device, assuming that the continuous quality evaluation method is used, it is necessary to change the evaluation axis as follows. In other words, it is necessary to change to an evaluation axis that has further entered into the content of the video content, for example, an evaluation axis such as sensitivity, presence, three-dimensionality, and powerfulness. However, these evaluation axes are more complex than evaluation axes such as image quality, and it is very difficult for the subject to continuously perform appropriate evaluations.

また、従来、映像コンテンツを細切れにするなどの加工や操作をせず、より自然な視聴状況下で映像システムの評価を行うために、視聴者の生体信号(脳波、重心動揺など)を計測し、視聴中の生体信号の中に予め決められたパターンが現れるかどうかを調べる方法がある(例えば特許文献1〜9参照)。   In addition, in order to evaluate the video system under more natural viewing conditions without processing or operating the video content into pieces, the viewer's biological signals (such as brain waves and center of gravity fluctuations) are measured. There is a method for examining whether or not a predetermined pattern appears in the biological signal being viewed (see, for example, Patent Documents 1 to 9).

特許第4370209号公報Japanese Patent No. 4370209 特許第4441345号公報Japanese Patent No. 4441345 特許第4686299号公報Japanese Patent No. 4686299 特許第3991066号公報Japanese Patent No. 3991066 特許第4189440号公報Japanese Patent No. 4189440 特許第5119375号公報Japanese Patent No. 5119375 特許第3048918号公報Japanese Patent No. 3048918 特開2012−73350号公報JP 2012-73350 A 特許第2772413号公報Japanese Patent No. 2772413

しかしながら、従来の生体信号パターンを用いる技術では、その生体信号パターンが固定されているため、多種多様な映像コンテンツに対して適用することができなかった。一般に映像コンテンツには様々な種類があり、多様なシーンで構成されるものであるから、評価軸もまた多種多様に設けられるべきである。そのような多様な評価軸に対応する特徴的な生体信号パターンを予め設定することは難しく、従来技術のように生体信号そのものだけ用いたとしても、映像コンテンツの内容を考慮した映像システムの評価は困難なものであった。つまり、従来手法では、映像システムの、主に映像コンテンツ提示装置としての評価をすることはできなかった。   However, the conventional technique using a biological signal pattern cannot be applied to a wide variety of video contents because the biological signal pattern is fixed. In general, there are various types of video content, and it is composed of various scenes. Therefore, various evaluation axes should be provided. It is difficult to preset characteristic biosignal patterns corresponding to such various evaluation axes. Even if only biosignals are used as in the prior art, evaluation of video systems considering the contents of video content It was difficult. In other words, the conventional method cannot evaluate the video system mainly as a video content presentation device.

本発明は、このような問題に鑑みてなされたものであり、映像コンテンツの内容を考慮して映像システムを評価することが可能な映像評価装置及びそのプログラムを提供することを課題とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a video evaluation apparatus capable of evaluating a video system in consideration of the contents of video content and a program thereof.

前記課題を解決するために、本発明に係る映像評価装置は、映像システムで提示する映像コンテンツを視聴中の複数の被験者より身体のいずれかの部位を示す複数の計測チャンネル毎に同時に測定した時系列の各被験者の生体信号のデータと、前記複数の被験者が複数の評価軸を用いて当該映像コンテンツを主観評価した回答である各被験者の評価結果データとに基づいて、所定の評価軸における評価に寄与した映像コンテンツのシーンを推定することで前記映像システムを評価する映像評価装置であって、主観評価ベクトル作成手段と、主観評価類似度計算手段と、マッピング選択手段と、主観評価対応シーン推定手段と、を備える構成とした。   In order to solve the above-mentioned problem, the video evaluation apparatus according to the present invention measures the video content presented in the video system simultaneously from a plurality of subjects who are viewing each of a plurality of measurement channels indicating any part of the body. Evaluation on a predetermined evaluation axis based on the biometric signal data of each subject in the series and the evaluation result data of each subject that is a response that the plurality of subjects subjectively evaluated the video content using a plurality of evaluation axes A video evaluation apparatus that evaluates the video system by estimating a scene of video content that has contributed to a subjective evaluation vector creation means, a subjective evaluation similarity calculation means, a mapping selection means, and a subjective evaluation corresponding scene estimation Means.

かかる構成において、映像評価装置は、主観評価ベクトル作成手段によって、所定の評価軸に対応するシーンを推定するために前記複数の評価軸のうち所定の評価軸における特定の評価項目の選択を受け付け、前記複数の評価軸の全項目のうち前記特定の評価項目だけが選択されたことを数値で表した主観評価ベクトルを作成する。
そして、映像評価装置は、主観評価類似度計算手段によって、N人の被験者についての前記複数の評価軸の全項目に関する評価結果データと前記主観評価ベクトルとの類似度を計算してN次元のベクトルからなる主観評価類似度ベクトルを算出する。
そして、映像評価装置の内部又は外部に設けられたマッピング記憶手段は、前記N人の被験者それぞれの生体信号のデータを用いて前記計測チャンネル毎に算出された被験者間の生体信号類似度と、前記生体信号のデータを用いた前記N人の被験者についての評価結果データを組み合わせて算出された被験者間の主観評価類似度と、を関連付けるための行列として予め算出されたマッピング情報を前記計測チャンネル毎に記憶している。そして、映像評価装置は、マッピング選択手段によって、前記マッピング記憶手段から、少なくとも1つの計測チャンネルについてのマッピング情報を選択する。この選択された計測チャンネルについてのマッピング情報は、主観評価対応シーン推定手段で利用される。
そして、主観評価対応シーン推定手段は、前記N人の被験者それぞれの時系列の生体信号のデータである行列と予測する時系列の生体信号を各要素とする未知のベクトルとの積であるN次元のベクトルからなる生体信号類似度ベクトルと、前記特定の評価項目だけが選択された主観評価ベクトルから得られた前記主観評価類似度ベクトルとを、前記選択された計測チャンネルについてのマッピング情報で関係付ける関係式が成り立つように前記未知のベクトルの各要素を決定する演算を行うことで生体信号の時系列の推定値を求め、前記受け付けた所定の評価軸における評価に寄与したシーンとして、前記求めた生体信号の時系列の推定値に基づいて映像のシーンを決定する。
In such a configuration, the video evaluation device accepts selection of a specific evaluation item on the predetermined evaluation axis among the plurality of evaluation axes in order to estimate a scene corresponding to the predetermined evaluation axis by the subjective evaluation vector creation unit, A subjective evaluation vector is generated that numerically represents that only the specific evaluation item has been selected among all items of the plurality of evaluation axes.
Then, the video evaluation apparatus calculates the similarity between the evaluation result data regarding all items of the plurality of evaluation axes and the subjective evaluation vector for N subjects by the subjective evaluation similarity calculation means, and calculates an N-dimensional vector. A subjective evaluation similarity vector is calculated.
And the mapping memory | storage means provided in the inside or the exterior of an image evaluation apparatus is the said biosignal similarity between test subjects calculated for every said measurement channel using the data of each biosignal of said N test subjects, Mapping information calculated in advance as a matrix for associating the subjective evaluation similarity between the subjects calculated by combining the evaluation result data for the N subjects using the data of the biological signal for each measurement channel. I remember it. Then, the video evaluation apparatus selects mapping information for at least one measurement channel from the mapping storage unit by the mapping selection unit. The mapping information for the selected measurement channel is used by the subjective evaluation corresponding scene estimation means.
Then, the subjective evaluation corresponding scene estimation means is an N-dimensional product that is a product of a matrix that is data of time-series biosignals of each of the N subjects and an unknown vector whose elements are predicted time-series biosignals. The biometric signal similarity vector consisting of the vector and the subjective evaluation similarity vector obtained from the subjective evaluation vector in which only the specific evaluation item is selected are related by mapping information about the selected measurement channel A time series estimation value of the biological signal is obtained by performing an operation for determining each element of the unknown vector so that a relational expression is established, and the obtained value is obtained as a scene contributing to the evaluation on the received predetermined evaluation axis. A video scene is determined based on the time-series estimated value of the biological signal.

なお、本発明に係る映像評価装置は、映像評価装置のコンピュータを、主観評価ベクトル作成手段、主観評価類似度計算手段、マッピング選択手段、主観評価対応シーン推定手段、として機能させるための映像評価プログラムで動作させることができる。   The video evaluation apparatus according to the present invention is a video evaluation program for causing a computer of the video evaluation apparatus to function as subjective evaluation vector creation means, subjective evaluation similarity calculation means, mapping selection means, and subjective evaluation corresponding scene estimation means. Can be operated.

本発明は、以下に示す優れた効果を奏するものである。
本発明によれば、複数被験者間の生体信号時系列データの類似度と複数被験者間の主観評価パターンの類似度との間を関連付けるマッピング情報(対応関係)を用いて特定の主観評価値に関連する生体信号の時系列の基底となるパターンを見出すことで、主観評価の所定の評価軸における評価に寄与した映像コンテンツのシーンを推定することができる。すなわち、被験者が映像コンテンツのどのようなシーンをもとに評価値を与えたのかを推定することができる。これにより、映像コンテンツが被験者にどのように受容されているのかを客観的に把握することができる。また、映像コンテンツを提示する映像システムの特長が効果的に表れるシーンを把握することができる。したがって、本発明によれば、映像コンテンツの内容を考慮して映像システムを評価することができる。
The present invention has the following excellent effects.
According to the present invention, mapping information (correspondence relationship) that associates the similarity between biological signal time-series data between multiple subjects and the similarity between subjective evaluation patterns between multiple subjects is used to relate to a specific subjective evaluation value. The scene of the video content that contributed to the evaluation on the predetermined evaluation axis of the subjective evaluation can be estimated by finding the pattern that becomes the basis of the time series of the biological signal to be performed. That is, it is possible to estimate what scene of the video content the subject gave the evaluation value to. Thereby, it is possible to objectively understand how the video content is received by the subject. In addition, it is possible to grasp a scene in which the features of the video system that presents video content effectively appear. Therefore, according to the present invention, the video system can be evaluated in consideration of the content of the video content.

本発明の実施形態に係る映像評価装置の構成を示すブロック構成図である。It is a block block diagram which shows the structure of the image | video evaluation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る映像評価装置の概要を説明するための説明図である。It is explanatory drawing for demonstrating the outline | summary of the image | video evaluation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る映像評価装置で用いる評価軸の例である。It is an example of the evaluation axis | shaft used with the image | video evaluation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る映像評価装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image | video evaluation apparatus which concerns on embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。
〔映像評価装置の概要〕
最初に、図1、図2及び図3を参照して、本発明の実施形態に係る映像評価装置100の概要について説明する。
映像評価装置100は、映像システム(不図示)で提示する映像コンテンツを視聴中の複数の被験者より同時に測定した時系列の各被験者の生体信号(観測データ)101と、これらの被験者が複数の評価軸を用いて当該映像コンテンツを主観評価した回答である各被験者の主観評価結果102のデータとに基づいて、所定の評価軸における評価に寄与した映像コンテンツのシーンを推定することで映像システム(不図示)を評価するものである。
Embodiments of the present invention will be described below with reference to the drawings.
[Outline of video evaluation system]
First, an overview of the video evaluation apparatus 100 according to the embodiment of the present invention will be described with reference to FIGS. 1, 2, and 3.
The video evaluation apparatus 100 includes time-series biometric signals (observation data) 101 obtained by simultaneously measuring video content presented by a video system (not shown) from a plurality of viewing subjects, and these subjects perform a plurality of evaluations. Based on the subjective evaluation result 102 data of each subject, which is an answer obtained by subjectively evaluating the video content using the axis, the video system (invalidity) is estimated by estimating the scene of the video content that contributed to the evaluation on the predetermined evaluation axis (Shown) is evaluated.

この映像評価装置100は、映像が被験者にどのように受容されているのかを評価するために、映像システムの、主に映像コンテンツ提示装置としての評価をするために用いられる。ここで、映像システムとは、例えば液晶・有機EL等のディスプレイモニタで提示する直接照射型の映像提示方式、又は、例えばスクリーンやプロジェクタを用いる反射投影型の映像提示方式、或いは、各種立体映像(専用眼鏡要/不要)の映像提示方式等、さらに、使用する各種ハードウェア、音響システム、提示する映像コンテンツ(種類、内容、目的、演出効果)等を包括的に含むシステムをいう。また、映像コンテンツは例えば放送番組や映画等のコンテンツである。   The video evaluation apparatus 100 is used to evaluate the video system mainly as a video content presentation apparatus in order to evaluate how the video is received by the subject. Here, the video system is, for example, a direct irradiation type video presentation method that is presented on a display monitor such as a liquid crystal display or an organic EL, or a reflection projection type video presentation method that uses, for example, a screen or a projector. This is a system that comprehensively includes a video presentation method (necessary / unnecessary for dedicated glasses), various hardware to be used, an audio system, video content to be presented (type, content, purpose, production effect) and the like. The video content is content such as a broadcast program or a movie.

被験者は、映像コンテンツを視聴しているときに生体信号測定装置(不図示)によって、身体のいずれかの部位を示す複数の計測チャンネル毎に生体信号101が同時に測定される。図1及び図2に示す生体信号101とは、被験者の生体組織の状態や組織が機能している場合の情報を反映した信号である。本実施形態では、一例として、生体信号は、機能的核磁気共鳴映像法(fMRI:Functional Magnetic Resonance Imaging)による脳血中酸素量の計測データであるものとする。fMRIによる脳血中酸素量の計測データは、fMRI装置により計測される画像の輝度データとして表すことができる。   When the subject is viewing the video content, the biological signal 101 is simultaneously measured for each of a plurality of measurement channels indicating any part of the body by a biological signal measuring device (not shown). The biological signal 101 shown in FIGS. 1 and 2 is a signal reflecting the state of the biological tissue of the subject and information when the tissue is functioning. In the present embodiment, as an example, it is assumed that the biological signal is measurement data of the amount of oxygen in the cerebral blood by functional nuclear magnetic resonance imaging (fMRI). The measurement data of the cerebral blood oxygen amount by fMRI can be expressed as luminance data of an image measured by the fMRI apparatus.

また、計測チャンネルとは、1被験者から同時に測定された生体信号を区別するものであり、測定装置側の測定電極等のプローブや、被験者側の例えば脳等の身体のいずれかの測定箇所に対応している。fMRIによる脳血中酸素量の計測データにおいては、計測チャンネルは、画像のピクセル単位(3次元画像であるため、より正確にはボクセル単位)で表された被験者の脳の部位に相当する。なお、fMRI装置において標準的ボクセル数は、122880個(=縦64×横64×高さ30)であり、そのうち脳の灰白質(神経細胞がある位置)に相当するボクセルの個数は、経験的に60000〜70000個くらいであることが分かっている。さらに、情報があるボクセルや特定の脳部位に絞って解析するので、計測チャンネルの個数としては、10000個以下(下限は例えば数100個位)に絞って設定するだけでもよい。   A measurement channel distinguishes biological signals measured simultaneously from one subject, and corresponds to a measurement electrode on the measurement device side such as a probe such as a measurement electrode or a measurement site on the subject side such as the brain. doing. In the measurement data of the cerebral blood oxygen amount by fMRI, the measurement channel corresponds to a portion of the subject's brain expressed in pixel units (more precisely, voxel units because they are three-dimensional images). In the fMRI apparatus, the standard number of voxels is 122880 (= length 64 × width 64 × height 30), of which the number of voxels corresponding to the gray matter of the brain (where the nerve cells are located) is empirical. It is known that there are about 60000-70000 pieces. Furthermore, since analysis is performed by focusing on a voxel with information or a specific brain region, the number of measurement channels may be set to 10000 or less (lower limit is, for example, several hundreds).

評価軸は、例えば2つの異なる形容詞対や、1つの肯定的な形容詞とその否定表現で構成されている。例えば、SD(Semantic Differential)法で用いられるような複数段階の印象評価であってもよい。図3には、映像システムの評価に適用可能な評価軸の例として、22個の評価軸を示した。例えば図3の1番上に記載された評価軸は、被験者が映像コンテンツの視聴後に次の設問Q1のようなアンケートに対して回答する際に用いる評価軸を表している。
設問Q1:この映像コンテンツは、「かたい」と感じるか、「やわらかい」と感じるか評価して下さい。
(「かたい」:0、「やわらかい」:1)
The evaluation axis is composed of, for example, two different adjective pairs, one positive adjective and its negative expression. For example, it may be a multi-stage impression evaluation as used in the SD (Semantic Differential) method. FIG. 3 shows 22 evaluation axes as examples of evaluation axes applicable to the evaluation of the video system. For example, the evaluation axis described at the top in FIG. 3 represents the evaluation axis used when the subject answers the questionnaire such as the next question Q1 after viewing the video content.
Question Q1: Please rate whether this video content feels “hard” or “soft”.
("Hard": 0, "soft": 1)

図1の映像評価装置100は、どのような映像コンテンツやどのようなシーンが、所定の評価軸における特定の評価項目の評価に寄与したのかを推定することで、映像がどのように受容されているのかを評価することができる。   The video evaluation apparatus 100 in FIG. 1 estimates how video content and scene contributed to the evaluation of a specific evaluation item on a predetermined evaluation axis, so that the video is accepted. It can be evaluated whether it is.

後記する説明中の数式では、図2に例示したある被験者iのある計測チャンネルcの生体信号(観測データ)101のことを、映像コンテンツ尺に対応した時系列のT個の要素を有するベクトルx に対応付けている。
また、後記する説明中の数式では、図2に例示したある被験者iの主観評価結果102のことを、評価軸の個数Nと同数の要素を有するベクトルyに対応付けている。なお、図2に例示した主観評価結果102は、「明るい」という評価項目と「明るくない」という評価項目とを有する評価軸a、「上品な」という評価項目と「上品でない」という評価項目とを有する評価軸b、「開放的な」という評価項目と「開放的でない」という評価項目とを有する評価軸c、「躍動的な」という評価項目と「躍動的でない」という評価項目とを有する評価軸d、の合計4個の評価軸に対する回答結果を表している。
In the mathematical expression described below, the biological signal (observation data) 101 of a certain measurement channel c of a subject i illustrated in FIG. 2 is represented as a vector x having T elements in time series corresponding to the video content scale. and in association with the c i.
Further, in the mathematical expression in the description below, the subjective evaluation result 102 of a subject i illustrated in FIG. 2 is associated with a vector y i having the same number of elements as the number N q of evaluation axes. The subjective evaluation result 102 illustrated in FIG. 2 includes an evaluation axis a having an evaluation item “bright” and an evaluation item “not bright”, an evaluation item “classy”, and an evaluation item “not elegant”. An evaluation axis b having an evaluation item "open" and an evaluation item "not open", an evaluation item "dynamic" and an evaluation item "not dynamic" The answer results for a total of four evaluation axes of the evaluation axis d are shown.

本願発明者は、測定した時系列の各被験者の生体信号101と、各被験者の主観評価結果102との間になんらかの対応関係を有していると仮定し、この仮定に基づいて脳活動が生成されていれば、関連シーンを推定することができると考えた。なお、予備実験の結果、この仮定が妥当であったという結果が得られている。
図2に示す破線の枠201は、図2に示す主観評価結果102と、図2に示す生体信号(観測データ)101とがなんらかの対応関係を有していることを模式的に示している。
図2の破線の枠201の中に模式的に示す「評価軸に対応するシーン115」は、映像評価装置100が出力する「評価軸に対応するシーン115(図1参照)」に相当する。図2の例では被験者は4個の評価軸それぞれにおいて「Y/N」のいずれか一方の評価を回答しなければならないことになっている。ただし、仮に評価軸aにおいて「明るい」という項目の応答「Y」だけを選択しておき、その選択項目の回答に関連するシーンの時間変化(関連度の時間変化)が図2の破線の枠201内に示すような関連度の時間変化Aになっていたとしたら、その関連度の時間変化Aに対応して、特徴的脳活動210の時間変化αが表れることになると考えられる。
また、評価軸bの「上品な」という項目の応答は「N」であるので、関連度の時間変化Bは、特徴的脳活動の時間変化βには表れない。
同様に、評価軸cの「開放的な」という項目の応答「Y」と、関連度の時間変化Cと、特徴的脳活動の時間変化γとを対応させることも可能であり、また、評価軸dの「躍動的な」という項目の応答「Y」と、関連度の時間変化Dと、特徴的脳活動の時間変化δとを対応させることも可能である。
ここでは、実際に観測される生体信号は、特徴的脳活動210の時間変化α,β,γ,δとノイズ等の残渣230とが全て重畳された信号として生成されると考える。主観評価結果102と生体信号(観測データ)101を複数の被験者から集め、主観評価結果と生体信号の対応関係の仮定に基づき、生体信号の生成規則(=関連度の時間変化)を探ることで、各評価軸に対応するシーン115の推定が可能である。
The inventor of the present application assumes that there is some correspondence between the measured biological signal 101 of each subject in time series and the subjective evaluation result 102 of each subject, and brain activity is generated based on this assumption. If so, we thought that related scenes could be estimated. In addition, as a result of preliminary experiments, a result that this assumption was valid was obtained.
2 schematically shows that the subjective evaluation result 102 shown in FIG. 2 and the biological signal (observation data) 101 shown in FIG. 2 have some correspondence.
The “scene 115 corresponding to the evaluation axis” schematically shown in the dashed-line frame 201 in FIG. 2 corresponds to the “scene 115 corresponding to the evaluation axis (see FIG. 1)” output from the video evaluation apparatus 100. In the example of FIG. 2, the subject must answer either “Y / N” on each of the four evaluation axes. However, if only the response “Y” of the item “bright” is selected on the evaluation axis a, the time change of the scene (time change of the relevance) related to the answer of the selected item is indicated by the broken line in FIG. If the degree of relevance A changes as shown in 201, the time change α of the characteristic brain activity 210 appears corresponding to the time change A of the degree of relevance.
Further, since the response of the item “classy” on the evaluation axis b is “N”, the temporal change B of the relevance level does not appear in the temporal change β of the characteristic brain activity.
Similarly, the response “Y” of the item “open” on the evaluation axis c can be associated with the temporal change C of the degree of association and the temporal change γ of the characteristic brain activity. It is also possible to make the response “Y” of the item “dynamic” on the axis d correspond to the temporal change D of the relevance and the temporal change δ of the characteristic brain activity.
Here, it is assumed that the biological signal actually observed is generated as a signal in which the temporal changes α, β, γ, δ of the characteristic brain activity 210 and the residue 230 such as noise are all superimposed. By collecting the subjective evaluation result 102 and the biological signal (observation data) 101 from a plurality of subjects, and searching for the generation rule of the biological signal (= time change of the relevance) based on the assumption of the correspondence between the subjective evaluation result and the biological signal. The scene 115 corresponding to each evaluation axis can be estimated.

さらに、複数の被験者が同じ映像コンテンツを視聴したときに、各被験者の生体信号101と主観評価結果102との対応関係は、被験者iによっても異なるし、計測チャンネルcによっても異なる。そこで、映像評価装置100は、学習段階で、機械学習により、複数被験者間の生体信号101の時系列データの類似度と複数被験者間の主観評価結果102のパターンの類似度との間を関連付けるマッピング情報(対応関係)を先ず求めておく。   Further, when a plurality of subjects view the same video content, the correspondence between the biological signal 101 of each subject and the subjective evaluation result 102 differs depending on the subject i and also differs depending on the measurement channel c. Therefore, in the learning stage, the video evaluation apparatus 100 performs mapping that associates the similarity of the time series data of the biological signal 101 between the plurality of subjects and the similarity of the pattern of the subjective evaluation result 102 between the plurality of subjects by machine learning. First, information (correspondence) is obtained.

この学習段階の後に、さらに、映像評価装置100は、推定段階で、特定の主観評価値(例えば図2の「明るい」)が入力されたときに、それに関連する生体信号の時系列の基底となるパターン(例えば図2の関連度の時間変化A)を見出すことで、主観評価に関連するシーン(例えば図2の関連度の時間変化A)を推定する。以下、このような学習と推定を行う映像評価装置100の構成及び動作について詳細に説明する。   After this learning stage, the video evaluation apparatus 100 further includes a time-series basis of biological signals related thereto when a specific subjective evaluation value (for example, “bright” in FIG. 2) is input in the estimation stage. A scene related to the subjective evaluation (for example, the temporal change A of the degree of association in FIG. 2) is estimated by finding a pattern (for example, the temporal change A in the degree of association in FIG. 2). Hereinafter, the configuration and operation of the video evaluation apparatus 100 that performs such learning and estimation will be described in detail.

〔映像評価装置の構成〕
図1に示すように、映像評価装置100は、生体信号計測手段103と、主観評価把握手段104と、生体信号蓄積手段105と、主観評価蓄積手段106と、生体信号類似度算出手段107と、主観評価類似度算出手段108と、類似度間マッピング算出手段109と、マッピング記憶手段110と、マッピング選択手段120と、主観評価ベクトル作成手段112と、主観評価類似度計算手段113と、主観評価対応シーン推定手段114と、を備えている。
[Configuration of video evaluation equipment]
As shown in FIG. 1, the video evaluation apparatus 100 includes a biological signal measuring unit 103, a subjective evaluation grasping unit 104, a biological signal accumulating unit 105, a subjective evaluation accumulating unit 106, a biological signal similarity calculating unit 107, Subjective evaluation similarity calculation means 108, similarity mapping calculation means 109, mapping storage means 110, mapping selection means 120, subjective evaluation vector creation means 112, subjective evaluation similarity calculation means 113, and subjective evaluation correspondence Scene estimation means 114.

<生体信号計測手段103>
生体信号計測手段103は、被験者が映像コンテンツを視聴しているときに同時に生体信号測定装置(不図示)で測定された被験者の生体信号101が入力されて、この生体信号101に対して所定の信号処理を施して生体信号データを作成するものである。
<Biological signal measuring means 103>
The biological signal measuring means 103 receives the biological signal 101 of the subject measured by a biological signal measuring device (not shown) at the same time when the subject is viewing the video content, and receives a predetermined signal from the biological signal 101. The biological signal data is created by performing signal processing.

本実施形態では、外部の図示しない生体信号測定装置(例えばfMRI装置)の計測チャンネル毎に測定された複数の被験者の生体信号101が生体信号計測手段103に順次入力されることとした。生体信号計測手段103は、生体信号測定装置の種類や仕様に依存した時系列の電気信号等である生体信号に対して例えばノイズ除去処理等の前処理を施したり、この生体信号を解析し易いように数値変換したり、計測チャンネルの位置データと対応付けたりして、被験者の計測チャンネル毎に時系列の生体信号データを作成する。作成された生体信号データは、計測チャンネルの位置情報及び当該被験者の識別情報と対応付けて生体信号蓄積手段105に格納される。   In this embodiment, the biological signals 101 of a plurality of subjects measured for each measurement channel of an external biological signal measuring apparatus (for example, an fMRI apparatus) (not shown) are sequentially input to the biological signal measuring means 103. The biological signal measuring unit 103 easily performs preprocessing such as noise removal processing on a biological signal that is a time-series electric signal or the like depending on the type and specification of the biological signal measuring device, and easily analyzes the biological signal. Thus, time-series biological signal data is created for each measurement channel of the subject by performing numerical conversion as described above or associating with position data of the measurement channel. The created biological signal data is stored in the biological signal storage means 105 in association with the position information of the measurement channel and the identification information of the subject.

なお、fMRI装置は、脳内の酸素量を脳の断面画像として出力するが、その画像は被験者によって大きさ、形状等が異なる。そこで、生体信号計測手段103は、複数の被験者間で共通の計測チャンネルとして指し示す部位を揃えるため、アフィン変換等により、断面画像を圧縮、伸長、回転させ、標準脳と呼ばれるテンプレート脳画像と大きさ、形状等を合わせる正規化処理を行うことが好ましい。   The fMRI apparatus outputs the amount of oxygen in the brain as a cross-sectional image of the brain, but the image differs in size, shape, etc. depending on the subject. Therefore, the biological signal measuring unit 103 compresses, expands, and rotates the cross-sectional image by affine transformation or the like in order to align the parts indicated as a common measurement channel among a plurality of subjects, and the size of the template brain image called a standard brain It is preferable to perform normalization processing to match the shape and the like.

<生体信号蓄積手段105>
生体信号蓄積手段105は、生体信号計測手段103から入力された生体信号を記憶するものである。この生体信号蓄積手段105は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この生体信号蓄積手段105には、被験者と計測チャンネルとに対応付けられた時系列信号として、複数の被験者の生体信号が記憶される。例えば、生体信号蓄積手段105には、10人の被験者に対して、それぞれ10000箇所の計測チャンネルで計測された生体信号を記憶する。ここでは、生体信号蓄積手段105に記憶される生体信号を計測した被験者の数をM人(例えば10人)とする。なお、後記するようにマッピング情報(対応関係)を求めるためにはN(N<M)人(例えば9人)分のデータを使用し、(M−N)人分のデータでマッピング情報の精度検証を行う。
この生体信号蓄積手段105に記憶された生体信号は、生体信号類似度算出手段107、マッピング選択手段120及び主観評価対応シーン推定手段114によって参照される。
<Biological signal storage means 105>
The biological signal storage unit 105 stores the biological signal input from the biological signal measuring unit 103. The biological signal storage means 105 can be configured by a general storage device such as a semiconductor memory or a hard disk.
The biological signal storage unit 105 stores biological signals of a plurality of subjects as time series signals associated with the subjects and measurement channels. For example, the biological signal storage means 105 stores biological signals measured by 10,000 measurement channels for 10 subjects. Here, it is assumed that the number of subjects who have measured the biological signals stored in the biological signal storage means 105 is M (for example, 10). As will be described later, in order to obtain mapping information (correspondence), data for N (N <M) people (for example, 9 people) is used, and the accuracy of mapping information is obtained with the data for (MN) people. Perform verification.
The biological signal stored in the biological signal storage unit 105 is referred to by the biological signal similarity calculation unit 107, the mapping selection unit 120, and the subjective evaluation corresponding scene estimation unit 114.

<生体信号類似度算出手段107>
生体信号類似度算出手段107は、生体信号蓄積手段105に記憶されている同一映像コンテンツを視聴した複数の被験者の生体信号について、被験者間の生体信号類似度を算出するものである。なお、被験者間の生体信号類似度においては、ある被験者aと他の被験者bとのペア以外に、被験者aと被験者aとのペア等も考慮する。ここで、被験者aと被験者aとのペア等は、複数被験者間の類似度を行列形式で解析する際に、類似度行列の対角成分となる。
生体信号類似度算出手段107は、行列形式のマッピング情報(対応関係)を求めるためにN(N<M)人の被験者それぞれの生体信号のデータを用いてN×N個の被験者間の生体信号類似度を計算し、これら計算結果を各要素とする生体信号類似度行列を計測チャンネル毎に算出する。
<Biological signal similarity calculation means 107>
The biological signal similarity calculating unit 107 calculates the biological signal similarity between subjects for the biological signals of a plurality of subjects who viewed the same video content stored in the biological signal storage unit 105. In addition, in the biosignal similarity between subjects, in addition to a pair of a subject a and another subject b, a pair of the subject a and the subject a is also considered. Here, the pair of the subject a and the subject a becomes a diagonal component of the similarity matrix when analyzing the similarity between the plurality of subjects in a matrix format.
The biological signal similarity calculating means 107 uses the biological signal data of each of N (N <M) subjects in order to obtain matrix-format mapping information (correspondence relationship), and the biological signal among N × N subjects. Similarity is calculated, and a biological signal similarity matrix having these calculation results as elements is calculated for each measurement channel.

具体的には、生体信号類似度算出手段107は、以下のようにして、生体信号類似度行列を算出する。ここで、例えばN人の被験者同士の組み合わせは、本人同士のペアを許容するとN×Nペアだけ存在する。各ペアの一方の被験者を整数i(1≦i≦N)で識別し、他方の被験者を整数j(1≦j≦N)で識別し、計測チャンネルを整数cで識別することとする。また、生体信号蓄積手段105に記憶されている被験者iの時系列の生体信号データが映像コンテンツ視聴時間(1≦t≦T)に対応したT個の要素を有しているとすると、生体信号データは以下の式(1)に示すように、T次元ベクトルで表すことができる。   Specifically, the biological signal similarity calculation unit 107 calculates a biological signal similarity matrix as follows. Here, for example, there are only N × N pairs of combinations of N subjects when a pair of the subjects is allowed. One subject of each pair is identified by an integer i (1 ≦ i ≦ N), the other subject is identified by an integer j (1 ≦ j ≦ N), and a measurement channel is identified by an integer c. Further, when the time-series biological signal data of the subject i stored in the biological signal storage unit 105 has T elements corresponding to the video content viewing time (1 ≦ t ≦ T), the biological signal Data can be represented by a T-dimensional vector as shown in the following equation (1).

Figure 2015207038
Figure 2015207038

なお、式(1)において下付きのtは時刻を表し、上付きのtは転置を示す数学記号である(以下の各式においても同様)。この式(1)の右辺において、例えばx i,1は、被験者iが映像コンテンツ視聴中に、計測チャンネルcにおいて最初に計測された生体信号である。 In the equation (1), the subscript t represents time, and the superscript t is a mathematical symbol indicating transposition (the same applies to the following equations). In the right side of the equation (1), for example, x ci , 1 is a biological signal first measured in the measurement channel c while the subject i is viewing the video content.

また、生体信号類似度算出手段107において計測チャンネルc毎に算出する被験者間の生体信号類似度行列M が次の式(2)の右辺に示すようなN×N次元の行列で表されるものと定義する。このとき、式(2)の右辺の行列のi行j列の成分(行列のij要素=M x,i,j)は、被験者iの計測チャンネルcについての生体信号ベクトルと、被験者jの計測チャンネルcについての生体信号ベクトルとの類似度となる。
例えばM x,1,N=M x,N,1である。したがって、生体信号類似度行列M は、N×N次元の対称行列となる。この対称行列の各対角成分(i=jとなる成分)はN個あるが、類似度を測る手段として相関係数を用いた場合、それぞれ同一人物の生体信号なので、すべて1となる。
The biological signal similarity matrix M c x between subjects calculated for each measurement channel c in the biological signal similarity calculation means 107 is represented by an N × N-dimensional matrix as shown on the right side of the following equation (2). It is defined as At this time, the i-row and j-column components of the matrix on the right side of Equation (2) (the ij element of the matrix = M c x, i, j ) are the biological signal vector for the measurement channel c of the subject i, and the subject j's It becomes the similarity with the biological signal vector for the measurement channel c.
For example, M c x, 1, N = M c x, N, 1 . Therefore, the biological signal similarity matrix M c x is an N × N-dimensional symmetric matrix. There are N diagonal components (i = j components) of this symmetric matrix, but when the correlation coefficient is used as a means for measuring the degree of similarity, all are 1 because they are biological signals of the same person.

Figure 2015207038
Figure 2015207038

さらに、被験者間の生体信号類似度行列のij要素M x,i,j(類似度)が、被験者iの計測チャンネルcについての生体信号ベクトルと、被験者jの計測チャンネルcについての生体信号ベクトルとの相関係数であるとすると、次の式(3a)の右辺で表すことができる。 Furthermore, the ij element M c x, i, j (similarity) of the biological signal similarity matrix between subjects is the biological signal vector for the measurement channel c of the subject i and the biological signal vector for the measurement channel c of the subject j. Is represented by the right side of the following equation (3a).

Figure 2015207038
Figure 2015207038

前記式(3a)の右辺の分母は、ベクトルのノルム同士の積を表す。前記式(3b)の左辺のベクトルは、右辺で定義されるように、式(1)に示すベクトルの全要素の平均値を各要素に持つベクトルであり、前記式(3c)の左辺のベクトルは、すべての要素が1であるT次元のベクトルである。   The denominator on the right side of the equation (3a) represents the product of vector norms. The vector on the left side of the equation (3b) is a vector having the average value of all the elements of the vector shown in the equation (1) in each element as defined on the right side, and the vector on the left side of the equation (3c) Is a T-dimensional vector in which all elements are 1.

この生体信号類似度算出手段107は、前記式(1)、式(2)、式(3a)、式(3b)及び式(3c)により算出した生体信号類似度行列M を類似度間マッピング算出手段109に出力する。なお、ここでは、被験者間の生体信号類似度として相関係数を用いたが、代わりに、ベクトル間の内積、コサイン距離等、他の類似度指標を用いても構わない。 The biological signal similarity calculating unit 107 uses the biological signal similarity matrix M c x calculated by the above formulas (1), (2), (3a), (3b), and (3c) as the similarity level. Output to the mapping calculation means 109. Here, the correlation coefficient is used as the biological signal similarity between subjects, but instead, other similarity indices such as inner product between vectors and cosine distance may be used.

<主観評価把握手段104>
主観評価把握手段104は、生体信号蓄積手段105に格納するM人(例えば10人)分の生体信号データに対応したM人の被験者が映像コンテンツを視聴した後に評価軸毎に回答したそれぞれの主観評価結果102のデータが入力されて主観評価結果102のデータから主観評価ベクトルを作成し、M人分の主観評価ベクトルを当該被験者の識別情報に対応付けて主観評価蓄積手段106に格納する。なお、後記するようにマッピング情報(対応関係)を求めるためにはN(N<M)人(例えば9人)分のデータを用いる。
<Subjective evaluation grasping means 104>
The subjective evaluation grasping means 104 is the subjective response to which each of the M subjects corresponding to the biological signal data for M persons (for example, 10 persons) stored in the biological signal storage means 105 responds for each evaluation axis after viewing the video content. Data of the evaluation result 102 is input, a subjective evaluation vector is created from the data of the subjective evaluation result 102, and the M subjective evaluation vectors are associated with the identification information of the subject and stored in the subjective evaluation accumulation means 106. As will be described later, in order to obtain mapping information (correspondence), data for N (N <M) people (for example, 9 people) is used.

主観評価把握手段104は、映像コンテンツに対する設問に対して、複数の被験者が回答した結果(入力された数値)を、例えば、キーボード、タッチパネル等の入力手段(不図示)を介して入力する。   The subjective evaluation grasping means 104 inputs the results (input numerical values) answered by a plurality of subjects in response to the question about the video content via input means (not shown) such as a keyboard and a touch panel.

主観評価把握手段104は、例えば、主観評価結果102において評価項目に対する評価値が、ある閾値を超えていれば1を、その閾値以下であれば0を与える。ここで閾値は、複数被験者から得た評価値の平均値を用いてもよい。したがって、各評価項目に対して1と0からなる数値が割り当てられ、評価項目数がNであれば、主観評価把握手段104は、N次元のベクトルを出力する。例えば、被験者iの主観評価ベクトルyは以下の式(4)に示すよう表される。このとき、各要素は0か1の値を取る。k番目の要素yi,kは評価項目kに対する回答を表す。 For example, the subjective evaluation grasping means 104 gives 1 if the evaluation value for the evaluation item in the subjective evaluation result 102 exceeds a certain threshold value, and gives 0 if the evaluation value is less than the threshold value. Here, an average value of evaluation values obtained from a plurality of subjects may be used as the threshold value. Therefore, if each evaluation item is assigned a numerical value of 1 and 0 and the number of evaluation items is N q , the subjective evaluation grasping means 104 outputs an N q -dimensional vector. For example, subjective evaluation vector y i of the subject i is expressed as shown in the following equation (4). At this time, each element takes a value of 0 or 1. The k-th element y i, k represents an answer to the evaluation item k.

Figure 2015207038
Figure 2015207038

この主観評価把握手段104は、式(4)に示した主観評価ベクトルを、主観評価蓄積手段106に書き込む。なお、0と1の代わりに、連続量を用いることも可能であり、設定したい主観評価方法に応じて、数値化の方法は変更可能である。   This subjective evaluation grasping means 104 writes the subjective evaluation vector shown in Expression (4) into the subjective evaluation accumulating means 106. Note that a continuous amount can be used instead of 0 and 1, and the quantification method can be changed according to the subjective evaluation method to be set.

<主観評価蓄積手段106>
主観評価蓄積手段106は、主観評価把握手段104で入力された評価結果データ(主観評価ベクトル)を記憶するものである。主観評価蓄積手段106は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。
この主観評価蓄積手段106には、評価結果データ(主観評価ベクトル)として、被験者iに対応付けられた前記式(4)に示した主観評価ベクトルが記憶される。なお、このとき、主観評価ベクトルは、対応する前処理済み生体信号(生体信号計測手段103の出力)と関連付けてあることとする。主観評価蓄積手段106に記憶された主観評価ベクトルは、主観評価類似度算出手段108、マッピング選択手段120及び主観評価類似度計算手段113によって参照される。
<Subjective evaluation accumulating means 106>
The subjective evaluation accumulating unit 106 stores the evaluation result data (subjective evaluation vector) input by the subjective evaluation grasping unit 104. The subjective evaluation accumulation means 106 can be configured by a general storage device such as a semiconductor memory or a hard disk.
The subjective evaluation accumulation means 106 stores the subjective evaluation vector shown in the equation (4) associated with the subject i as evaluation result data (subjective evaluation vector). At this time, it is assumed that the subjective evaluation vector is associated with the corresponding preprocessed biological signal (output of the biological signal measuring unit 103). The subjective evaluation vector stored in the subjective evaluation accumulation unit 106 is referred to by the subjective evaluation similarity calculation unit 108, the mapping selection unit 120, and the subjective evaluation similarity calculation unit 113.

<主観評価類似度算出手段108>
主観評価類似度算出手段108は、主観評価蓄積手段106に記憶されている同一映像コンテンツを視聴した複数の被験者の評価結果データ(主観評価ベクトル)について、被験者間の主観評価類似度を算出するものである。なお、被験者間の主観評価類似度においては、ある被験者aと他の被験者bとのペア以外に、被験者aと被験者aとのペア等(類似度行列の対角成分)も考慮する。
この主観評価類似度算出手段108は、生体信号のデータを用いたN(N<M)人の被験者についての複数の評価軸の全項目に関する評価結果データ(主観評価ベクトルy)を組み合わせてN×N個の被験者間の主観評価類似度を各要素とする主観評価類似度行列を算出する。
<Subjective evaluation similarity calculation means 108>
The subjective evaluation similarity calculating means 108 calculates the subjective evaluation similarity between subjects for the evaluation result data (subjective evaluation vectors) of a plurality of subjects who viewed the same video content stored in the subjective evaluation accumulating means 106. It is. In addition, in the subjective evaluation similarity between subjects, in addition to a pair of a subject a and another subject b, a pair of the subject a and the subject a (diagonal component of the similarity matrix) is also considered.
This subjective evaluation similarity calculation means 108 combines N (N <M) subjects using evaluation signal data (subjective evaluation vector y i ) for all items of a plurality of evaluation axes, and N A subjective evaluation similarity matrix having the subjective evaluation similarity among N subjects as each element is calculated.

具体的には、主観評価類似度算出手段108は、以下のようにして、主観評価類似度行列を算出する。主観評価類似度算出手段108において算出する被験者間の主観評価類似度行列(M)が、次の式(5)の右辺に示すようなN×N次元の行列で表されるものと定義する。このとき、式(5)の右辺の行列のi行j列の成分(行列のij要素=My,i,j)は、被験者iの主観評価ベクトルと、被験者jの主観評価ベクトルとの類似度となる。また、この行列の要素の間には、例えばMy,1,N=My,N,1等の関係がある。したがって、主観評価類似度行列MはN×N次元の対称行列となる。 Specifically, the subjective evaluation similarity calculation means 108 calculates a subjective evaluation similarity matrix as follows. The subjective evaluation similarity matrix (M y ) between subjects calculated by the subjective evaluation similarity calculation means 108 is defined as an N × N-dimensional matrix as shown on the right side of the following equation (5). . At this time, the i-row and j-column components of the matrix on the right side of Equation (5) (the ij element of the matrix = M y, i, j ) are similar to the subjective evaluation vector of the subject i and the subjective evaluation vector of the subject j Degree. In addition, there is a relationship such as My , 1, N = My , N, 1, etc. between the elements of this matrix. Thus, subjective evaluation similarity matrix M y becomes N × N dimensional symmetric matrix.

Figure 2015207038
Figure 2015207038

さらに、被験者間の主観評価類似度行列のij要素My,i,j(類似度)が、被験者iの主観評価ベクトルと、被験者jの主観評価ベクトルとのベクトル間の内積であるものとすると、ij要素My,i,jは、次の式(6)の右辺で表すことができる。 Furthermore, it is assumed that the ij element My , i, j (similarity) of the subjectivity evaluation similarity matrix between subjects is an inner product between the subject evaluation vector of subject i and the subject evaluation vector of subject j. , Ij element My , i, j can be expressed by the right side of the following equation (6).

Figure 2015207038
Figure 2015207038

この主観評価類似度算出手段108は、前記式(5)及び式(6)により算出した主観評価類似度行列Mを類似度間マッピング算出手段109に出力する。なお、ここでは、主観評価類似度算出手段108は、被験者間の主観評価類似度として、ベクトル間の内積を用いたが、コサイン距離等、他の類似度指標を用いても構わない。 This subjective assessment similarity calculation means 108 outputs the formula (5) and a subjective assessment similarity matrix M y calculated in the similarity between the map calculation unit 109 by the equation (6). Here, the subjective evaluation similarity calculation unit 108 uses the inner product between vectors as the subjective evaluation similarity between subjects, but other similarity indices such as a cosine distance may be used.

<類似度間マッピング算出手段109>
類似度間マッピング算出手段109は、生体信号類似度算出手段107で算出された被験者間の生体信号類似度と、主観評価類似度算出手段108で算出された被験者間の主観評価類似度とを関連付けるものである。
<Similarity Mapping Calculation Unit 109>
The similarity-to-similarity mapping calculation unit 109 associates the biological signal similarity between subjects calculated by the biological signal similarity calculation unit 107 and the subjective evaluation similarity between subjects calculated by the subjective evaluation similarity calculation unit 108. Is.

類似度間マッピング算出手段109は、マッピング情報として、生体信号類似度行列(M :前記式(2)参照)と、主観評価類似度行列(M:前記式(5)参照)と、を関連付けるN次元の縦ベクトルを要素に含む2つの行列からなるマッピング行列の組(W,V)を計測チャンネルc毎にそれぞれ求めてマッピング記憶手段110に格納する。
そのために、類似度間マッピング算出手段109は、生体信号類似度行列M と、主観評価類似度行列Mとから、以下の式(7)の関係を満たす第1重みベクトルw及び第2重みベクトルvを求める。なお、各重みベクトルw,vは共に、計測チャンネルcに対応するN次元の縦ベクトルである。
The similarity-to-similarity mapping calculation unit 109 includes, as mapping information, a biological signal similarity matrix (M c x : see the above equation (2)), a subjective evaluation similarity matrix (M y : see the above equation (5)), A mapping matrix set (W c , V c ) composed of two matrices including N-dimensional vertical vectors as elements is obtained for each measurement channel c and stored in the mapping storage means 110.
Therefore, the similarity between the map calculation unit 109, a biological signal similarity matrix M c x, and a subjective evaluation similarity matrix M y, first weight vector w c and a satisfy the following expression (7) Request 2 weight vector v c. Each of the weight vectors w c and v c is an N-dimensional vertical vector corresponding to the measurement channel c.

Figure 2015207038
Figure 2015207038

ここで、この式(7)が満たされる場合、相関係数が1となり、以下の式(8)も満たされることがある。   Here, when this equation (7) is satisfied, the correlation coefficient is 1, and the following equation (8) may also be satisfied.

Figure 2015207038
Figure 2015207038

ここで、式(8)の左辺の分母に記載されたそれぞれのノルムを定数であるものとする。そして、この定数を例えば1とすれば、式(8)は、以下の式(9)に置き換えることができる。   Here, it is assumed that each norm written in the denominator on the left side of the equation (8) is a constant. If this constant is set to 1, for example, Expression (8) can be replaced with Expression (9) below.

Figure 2015207038
Figure 2015207038

ここで、生体信号類似度行列M には、生体信号101の測定に伴って測定誤差が含まれており、また、主観評価類似度行列Mには、主観評価結果102の把握に伴って誤差が含まれているため、この式(9)の左辺の演算結果が1と等しくなるような第1及び第2重みベクトルw,vをそれぞれ求めることは困難である。そこで、類似度間マッピング算出手段109は、式(9)の左辺の演算結果を最大化するような第1及び第2重みベクトルw,vをそれぞれ求める。 Here, the biological signal similarity matrix M c x, with the measurement of the biological signal 101 includes a measurement error, also, the subjective evaluation similarity matrix M y, with the understanding of the subjective evaluation results 102 Therefore, it is difficult to obtain the first and second weight vectors w c and v c so that the calculation result on the left side of the equation (9) is equal to 1. Therefore, the similarity-to-similarity mapping calculation unit 109 obtains first and second weight vectors w c and v c that maximize the calculation result on the left side of Equation (9).

ここでは、類似度間マッピング算出手段109は、計測チャンネルc毎の生体信号類似度行列M とN次元の縦ベクトルである未知の第1重みベクトルwとの積である第1ベクトル(M )と、主観評価類似度行列MとN次元の縦ベクトルである未知の第2重みベクトルvとの積である第2ベクトル(M)と、の内積(M t(M)が、第1ベクトル(M )及び第2ベクトル(M)のノルムを予め定めた定数とする制約条件のもとで最大となる第1重みベクトルw及び第2重みベクトルvを、マッピング行列W,Vの列の要素として算出する。なお、マッピング行列の組(W,V)は、計測チャンネルc毎に求められる。 Here, the similarity-to-similarity mapping calculation unit 109 calculates a first vector (which is a product of the biological signal similarity matrix M c x for each measurement channel c and an unknown first weight vector w c which is an N-dimensional vertical vector. and M c x w c), and the second vector is the product of the unknown second weight vector v c is the column vector of subjective evaluation similarity matrix M y and N-dimensional (M y v c), the inner product ( M c x w c ) t (M y v c ) is under the constraint that the norm of the first vector (M c x w c ) and the second vector (M y v c ) is a predetermined constant. The maximum first weight vector w c and second weight vector v c are calculated as elements of columns of the mapping matrices W c and V c . A mapping matrix set (W c , V c ) is obtained for each measurement channel c.

すなわち、類似度間マッピング算出手段109は、以下の式(10a)及び式(10b)を満たす第1及び第2重みベクトルw,vをそれぞれ算出する。 That is, the similarity-to-similarity mapping calculation unit 109 calculates first and second weight vectors w c and v c that satisfy the following expressions (10a) and (10b), respectively.

Figure 2015207038
Figure 2015207038

この式(10a)及び式(10b)の最大化問題は、ラグランジュの未定定数法を用いて解くことができる。ここで、誤差関数(ラグランジアン)Lは、以下の式(11)で表される。なお、λとλは、未定乗数である。 The maximization problem of equations (10a) and (10b) can be solved using Lagrange's undetermined constant method. Here, the error function (Lagrangian) L is expressed by the following equation (11). Note that λ w and λ v are undetermined multipliers.

Figure 2015207038
Figure 2015207038

なお、生体信号101や主観評価結果102のデータの中にノイズや揺らぎが多く含まれていると、第1及び第2重みベクトルw,vのノルムが大きくなる傾向にある。そこで、ここでは、ノルムが過大にならないようにすることまで考慮した新たな誤差関数を定義する。そのため、誤差関数Lに、第1及び第2重みベクトルw,vのノルムに依存する2つの罰則項を追加して以下の式(12)に示す誤差関数L′を定義した。なお、式(12)の右辺のLは、式(11)で表される誤差関数である。 Incidentally, when the noise or fluctuation in the data of the biological signal 101 and subjective evaluation results 102 are abundant, tend to first and second weight vector w c, v norm of c increases. Therefore, here, a new error function is defined that takes into consideration that the norm does not become excessive. Therefore, two penalty terms depending on the norms of the first and second weight vectors w c and v c are added to the error function L to define an error function L ′ shown in the following equation (12). Note that L on the right side of Expression (12) is an error function represented by Expression (11).

Figure 2015207038
Figure 2015207038

ここで、パラメータρ,ρは、生体信号101や主観評価結果102のデータのノイズや揺らぎに対するぜい弱性を制御するためのパラメータであって、各データそれぞれに依存して予め設定しておく(ρ>0、ρ>0)。 Here, the parameters ρ w and ρ v are parameters for controlling the vulnerability to the noise and fluctuation of the data of the biological signal 101 and the subjective evaluation result 102, and are set in advance depending on each data. (Ρ w > 0, ρ v > 0).

式(11)及び式(12)をもとに、誤差関数L′を第1重みベクトルwで微分した結果を0とした式と、誤差関数L′を第2重みベクトルvで微分した結果を0とした式とを求めると、以下の式(13a)及び式(13b)に示す固有値問題に帰着することになる。 Based on the equation (11) and (12), 'and expressions results were differentiated in the first weight vector w c is 0, the error function L' error function L obtained by differentiating the second weight vector v c Obtaining an equation with a result of 0 results in the eigenvalue problem shown in the following equations (13a) and (13b).

Figure 2015207038
Figure 2015207038

式(13a)及び式(13b)において、IはN×N次元の単位行列を示す。また、固有値λ及びパラメータr,rは、r=ρ/λ、r=ρ/λ、4λλ=λの関係を満たす。この式(13a)及び式(13b)の導出については、後で説明を行う。 In Expressions (13a) and (13b), I represents an N × N-dimensional unit matrix. In addition, the eigenvalue λ and the parameters r w and r v satisfy the relationship r w = ρ w / λ w , r v = ρ v / λ v , 4λ w λ v = λ 2 . The derivation of the equations (13a) and (13b) will be described later.

なお、ここでは、式(12)に示す誤差関数L′において、パラメータρ,ρを予め設定したが、パラメータρ,ρを設定する代わりに、パラメータr,rを予め設定することとしてもよい(例えば、r=1、r=1)。 Here, set in the error function L 'shown in Equation (12), the parameter [rho w, was previously set [rho v, instead of setting the parameters [rho w, [rho v, the parameter r w, the r v advance (E.g., r w = 1, r v = 1).

前記式(13a)及び式(13b)の固有値問題を解くことで、第1及び第2重みベクトルw,v及び固有値λを定めることができる。
ただし、第1及び第2重みベクトルw,vは固有ベクトルでもあり、通常、固有値λの個数だけ複数定まる。そこで、類似度間マッピング算出手段109は、固有値λを大きい順から予め定めた個数(ここでは、P個)選択し、対応する固有ベクトルとして第1重みベクトルwと第2重みベクトルvとの組を、選択した固有値λの個数と同じ個数だけ、つまりPペア定め、Pペアのベクトルから、マッピング情報として、以下の式(14a)及び式(14b)に示すような異なる2つのマッピング行列の組(W,V)を生成する。
By solving the eigenvalue problem of the equations (13a) and (13b), the first and second weight vectors w c and v c and the eigenvalue λ can be determined.
However, the first and second weight vectors w c and v c are also eigenvectors, and usually a plurality of weight vectors are determined by the number of eigenvalues λ. Therefore, the similarity-to-similarity mapping calculation unit 109 selects a predetermined number (here, P) of eigenvalues λ in descending order, and sets the first weight vector w c and the second weight vector v c as corresponding eigenvectors. As many pairs as the number of selected eigenvalues λ, that is, P pairs are determined, and P pair vectors are used as mapping information to obtain two different mapping matrices as shown in the following equations (14a) and (14b). A set (W c , V c ) is generated.

Figure 2015207038
Figure 2015207038

これによって、計測チャンネルcについての生体信号類似度行列M (前記式(2)参照)と、主観評価類似度行列M(前記式(5)参照)とは、以下の式(15)に示すように、前記式(14a)及び式(14b)のマッピング行列W,VによってP次元空間を介して関連付けることができる。 As a result, the biological signal similarity matrix M c x (see the equation (2)) and the subjective evaluation similarity matrix M y (see the equation (5)) for the measurement channel c are expressed by the following equation (15): As shown in FIG. 5, the mapping matrixes W c and V c in the equations (14a) and (14b) can be associated through the P-dimensional space.

Figure 2015207038
Figure 2015207038

この類似度間マッピング算出手段109は、すべての計測チャンネルcについてマッピング情報(マッピング行列の組(W,V))を算出し、マッピング記憶手段110に書き込む。 This similarity-to-similarity mapping calculation unit 109 calculates mapping information (a set of mapping matrices (W c , V c )) for all measurement channels c and writes the mapping information to the mapping storage unit 110.

<マッピング記憶手段110>
マッピング記憶手段110は、類似度間マッピング算出手段109で計測チャンネルc毎に算出されたマッピング情報(マッピング行列の組(W,V))を記憶するものである。マッピング記憶手段110は、半導体メモリ、ハードディスク等の一般的な記憶装置で構成することができる。このマッピング記憶手段110に記憶されたマッピング情報は、マッピング選択手段120によって参照される。なお、マッピング記憶手段110は、映像評価装置100が情報を書き込んだり参照したりすることが可能であれば、映像評価装置100の外部に設けてもよい。
<Mapping storage means 110>
The mapping storage means 110 stores the mapping information (mapping matrix set (W c , V c )) calculated for each measurement channel c by the similarity mapping calculation means 109. The mapping storage unit 110 can be configured by a general storage device such as a semiconductor memory or a hard disk. The mapping information stored in the mapping storage unit 110 is referred to by the mapping selection unit 120. Note that the mapping storage unit 110 may be provided outside the video evaluation apparatus 100 as long as the video evaluation apparatus 100 can write and reference information.

<マッピング選択手段120>
マッピング選択手段120は、マッピング記憶手段110から、少なくとも1つの計測チャンネルC(∈c)を選択すると共に当該計測チャンネルについてのマッピング情報(マッピング行列の組(W,V))を選択するものである。
<Mapping selection means 120>
The mapping selection unit 120 selects at least one measurement channel C (εc) from the mapping storage unit 110 and selects mapping information (a set of mapping matrices (W C , V C )) for the measurement channel. It is.

マッピング選択手段120は、生体信号を計測した計測チャンネルのうち、主観評価の設問に対する回答(評価結果データ)と関連性の深い計測チャンネルを選択する。このために、マッピング選択手段120は、類似度間マッピング算出手段109で求められた複数のマッピング行列の組(W,V)と、複数のマッピング行列の組を求める際に使用していない他の被験者の生体信号のデータx 及び評価結果データyと、を用いて、予測精度が所定の基準を満たす少なくとも1つの計測チャンネルC(C∈c)を決定し、当該決定した計測チャンネルCについてのマッピング行列の組(W,V)を選択する。
なお、計測チャンネルcが例えば1万個であれば、そのうちの例えば100個が計測チャンネルCとして選択されるようにしてもよい。
The mapping selection unit 120 selects a measurement channel that is closely related to an answer to the subjective evaluation question (evaluation result data) from the measurement channels in which the biological signal is measured. For this reason, the mapping selection unit 120 is not used when obtaining a plurality of mapping matrix sets (W c , V c ) obtained by the similarity mapping calculation unit 109 and a plurality of mapping matrix sets. Using at least one measurement channel C (Cεc) whose prediction accuracy satisfies a predetermined standard, using biological signal data x c i of other subjects and evaluation result data y i , the determined measurement A set of mapping matrices (W C , V C ) for channel C is selected.
For example, if the number of measurement channels c is 10,000, for example, 100 of them may be selected as the measurement channels C.

ここでは、マッピング選択手段120は、生体信号類似度算出手段121と、主観評価類似度算出手段122と、誤差算出手段123と、チャンネル特定手段124と、を備える。   Here, the mapping selecting unit 120 includes a biological signal similarity calculating unit 121, a subjective evaluation similarity calculating unit 122, an error calculating unit 123, and a channel specifying unit 124.

≪生体信号類似度算出手段121≫
生体信号類似度算出手段121は、マッピング行列の推定に用いたN人のグループGaに属する被験者i(i=1,2,…,N)と、マッピング行列の推定に用いていない(M−N)人のグループGbに属する被験者j(k=N+1,N+2,…,M)との間で被験者間の生体信号類似度を算出するものである。
ここで、生体信号類似度算出手段121は、計測チャンネルc毎に、生体信号蓄積手段105に記憶されている生体信号データ(生体信号ベクトル)を参照して、N人のグループGaに属する被験者i(i=1,2,…,N)の生体信号ベクトルx と、(M−N)人のグループGbに属する被験者j(j=N+1,N+2,…,M)の生体信号ベクトルx との相関係数として、前記式(3a)のM x,i,jを算出する。なお、類似度は、ベクトルの内積、コサイン距離等、他の類似度指標を用いても構わない。
<< Biological signal similarity calculation means 121 >>
The biological signal similarity calculation unit 121 does not use the subject i (i = 1, 2,..., N) belonging to the N groups Ga used for estimating the mapping matrix and the mapping matrix (MN). ) The biological signal similarity between subjects is calculated with subjects j (k = N + 1, N + 2,..., M) belonging to the group Gb of people.
Here, the biological signal similarity calculating unit 121 refers to the biological signal data (biological signal vector) stored in the biological signal storage unit 105 for each measurement channel c, and the subjects i belonging to the group Ga of N persons. (i = 1,2, ..., N ) and the biological signal vector x c i of, (M-N) belonging to the group Gb human subjects j (j = N + 1, N + 2, ..., M) biological signal vector x c of As a correlation coefficient with j , M c x, i, j in the equation (3a) is calculated. The similarity may be another similarity index such as an inner product of vectors, a cosine distance, or the like.

そして、生体信号類似度算出手段121は、N人のグループGaに属する被験者iと、(M−N)人のグループGbに属する被験者jとの間の類似度(相関係数M x,i,j)を要素とする以下の式(16)に示す生体信号類似度行列M′ (第2生体信号類似度行列)を計測チャンネルc毎に算出し、この生体信号類似度行列M′ を誤差算出手段123に出力する。なお、生体信号類似度行列M′ は正方行列ではなく、(M−N)×N行列である。 Then, the biological signal similarity calculation unit 121 calculates the similarity (correlation coefficient M c x, i ) between the subject i belonging to the N group Ga and the subject j belonging to the (MN) group Gb. , J ) as a component, a biological signal similarity matrix M ′ c x (second biological signal similarity matrix) represented by the following expression (16) is calculated for each measurement channel c, and this biological signal similarity matrix M ′ is calculated. c x is output to the error calculation means 123. The biological signal similarity matrix M ′ c x is not a square matrix but an (MN) × N matrix.

Figure 2015207038
Figure 2015207038

≪主観評価類似度算出手段122≫
主観評価類似度算出手段122は、前記マッピング行列の推定に用いたN人のグループGaに属する被験者i(i=1,2,…,N)と、前記マッピング行列の推定に用いていない(M−N)人のグループGbに属する被験者j(k=N+1,N+2,…,M)との間で被験者間の主観評価類似度を算出するものである。
<< Subjective evaluation similarity calculation means 122 >>
The subjective evaluation similarity calculation means 122 does not use the subjects i (i = 1, 2,..., N) belonging to the N groups Ga used for the mapping matrix estimation and the mapping matrix estimation (M -N) Subjective evaluation similarity between subjects is calculated among subjects j (k = N + 1, N + 2,..., M) belonging to a group Gb of people.

主観評価類似度算出手段122は、主観評価蓄積手段106に記憶されている評価結果データ(主観評価ベクトル)を参照して、N人のグループGaに属する被験者i(i=N+1,N+2,…,M)の主観評価ベクトルyと、(M−N)人のグループGbに属する被験者j(j=N+1,N+2,…,M)の主観評価ベクトルyとの類似度を、前記式(6)に示すように、ベクトル間の内積My,i,jにより算出する。なお、この類似度は、コサイン距離等、他の類似度指標を用いても構わない。 The subjective evaluation similarity calculating unit 122 refers to the evaluation result data (subjective evaluation vector) stored in the subjective evaluation accumulating unit 106, and subjects i (i = N + 1, N + 2,...) Belonging to N groups Ga. subjective evaluation vector y i of M), a similarity between the subjective evaluation vector y j of (M-N) human group Gb belonging subject j (j = N + 1, N + 2, ..., M), the equation (6 ), The inner product My , i, j between the vectors is calculated. For the similarity, another similarity index such as a cosine distance may be used.

そして、主観評価類似度算出手段122は、N人のグループGaに属する被験者iと、(M−N)人のグループGbに属する被験者jとの間の主観評価類似度My,i,jを要素とする以下の式(17)に示す主観評価類似度行列M′(第2主観評価類似度行列)を算出し、主観評価類似度行列M′を誤差算出手段123に出力する。なお、主観評価類似度行列M′は正方行列ではなく、(M−N)×N行列である。 Then, the subjective evaluation similarity calculating means 122 calculates the subjective evaluation similarity My , i, j between the subject i belonging to the N group Ga and the subject j belonging to the (MN) group Gb. A subjective evaluation similarity matrix M ′ y (second subjective evaluation similarity matrix) represented by the following expression (17) as elements is calculated, and the subjective evaluation similarity matrix M ′ y is output to the error calculation means 123. Note that the subjective evaluation similarity matrix M ′ y is not a square matrix but an (MN) × N matrix.

Figure 2015207038
Figure 2015207038

≪誤差算出手段123≫
誤差算出手段123は、生体信号類似度算出手段121で算出された計測チャンネルc毎の生体信号類似度行列M′ と、主観評価類似度算出手段122で算出された主観評価類似度行列M′とに、マッピング記憶手段110に記憶されているマッピング情報(N×P行列の行列W,V)を適用して、計測チャンネルc毎の予測誤差を算出するものである。ここでは、以下の式(18)に示す予測誤差Eを定義した。
<< Error calculation means 123 >>
The error calculation means 123 includes a biological signal similarity matrix M ′ c x for each measurement channel c calculated by the biological signal similarity calculation means 121 and a subjective evaluation similarity matrix M calculated by the subjective evaluation similarity calculation means 122. The mapping error (matrix W c , V c of N × P matrix) stored in the mapping storage means 110 is applied to ′ y to calculate the prediction error for each measurement channel c. Here, the prediction error E shown in the following equation (18) is defined.

Figure 2015207038
Figure 2015207038

この誤差算出手段123は、計測チャンネルc毎に、式(18)に示す予測誤差Eを算出し、算出した予測誤差Eを当該計測チャンネルcの識別番号と共にチャンネル特定手段124に出力する。   The error calculation means 123 calculates the prediction error E shown in the equation (18) for each measurement channel c, and outputs the calculated prediction error E to the channel specifying means 124 together with the identification number of the measurement channel c.

≪チャンネル特定手段124≫
チャンネル特定手段124は、誤差算出手段123で算出された予測誤差が小さい計測チャンネルを評価軸に対応するシーンを推定するために適した計測チャンネルC(∈c)であると特定するものである。
チャンネル特定手段124は、誤差算出手段123で算出された予測誤差Eが予め定めた閾値(例えば0.1)を下回る計測チャンネルを、主観評価の設問に対する回答(評価結果データ)と関連性の深い計測チャンネルCであると特定する。
なお、チャンネル特定手段124は、誤差の最も小さい計測チャンネルを1つ選択することとしてもよいし、予め定めた閾値を下回る複数の計測チャンネルを選択することとしてもよい。
<< Channel identification means 124 >>
The channel specifying unit 124 specifies a measurement channel with a small prediction error calculated by the error calculation unit 123 as a measurement channel C (εc) suitable for estimating a scene corresponding to the evaluation axis.
The channel specifying means 124 is closely related to the answer to the subjective evaluation question (evaluation result data) for the measurement channel in which the prediction error E calculated by the error calculating means 123 is lower than a predetermined threshold (for example, 0.1). The measurement channel C is specified.
Note that the channel specifying unit 124 may select one measurement channel with the smallest error, or may select a plurality of measurement channels below a predetermined threshold.

<主観評価ベクトル作成手段112>
主観評価ベクトル作成手段112は、所定の評価軸に対応するシーンを推定するために複数の評価軸のうち所定の評価軸における特定の評価項目の選択を受け付け、複数の評価軸の全項目のうち特定の評価項目だけが選択されたことを数値で表した主観評価ベクトルynewを作成するものである。
この主観評価ベクトル作成手段112は、主観評価把握手段104と同様の機能を有している。ただし、主観評価把握手段104は、被験者の回答結果(主観評価結果102)を入力として、評価軸の個数(設問数)がNであれば全ての評価軸について、評価レベルを数値化したN次元のベクトルとして前記式(4)の主観評価ベクトルyを生成する。一方、主観評価ベクトル作成手段112は、対応するシーンを推定するために評価軸選択111を入力する。ここで、評価軸選択111は、関連するシーンを同定するために選択した評価軸項目である。そして、主観評価ベクトル作成手段112は、特定の評価軸の特定の評価項目を1に、その他を0とした、次の式(19)に示すN次元のベクトルとして主観評価ベクトルynewを作成する。
<Subjective evaluation vector creation means 112>
Subjective evaluation vector creating means 112 accepts selection of a specific evaluation item on a predetermined evaluation axis among a plurality of evaluation axes in order to estimate a scene corresponding to the predetermined evaluation axis, and out of all items on the plurality of evaluation axes A subjective evaluation vector y new is generated that numerically represents that only a specific evaluation item has been selected.
This subjective evaluation vector creating means 112 has the same function as the subjective evaluation grasping means 104. However, subjective evaluation grasping unit 104 is input with the subject's answers (subjective evaluation result 102), the number of evaluation axes (questions number) for all the evaluation axis if N q, by digitizing the evaluation level N The subjective evaluation vector y i of the equation (4) is generated as a q- dimensional vector. On the other hand, the subjective evaluation vector creating means 112 inputs an evaluation axis selection 111 in order to estimate a corresponding scene. Here, the evaluation axis selection 111 is an evaluation axis item selected for identifying a related scene. Then, the subjective evaluation vector creating means 112 creates a subjective evaluation vector y new as an N q- dimensional vector shown in the following formula (19), where 1 is a specific evaluation item of a specific evaluation axis and 0 is the others. To do.

Figure 2015207038
Figure 2015207038

式(19)の右辺で、ynew,1,…,ynew,Nqのいずれか1つの要素の値が1であり、他の要素の値はすべて0である。
この主観評価ベクトル作成手段112は、作成した主観評価ベクトルynewを、主観評価類似度計算手段113に出力する。
On the right side of equation (19), the value of any one element of y new, 1 ,..., Y new, Nq is 1, and the values of the other elements are all 0.
The subjective evaluation vector creating unit 112 outputs the created subjective evaluation vector y new to the subjective evaluation similarity calculating unit 113.

<主観評価類似度計算手段113>
主観評価類似度計算手段113は、主観評価ベクトル作成手段112で作成された主観評価ベクトルynewと、主観評価蓄積手段106に記憶されているN(N<M)人の被験者の主観評価ベクトルyとの類似度を計算してN次元のベクトルからなる主観評価類似度ベクトルsを算出するものである。なお、主観評価蓄積手段106に記憶されている主観評価ベクトルyは、複数の評価軸の全項目に関する評価結果データである。
<Subjective evaluation similarity calculation means 113>
The subjective evaluation similarity calculation unit 113 includes the subjective evaluation vector y new generated by the subjective evaluation vector generation unit 112 and the subjective evaluation vector y of N (N <M) subjects stored in the subjective evaluation storage unit 106. by calculating the similarity between i and calculates a subjective assessment similarity vector s y consisting of an N-dimensional vector. The subjective evaluation vector y i stored in the subjective evaluation accumulating means 106 is evaluation result data regarding all items of a plurality of evaluation axes.

このとき、主観評価ベクトルynewと、主観評価蓄積手段106に記憶されているN人の被験者の主観評価ベクトルy(i=1〜N)(前記式(4)参照)との類似度は、以下の式(20)に示すようにN次元の類似度ベクトルsとして表すことができる。 At this time, the similarity between the subjective evaluation vector y new and the subjective evaluation vectors y i (i = 1 to N) of N subjects stored in the subjective evaluation accumulating means 106 (see the above equation (4)) is can be represented as a similarity vector s y N-dimensional as shown in the following equation (20).

Figure 2015207038
Figure 2015207038

<主観評価対応シーン推定手段114>
主観評価対応シーン推定手段114は、N人の被験者それぞれの時系列の生体信号のデータである行列と予測する時系列の生体信号を各要素とする未知のベクトル(xnew :式(23))との積であるN次元のベクトルからなる生体信号類似度ベクトル(s :式(22))と、特定の評価項目だけが選択された主観評価ベクトル(ynew:式(19))から得られた主観評価類似度ベクトル(s:式(20))とを、マッピング選択手段120で選択された計測チャンネルCについてのマッピング情報で関係付ける関係式(式(24))が成り立つように未知のベクトルx newの各要素を決定する演算を行うことで生体信号の時系列の推定値を求め、評価軸選択111における評価に寄与したシーンとして、求めた生体信号の時系列の推定値に対応する映像のシーンを決定するものである。
<Subjective evaluation corresponding scene estimation means 114>
Subjective evaluation corresponding scene estimation means 114 is an unknown vector (x new c : expression (23)) having a matrix that is data of time-series biosignals of each of N subjects and a predicted time-series biosignal as elements. ) And a biological signal similarity vector (s c x : expression (22)) consisting of an N-dimensional vector and a subjective evaluation vector (y new : expression (19)) in which only a specific evaluation item is selected The relational expression (Expression (24)) that relates the subjective evaluation similarity vector (s y : Expression (20)) obtained from the above with the mapping information for the measurement channel C selected by the mapping selection means 120 is established. obtains the estimated value of the time series of the biological signal by performing a calculation to determine the elements of the unknown vector x C new new to, as the scene that has contributed to the evaluation in the evaluation axis selected 111 was obtained It is to determine the scene of the image corresponding to the estimated value of the time series of body signals.

例えばある被験者i及び選択されたマッピング行列(即ち選択された計測チャンネルC∈c)に対応する時系列の生体信号(元の生体信号ベクトル)x において、M個存在する個々のベクトル要素の各値から、M個の要素の平均値をそれぞれ差し引いた値を要素に持つベクトルを生成し、その生成したベクトルのノルムを1とする正規化を行うことで、正規化済みの生体信号データを次の式(21)で定義する。同様にしてN人の被験者iの正規化済みの生体信号データを生成する。 For example, in a time-series biological signal (original biological signal vector) x C i corresponding to a subject i and a selected mapping matrix (that is, a selected measurement channel Cεc), M individual vector elements are present. By generating a vector having the value obtained by subtracting the average value of M elements from each value, and normalizing the generated vector with a norm of 1, the normalized biological signal data is obtained. It is defined by the following formula (21). Similarly, normalized biological signal data of N subjects i is generated.

Figure 2015207038
Figure 2015207038

式(21)で表される正規化済みの生体信号データは、元の生体信号ベクトルx と同様にT次元の縦ベクトルである。このとき、N列の行列において、i列目の要素として、被験者iの正規化済みの生体信号データ(T次元縦ベクトル)を有する行列を想定し、この行列に関する転置行列に対して、推定しようとする未知のT次元ベクトルを右から掛けた結果として生成されるN次元の縦ベクトルを、生体信号類似度ベクトルs として、次の式(22)のようにおく。 Normalized biosignal data represented by the formula (21) is a column vector Similarly T dimension and original biological signal vector x C i. At this time, in a matrix of N columns, a matrix having normalized biological signal data (T-dimensional vertical vector) of subject i is assumed as an i-th column element, and the transposed matrix related to this matrix will be estimated. An N-dimensional vertical vector generated as a result of multiplying an unknown T-dimensional vector from the right is set as a biological signal similarity vector s C x as shown in the following equation (22).

Figure 2015207038
Figure 2015207038

ここでx newは、未知のT次元ベクトルであって、選択された計測チャンネルC(∈c)における時系列の生体信号を表す。生体信号x newは、評価軸選択111で選択した軸に関連する脳活動時系列データ(例えば図2に示す特徴的脳活動の時間変化α,β,γ,δのいずれか)に相当する。この時系列の生体信号x newは、以下の式(23)のベクトルで表すことができる。 Here, x C new is an unknown T-dimensional vector and represents a time-series biological signal in the selected measurement channel C (εc). The biological signal x C new corresponds to the brain activity time-series data related to the axis selected in the evaluation axis selection 111 (for example, any one of the time changes α, β, γ, and δ of the characteristic brain activity shown in FIG. 2). . This time-series biological signal x C new can be expressed by a vector of the following equation (23).

Figure 2015207038
Figure 2015207038

なお、マッピング記憶手段110には、計測チャンネルc毎のマッピング行列の組(W,V)(式(14a)及び式(14b)参照)が記憶されており、マッピング行列の組により生体信号類似度と主観評価類似度とが関連付けられている。そこで、主観評価類似度計算手段113で算出された主観評価のN次元の類似度ベクトルs(式(20)参照)と、前記式(22)の生体信号類似度ベクトルs とは、以下の式(24)に示す関係を有する。なお、Cは、マッピング選択手段120で選択された計測チャンネルを示す。それらを利用すると、生体信号類似度ベクトルs と、主観評価類似度ベクトルsとは、以下の式(24)で関連付けて表すことができる。 The mapping storage means 110 stores a mapping matrix set (W c , V c ) (see equations (14a) and (14b)) for each measurement channel c. Similarity and subjective evaluation similarity are associated with each other. Therefore, the subjective evaluation N-dimensional similarity vector s y (see formula (20)) calculated by the subjective evaluation similarity calculation means 113 and the biological signal similarity vector s C x in formula (22) are: It has the relationship shown in the following formula (24). C represents the measurement channel selected by the mapping selection means 120. When they are used, the biological signal similarity vector s C x and the subjective evaluation similarity vector s y can be expressed in association with each other by the following equation (24).

Figure 2015207038
Figure 2015207038

そこで、主観評価対応シーン推定手段114は、この式(24)が成り立つような、計測チャンネルCにおける時系列の生体信号x newを脳活動時系列データの推定値として算出する。すなわち、主観評価対応シーン推定手段114は、選択されたマッピング行列(選択された計測チャンネルC)に対応する生体信号データ(生体信号ベクトル)x newのうちで、以下の式(25)を満たす生体信号ベクトルを推定値x^ newとして算出する。 Therefore, the subjective evaluation corresponding scene estimation unit 114 calculates a time-series biological signal x C new in the measurement channel C such that the expression (24) is satisfied as an estimated value of the brain activity time-series data. That is, the subjective evaluation corresponding scene estimation unit 114 satisfies the following expression (25) among the biological signal data (biological signal vector) x C new corresponding to the selected mapping matrix (selected measurement channel C). calculating a biological signal vector as an estimate x ^ C new.

Figure 2015207038
Figure 2015207038

なお、この式(25)の解法は種々存在するが、例えば、主観評価対応シーン推定手段114は、生体信号ベクトルx newのすべての値の組み合わせに対して、前記式(22)により類似度ベクトルs を生成し、式(25)の右辺のノルムの二乗が最小となる生体信号データ(生体信号ベクトル)x newを推定値x^ newとすればよい。
なお、すべての値の組み合わせを挙げることが困難な場合もある。そこで、主観評価対応シーン推定手段114は、前記式(25)を最小二乗法で解いた以下の式(26)を用いて推定値x^ newを算出してもよい。
There are various methods for solving the equation (25). For example, the subjective evaluation corresponding scene estimation unit 114 determines the similarity according to the equation (22) for all combinations of values of the biological signal vector x C new. The vector s C x is generated, and the biological signal data (biological signal vector) x C new that minimizes the square of the norm on the right side of Equation (25) may be used as the estimated value x ^ C new .
It may be difficult to list all combinations of values. Therefore, the subjective evaluation corresponding scene estimation unit 114 may calculate the estimated value x ^ C new using the following equation (26) obtained by solving the equation (25) by the least square method.

Figure 2015207038
Figure 2015207038

この式(26)において、選択された計測チャンネルCに関する行列Xは、正規化済みの生体信号データ(前記式(21)参照)をi列目に持つ行列を表す。また、行列Yは、主観評価ベクトルy(前記式(4)参照)をi列目に持つ行列を表す。なお、この式(26)の導出については、後で説明を行う。 In this formula (26), the matrix X ~ for the selected measurement channels C represents a matrix with normalized biometric signal data (the equation (21) refer) to the i-th column. The matrix Y represents a matrix having the subjective evaluation vector y i (refer to the equation (4)) in the i-th column. The derivation of this equation (26) will be described later.

このように、主観評価対応シーン推定手段114は、式(25)を満たす生体信号ベクトルの推定値x^ newを、評価軸に対応するシーン115として外部に出力する。 As described above, the subjective evaluation corresponding scene estimation unit 114 outputs the estimated value x ^ C new of the biological signal vector satisfying the expression (25) to the outside as the scene 115 corresponding to the evaluation axis.

生体信号ベクトルの推定値x^ newの各要素は、観測したものではないが、実測した生体信号と同様の時系列データとなっているため、映像コンテンツの各シーンとも対応付けることができる。
そこで、主観評価対応シーン推定手段114は、生体信号ベクトルの推定値x^ newのうち絶対値が所定の閾値を超えている時点に対応する映像のシーンを、評価軸選択111における特定の評価項目の評価に対して寄与が大きいシーンとして決定する。
本実施形態では、主観評価対応シーン推定手段114は、推定値x^ newの各要素の値が予め定めた閾値以上である場合には例えば1を割り当て、その閾値を下回る場合には例えば0を割り当てることとした。このようにすることで、要素の値が1以上となった当該要素に対応する映像コンテンツのシーンは、評価軸選択111で選択された評価軸に対応するシーンとなる。ここで、閾値は、生体信号ベクトルの推定値x^ newの各要素の平均値としてもよい。
Each element of the estimated value x ^ C new of the biological signal vector is not observed, but is time-series data similar to the measured biological signal, and can therefore be associated with each scene of the video content.
Therefore, the subjective evaluation corresponding scene estimation means 114 performs a specific evaluation in the evaluation axis selection 111 for a video scene corresponding to a time point when the absolute value of the estimated value x ^ C new of the biological signal vector exceeds a predetermined threshold. The scene is determined as having a large contribution to the evaluation of the item.
In this embodiment, the subjective evaluation corresponding scene estimation means 114 assigns, for example, 1 when the value of each element of the estimated value x ^ C new is equal to or greater than a predetermined threshold value, and 0 when the value is lower than the threshold value. Was assigned. By doing so, the scene of the video content corresponding to the element whose element value is 1 or more becomes the scene corresponding to the evaluation axis selected in the evaluation axis selection 111. Here, the threshold value may be an average value of each element of the estimated value x ^ C new of the biological signal vector.

さらに、閾値の個数は1つに限らず、例えば、主観評価対応シーン推定手段114は、生体信号ベクトルの推定値x^ newに対する閾値処理において、2つの閾値を設定し、第一閾値を超えた場合には1を割り当て、第二閾値を下回った場合には−1を割り当て、第二閾値以上第一閾値以下の場合には0を割り当てるように構成することもできる。
この場合、1が割り当てられたシーンは、評価軸において正の評価に貢献するシーン、−1が割り当てられたシーンは、同じ評価軸において負の評価に寄与するシーンとみなすことができる。第一閾値をth1、第二閾値をth2とすると、例えば、次の式(27a),式(27b)のように設定することができる。
Further, the number of threshold values is not limited to one. For example, the subjective evaluation corresponding scene estimation unit 114 sets two threshold values in the threshold processing for the estimated value x ^ C new of the biological signal vector, and exceeds the first threshold value. 1 may be assigned, -1 may be assigned if the second threshold value is exceeded, and 0 may be assigned if the second threshold value or more and the first threshold value or less.
In this case, a scene to which 1 is assigned can be regarded as a scene that contributes to a positive evaluation on the evaluation axis, and a scene to which -1 is assigned to a scene that contributes to a negative evaluation on the same evaluation axis. When the first threshold is th1 and the second threshold is th2, for example, the following equations (27a) and (27b) can be set.

Figure 2015207038
Figure 2015207038

ここで、式(27a)の右辺第1項及び式(27b)の右辺第1項は、生体信号ベクトルの推定値x^ newの全ベクトル要素の平均値を表す。また、max(x^ new)は推定値x^ newの全ベクトル要素のうちの最大値を示し、min(x^ new)は推定値x^ newの全ベクトル要素のうちの最小値を示す。a,bはパラメータであり、それぞれ正の実数である。例えば、a=b=0.2などを取る。 Here, the first term on the right side of equation (27a) the first term on the right side and formula (27b) represents the average value of the estimated value x ^ C new new total vector elements of the biological signal vector. The minimum of the max (x ^ C new) represents the maximum value of the total vector elements estimate x ^ C new, min (x ^ C new) All vector elements estimate x ^ C new new Indicates the value. a and b are parameters, each of which is a positive real number. For example, take a = b = 0.2.

なお、評価軸に対応するシーンは、選択された計測チャンネルC毎に得ることができる。最終的に、選択された計測チャンネルCの個数と同数の種類の生体信号ベクトルの推定値x^ newを平均したベクトルを求めたのち、上記閾値処理を行って、評価軸に対応するシーンの同定を行ってもよい。 A scene corresponding to the evaluation axis can be obtained for each selected measurement channel C. Finally, after obtaining a vector obtained by averaging estimated values x ^ C new of biological signal vectors of the same number as the number of selected measurement channels C, the above threshold processing is performed, and the scene corresponding to the evaluation axis is determined. Identification may be performed.

(式(13a)及び式(13b)の導出について)
類似度間マッピング算出手段109において、前記式(12)から、固有値問題となる前記式(13a)及び式(13b)を導出する手順について説明する。
まず、前記式(12)のL′を、以下の式(28)に示すようにwで微分し、0とおく。
(Regarding the derivation of Expression (13a) and Expression (13b))
A procedure for deriving the equations (13a) and (13b), which are eigenvalue problems, from the equation (12) in the similarity mapping calculation unit 109 will be described.
First, L ′ in the equation (12) is differentiated by w c as shown in the following equation (28) and set to 0.

Figure 2015207038
Figure 2015207038

ここで、M は対称行列であるため、M =M ctの関係がある。従って、この式(28)は、以下の式(29)に変形することができる。 Here, since M x c is a symmetric matrix, there is a relationship of M x c = M x ct . Therefore, this equation (28) can be transformed into the following equation (29).

Figure 2015207038
Figure 2015207038

ここで、IはN×N次元の単位行列を示す。
同様に、前記式(12)のL′を、以下の式(30)に示すようにvで微分し、0とおく。
Here, I represents an N × N-dimensional unit matrix.
Similarly, the L 'in the formula (12), differentiated by v c as shown in the following equation (30), put to zero.

Figure 2015207038
Figure 2015207038

ここで、Mは対称行列であるため、M=M の関係がある。従って、この式(30)は、以下の式(31)に変形することができる。 Since M y is a symmetric matrix, a relationship of M y = M y t. Therefore, this equation (30) can be transformed into the following equation (31).

Figure 2015207038
Figure 2015207038

さらに、この式(31)は、以下の式(32)に変形することができる。   Furthermore, this equation (31) can be transformed into the following equation (32).

Figure 2015207038
Figure 2015207038

このvを、前記式(29)に代入すると、以下の式(33)となる。 The v c, are substituted into the formula (29) by the following expression (33).

Figure 2015207038
Figure 2015207038

ここで、r=ρ/λ、r=ρ/λ、4λλ=λとおくと(すなわち、r=2ρ/λ、r=2ρ/λ)、前記式(32)及び式(33)から、前記式(13a)及び式(13b)を導出することができる。 Here, if r w = ρ w / λ w , r v = ρ v / λ v , 4λ w λ v = λ 2 (that is, r w = 2ρ w / λ, r v = 2ρ v / λ). From the equations (32) and (33), the equations (13a) and (13b) can be derived.

(式(26)の導出について)
主観評価対応シーン推定手段114において、生体信号データ(生体信号ベクトル)の推定値x^ newを算出するための前記式(26)の導出について以下説明する。
前記式(25)は、以下の式(34)に示すように変形することができる。
(Derivation of Equation (26))
Derivation of the equation (26) for calculating the estimated value x ^ C new of the biological signal data (biological signal vector) in the subjective evaluation corresponding scene estimation means 114 will be described below.
The equation (25) can be modified as shown in the following equation (34).

Figure 2015207038
Figure 2015207038

ここで、式(34)の右辺のノルムの二乗を、以下の式(35)に示すようにx newで微分し、0とおく。 Here, the square of the norm on the right side of the equation (34) is differentiated by x C new as shown in the following equation (35) and set to 0.

Figure 2015207038
Figure 2015207038

そして、この式(35)を以下の式(36)〜式(39)に示すように変形することで、前記式(26)を導出することができる。   Then, the equation (26) can be derived by modifying the equation (35) as shown in the following equations (36) to (39).

Figure 2015207038
Figure 2015207038

〔映像評価装置の動作〕
次に、図4を参照して、本発明の実施形態に係る映像評価装置100の動作について説明する。
[Operation of video evaluation system]
Next, the operation of the video evaluation apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

(学習段階の動作)
生体信号計測装置(不図示)は、映像コンテンツを視聴している複数の被験者から計測チャンネル毎に、視聴と同時に時系列の生体信号(生体信号)を測定する。
映像評価装置100は、外部に接続された生体信号計測装置(不図示)を介して、生体信号計測手段103に計測チャンネル毎の生体信号101が入力されると、生体信号計測手段103によって、所定の信号処理を施して生体信号データを作成(計測)し(ステップS1)、被験者と計測チャンネルとに対応付けて生体信号蓄積手段105に蓄積する(ステップS2)。
(Learning stage operation)
A biological signal measuring device (not shown) measures time-series biological signals (biological signals) simultaneously with viewing for each measurement channel from a plurality of subjects viewing video content.
When the biological signal 101 for each measurement channel is input to the biological signal measurement unit 103 via a biological signal measurement device (not shown) connected to the outside, the video evaluation device 100 performs predetermined processing by the biological signal measurement unit 103. The biological signal data is created (measured) by performing the signal processing (step S1), and stored in the biological signal storage means 105 in association with the subject and the measurement channel (step S2).

また、映像評価装置100は、主観評価把握手段104に、主観評価結果102(被験者が映像コンテンツ視聴後に当該映像コンテンツに対する主観評価を回答した結果)が入力されると、主観評価把握手段104によって、主観評価を数値化した主観評価ベクトルを生成(把握)し(ステップS3)、被験者に対応付けて主観評価蓄積手段106に蓄積する(ステップS4)。   Further, when the subjective evaluation result 102 (the result of the subject answering the subjective evaluation for the video content after viewing the video content) is input to the subjective evaluation grasping unit 104, the video evaluation device 100 causes the subjective evaluation grasping unit 104 to A subjective evaluation vector in which the subjective evaluation is digitized is generated (obtained) (step S3), and is stored in the subjective evaluation storage means 106 in association with the subject (step S4).

そして、映像評価装置100は、予め定めた被験者の数(M人)だけ、生体信号及び評価結果データを入力していなければ(ステップS5でNo)、ステップS1に戻って、動作を繰り返す。   Then, the video evaluation apparatus 100 returns to step S1 and repeats the operation if the biological signal and the evaluation result data are not input for the predetermined number of subjects (M) (No in step S5).

一方、予め定めた被験者の数(M人)だけ、生体信号及び評価結果データを入力した場合(ステップS5でYes)、映像評価装置100は、生体信号類似度算出手段107によって、ステップS2で記憶されたN(N<M)人の被験者の生体信号について、計測チャンネル毎に被験者間の生体信号類似度(生体信号類似度行列M 〔前記式(2)参照〕)を算出する(ステップS6)。 On the other hand, when the biological signal and the evaluation result data are input for the predetermined number of subjects (M) (Yes in Step S5), the video evaluation apparatus 100 stores the biological signal similarity calculation unit 107 in Step S2. With respect to the biosignals of N (N <M) subjects, the biosignal similarity between subjects (biological signal similarity matrix M c x [refer to the equation (2)]) is calculated for each measurement channel (step S6).

また、映像評価装置100は、主観評価類似度算出手段108によって、ステップS4で記憶されたN(N<M)人の被験者の評価結果データについて、被験者間の主観評価類似度(主観評価類似度行列M〔前記式(5)参照〕))を算出する(ステップS7)。 In addition, the video evaluation apparatus 100 uses the subjective evaluation similarity calculation unit 108 to evaluate the subjective evaluation similarity (subjective evaluation similarity) between the N (N <M) test subject evaluation results data stored in step S4. The matrix M y [see the above equation (5)])) is calculated (step S7).

そして、映像評価装置100は、類似度間マッピング算出手段109によって、ステップS6で算出された生体信号類似度行列と、ステップS7で算出された主観評価類似度行列とを関連付けるマッピング行列(類似度間マッピング)を算出する(ステップS8)。   Then, the video evaluation apparatus 100 uses a mapping matrix (similarity between similarities) that associates the biological signal similarity matrix calculated in step S6 with the subjective evaluation similarity matrix calculated in step S7 by the similarity mapping calculation unit 109. Mapping) is calculated (step S8).

ここでは、類似度間マッピング算出手段109は、前記式(10b)の制約条件のもとで前記式(10a)の最大化問題を解いて、計測チャンネルc毎に第1重みベクトルw及び第2重みベクトルvのペアを、複数(P個)算出する。そして、第1重みベクトルwを固有値の大きい順にP個並べてマッピング行列Wとなし、同様に、第2重みベクトルvを固有値の大きい順にP個並べてマッピング行列Vとする。そして、類似度間マッピング算出手段109は、計測チャンネルc毎のマッピング行列の組(W,V)をマッピング記憶手段110に書き込む。 Here, the similarity-to-similarity mapping calculation unit 109 solves the maximization problem of the equation (10a) under the constraint condition of the equation (10b), and calculates the first weight vector w c and the first weight vector for each measurement channel c. pairs 2 weight vector v c, a plurality (P-number) is calculated. Then, P first weight vectors w c are arranged in the descending order of eigenvalues to form a mapping matrix W c, and similarly, the second weight vectors v c are arranged in descending order of eigenvalues to form a mapping matrix V c . Then, the similarity mapping calculation unit 109 writes the mapping matrix set (W c , V c ) for each measurement channel c in the mapping storage unit 110.

そして、映像評価装置100は、マッピング選択手段120によって、少なくとも1つのマッピングを選択する(ステップS9)。すなわち、マッピング情報(計測チャンネルC(∈c)毎のマッピング行列の組(W,V))を選択する。これによって、映像評価装置100は、対象被験者の評価結果データを推定するために適した計測チャンネルCを選択することができる。 Then, the video evaluation apparatus 100 selects at least one mapping by the mapping selection unit 120 (step S9). That is, mapping information (a set of mapping matrices (W C , V C ) for each measurement channel C (εc)) is selected. Thereby, the video evaluation apparatus 100 can select the measurement channel C suitable for estimating the evaluation result data of the target subject.

(推定段階の動作)
関連するシーンを同定するために選択した評価軸項目、すなわち、図1に示す評価軸選択111を、推定処理の際に外部から入力する(ステップS111)。なお、推定処理の際に外部からその都度入力するのではなく、映像評価装置100の内部に予め記憶させておいたものの中から自動又は手動で選択するようにしてもよい。そして、映像評価装置100は、主観評価ベクトル作成手段112によって、評価軸選択111を数値化して主観評価ベクトルynewを作成する(ステップS112)。
(Estimation stage operation)
The evaluation axis item selected to identify the related scene, that is, the evaluation axis selection 111 shown in FIG. 1 is input from the outside during the estimation process (step S111). In addition, in the estimation process, instead of inputting each time from the outside, it may be automatically or manually selected from those stored in advance in the video evaluation apparatus 100. Then, the video evaluation apparatus 100 digitizes the evaluation axis selection 111 by the subjective evaluation vector creating means 112 to create the subjective evaluation vector y new (step S112).

そして、映像評価装置100は、主観評価類似度計算手段113によって、ステップS112で作成した主観評価ベクトルynewと、主観評価蓄積手段106に記憶されている被験者(1〜N)についての複数の評価軸の全項目に関する評価結果データy(i=1〜N)との類似度を計算し(ステップS113)、計算結果を要素とするN次元のベクトルからなる主観評価類似度ベクトルs(式(20))を求める。 Then, the video evaluation apparatus 100 uses the subjective evaluation similarity calculation unit 113 to perform a plurality of evaluations on the subjective evaluation vector y new created in step S112 and the subjects (1 to N) stored in the subjective evaluation storage unit 106. Similarity with evaluation result data y i (i = 1 to N) regarding all items on the axis is calculated (step S113), and subjective evaluation similarity vector s y (expression (20)) is obtained.

そして、映像評価装置100は、主観評価対応シーン推定手段114によって、計測チャンネルC毎のマッピング行列の組(W,V)に基づいて、生体信号蓄積手段105に記憶されている被験者の生体信号ベクトルx (i=1〜N)と、ステップS113で算出された主観評価類似度ベクトルsとから、選択された特定の評価項目の評価に対して寄与が大きいシーンを推定する(ステップS114)。 Then, the video evaluation apparatus 100 uses the subjective evaluation-corresponding scene estimation unit 114 based on the mapping matrix set (W C , V C ) for each measurement channel C and the biological body of the subject stored in the biological signal storage unit 105. a signal vector x C i (i = 1~N) , and a subjective evaluation similarity vector s y calculated in step S113, to estimate the contribution is large scene for the evaluation of the specific evaluation item selected ( Step S114).

ここでは、主観評価対応シーン推定手段114は、選択された計測チャンネルCにおいて予測する時系列の生体信号を各要素とする未知のベクトルをx newとし、生体信号蓄積手段105に記憶されている生体信号ベクトルx (i=1〜N)を正規化した前記式(21)で表される正規化済みの生体信号データとの類似度ベクトルs を前記式(22)とする。 Here, the subjective evaluation corresponding scene estimation unit 114 stores an unknown vector having each element of a time-series biological signal predicted in the selected measurement channel C as x C new and is stored in the biological signal storage unit 105. The similarity vector s C x with the normalized biological signal data represented by the equation (21) obtained by normalizing the biological signal vector x C i (i = 1 to N) is defined as the equation (22).

そして、主観評価対応シーン推定手段114は、計測チャンネルCに対応してマッピング記憶手段110に記憶されているマッピング行列から、前記式(24)を満たす生体信号ベクトルx newを、ステップS111で選択した評価軸選択111の評価に対して寄与が大きいシーンに対応した生体信号パターンx^ newであるものとして算出する。
これによって、映像評価装置100は、選択された特定の評価項目の評価に対して寄与が大きいシーンを推定することができる。
Then, the subjective evaluation corresponding scene estimation unit 114 selects a biological signal vector x C new satisfying the above equation (24) from the mapping matrix stored in the mapping storage unit 110 corresponding to the measurement channel C in step S111. The biological signal pattern x ^ C new corresponding to the scene having a large contribution to the evaluation of the evaluation axis selection 111 is calculated.
Thereby, the video evaluation apparatus 100 can estimate a scene that greatly contributes to the evaluation of the selected specific evaluation item.

以上説明したように、映像評価装置100は、複数の被験者間の生体信号類似度と、複数の被験者間の主観評価類似度とを関連付けるマッピング行列を予め推定しておくことで、選択された特定の評価項目の評価に対して寄与が大きいシーンを推定することができる。
映像評価装置100は、特にテレビ番組や映画等の映像コンテンツのどのようなシーンが視聴後に行った主観評価や印象評価に貢献したのかを推定することができる。
また、映像評価装置100は、特定の生体反応と主観評価とを関連付けるものではなく、つまり、信号強度がある閾値を超えたら正の評価をしたとみなすような特定のルールを設けるのではなく、同じ映像コンテンツを視聴した他者の生体信号時系列データと主観評価の類似度パターンとを関連付けるため、任意の映像コンテンツに対して適用が可能となる。
As described above, the video evaluation apparatus 100 selects the specified identification by preliminarily estimating the mapping matrix that associates the biological signal similarity between a plurality of subjects and the subjective evaluation similarity between the plurality of subjects. It is possible to estimate a scene that greatly contributes to the evaluation of the evaluation items.
The video evaluation apparatus 100 can estimate what scene of video content such as a TV program or a movie contributed to subjective evaluation and impression evaluation performed after viewing.
In addition, the video evaluation apparatus 100 does not associate a specific biological reaction with a subjective evaluation, that is, does not provide a specific rule that considers a positive evaluation when the signal intensity exceeds a certain threshold, Since the biological signal time-series data of another person who has watched the same video content is associated with the similarity pattern of subjective evaluation, it can be applied to any video content.

この映像評価装置100によれば、計測された生体信号及び回答された主観評価から、映像がどのように受容されているのかを評価することができる。
このように、映像評価装置100を用いることで、映像コンテンツ制作者は、映像コンテンツが視聴者に与える影響を客観的に把握し、映像コンテンツによる効果を定量的に評価することが可能になる。
さらに、映像評価装置100によれば、映像コンテンツが視聴者に与えた影響の客観把握が可能となることで、映像システムがその特長を効果的に発揮できるシーンがどのようなシーンであるのかを明らかにすることができる。
According to the video evaluation apparatus 100, it is possible to evaluate how the video is received from the measured biological signal and the answered subjective evaluation.
In this way, by using the video evaluation apparatus 100, the video content creator can objectively grasp the influence of the video content on the viewer and quantitatively evaluate the effect of the video content.
Furthermore, according to the video evaluation apparatus 100, it is possible to objectively grasp the influence of the video content on the viewer, so that what kind of scene the video system can effectively demonstrate its features is. Can be revealed.

なお、映像評価装置100は、コンピュータを、前記した構成の各手段として機能させるためのプログラム(映像評価プログラム)で動作させることができる。   The video evaluation apparatus 100 can be operated by a program (video evaluation program) for causing a computer to function as each unit having the above-described configuration.

<生体信号についての変形例>
前記実施形態では、一例として、生体信号が、機能的核磁気共鳴映像法(fMRI)による脳血中酸素量の計測データであるものとしたが、脳血中酸素量の計測データは、近赤外分光法(NIRS:Near Infrared Spectroscopy)によるものであってもよい。この場合、生体信号計測装置としてNIRS脳計測装置を用いることで、近赤外分光法(NIRS)により計測される近赤外光の吸収度合いを示すデータとして脳血中酸素量を取得することができる。
<Variation of biosignal>
In the above-described embodiment, as an example, the biological signal is the measurement data of the cerebral blood oxygen amount by functional nuclear magnetic resonance imaging (fMRI). It may be based on external spectroscopy (NIRS). In this case, by using the NIRS brain measurement device as the biological signal measurement device, it is possible to acquire the amount of oxygen in the brain blood as data indicating the degree of absorption of near infrared light measured by near infrared spectroscopy (NIRS). it can.

また、生体信号は、脳血中酸素量の計測データに限らず、例えば脳波(EEG:Electroencephalogram)のデータであってもよい。この場合、例えば、生体信号計測装置として脳波計を用いることで、被験者の頭皮上等に置いた電極で計測される電位データとして脳波を取得することができる。
また、例えば、生体信号として、近赤外分光法により計測されるデータや脳波を用いる場合、計測チャンネルは、被験者の頭表上に置かれるプローブ単位又は電極単位で表される脳の部位に相当する。
さらに、生体信号は、人体の体表温度の計測データであってもよい。例えば、生体信号計測装置としてサーモグラフィを用いることで、熱分布を示す画像データとして体表温度を取得することができる。
Further, the biological signal is not limited to the measurement data of the cerebral blood oxygen amount, but may be, for example, electroencephalogram (EEG) data. In this case, for example, by using an electroencephalograph as the biological signal measuring device, an electroencephalogram can be acquired as potential data measured by an electrode placed on the subject's scalp or the like.
In addition, for example, when data or brain waves measured by near infrared spectroscopy is used as a biological signal, the measurement channel corresponds to a portion of the brain expressed in probe units or electrode units placed on the subject's head surface. To do.
Furthermore, the biological signal may be measurement data of the body surface temperature of the human body. For example, the body surface temperature can be acquired as image data indicating the heat distribution by using thermography as the biological signal measuring device.

<マッピング情報の精度検証の変形例>
前記実施形態では、数式の説明の都合上、一例として、順序を考慮した1〜N番目までのN人のデータをマッピング推定に利用し、(N+1)番目からM番目までの(M−N)人のデータでマッピング情報の精度検証を行うものとしたが、これに限らず、交差検証(leave-one-out cross-validation)を行ってもよい。
例えば、生体信号類似度算出手段107は、M人からN人を選択する組み合わせを順次変えたそれぞれのデータセットでマッピングを推定することで、予測精度をより高めるようにしてもよい。主観評価類似度算出手段108も同様な処理を行い、生体信号類似度算出手段107において、M人からN人を選択するのと同じ組み合わせについて、被験者間で主観評価類似度を順次算出する。なお、あるNについて各類似度を算出した場合、そのNに対応する残りの(M−N)人分のデータはマッピング情報の精度を検証する際に用いられる。そして、マッピング記憶手段110には、異なる組み合わせの被験者(N人)毎に算出されたマッピング情報(マッピング行列の組(W,V))が記憶されることになる。
<Modification of accuracy verification of mapping information>
In the embodiment, for convenience of explanation of the mathematical formula, as an example, N-th data from 1 to Nth considering the order is used for mapping estimation, and (M + 1) from (N + 1) th to Mth (MN). Although the accuracy verification of mapping information is performed with human data, the present invention is not limited to this, and cross-validation (leave-one-out cross-validation) may be performed.
For example, the biological signal similarity calculation unit 107 may further improve the prediction accuracy by estimating the mapping with each data set in which the combination of selecting N people from M people is sequentially changed. The subjective evaluation similarity calculating unit 108 performs the same processing, and the biological signal similarity calculating unit 107 sequentially calculates the subjective evaluation similarity between subjects for the same combination as selecting N from M people. In addition, when each similarity degree is calculated about a certain N, the data for the remaining (MN) persons corresponding to the N are used when verifying the accuracy of the mapping information. The mapping storage means 110 stores mapping information (mapping matrix set (W c , V c )) calculated for each different combination of subjects (N persons).

また、同様に、マッピング選択手段120中の生体信号類似度算出手段121や主観評価類似度算出手段122も同様に交差検証を行い、誤差算出手段123は、十分な数の組み合わせ(例えば、100種類)のもとで、繰り返し計算を行ってもよい。なお、被験者の組み合わせが複数ある場合、誤差算出手段123は、それぞれの組み合わせに対する予測誤差Eを計算し、その平均を改めて予測誤差Eとする。このようにマッピング選択手段120は、種々のマッピング行列の組を検証し、精度が高いマッピング行列の組に対応する計測チャンネルを選択することによって、主観評価の評価軸に対応するシーンを機械学習によって推定するために適した計測チャンネル(生体信号)を精度よく推定することができる。   Similarly, the biological signal similarity calculation unit 121 and the subjective evaluation similarity calculation unit 122 in the mapping selection unit 120 perform cross-validation in the same manner, and the error calculation unit 123 has a sufficient number of combinations (for example, 100 types). ) May be repeated. When there are a plurality of combinations of subjects, the error calculation unit 123 calculates a prediction error E for each combination, and sets the average as the prediction error E again. As described above, the mapping selection unit 120 verifies various mapping matrix sets and selects a measurement channel corresponding to a mapping matrix set with high accuracy, thereby generating a scene corresponding to the evaluation axis of the subjective evaluation by machine learning. A measurement channel (biological signal) suitable for estimation can be accurately estimated.

100 映像評価装置
103 生体信号計測手段
105 生体信号蓄積手段
107 生体信号類似度算出手段
104 主観評価把握手段
106 主観評価蓄積手段
108 主観評価類似度算出手段
109 類似度間マッピング算出手段
110 マッピング記憶手段
112 主観評価ベクトル作成手段
113 主観評価類似度計算手段
114 主観評価対応シーン推定手段
120 マッピング選択手段
121 生体信号類似度算出手段
122 主観評価類似度算出手段
123 誤差算出手段
124 チャンネル特定手段
DESCRIPTION OF SYMBOLS 100 Image | video evaluation apparatus 103 Biosignal measuring means 105 Biosignal storage means 107 Biosignal similarity calculation means 104 Subjective evaluation grasping means 106 Subjective evaluation accumulation means 108 Subjective evaluation similarity calculation means 109 Inter-similarity mapping calculation means 110 Mapping storage means 112 Subjective evaluation vector creation means 113 Subjective evaluation similarity calculation means 114 Subjective evaluation corresponding scene estimation means 120 Mapping selection means 121 Biosignal similarity calculation means 122 Subjective evaluation similarity calculation means 123 Error calculation means 124 Channel identification means

Claims (6)

映像システムで提示する映像コンテンツを視聴中の複数の被験者より身体のいずれかの部位を示す複数の計測チャンネル毎に同時に測定した時系列の各被験者の生体信号のデータと、前記複数の被験者が複数の評価軸を用いて当該映像コンテンツを主観評価した回答である各被験者の評価結果データとに基づいて、所定の評価軸における評価に寄与した映像コンテンツのシーンを推定することで前記映像システムを評価する映像評価装置であって、
所定の評価軸に対応するシーンを推定するために前記複数の評価軸のうち所定の評価軸における特定の評価項目の選択を受け付け、前記複数の評価軸の全項目のうち前記特定の評価項目だけが選択されたことを数値で表した主観評価ベクトルを作成する主観評価ベクトル作成手段と、
N人の被験者についての前記複数の評価軸の全項目に関する評価結果データと前記主観評価ベクトルとの類似度を計算してN次元のベクトルからなる主観評価類似度ベクトルを算出する主観評価類似度計算手段と、
前記N人の被験者それぞれの生体信号のデータを用いて前記計測チャンネル毎に算出された被験者間の生体信号類似度と、前記生体信号のデータを用いた前記N人の被験者についての評価結果データを組み合わせて算出された被験者間の主観評価類似度と、を関連付けるために予め算出されたマッピング情報を前記計測チャンネル毎に記憶するマッピング記憶手段から、少なくとも1つの計測チャンネルについてのマッピング情報を選択するマッピング選択手段と、
前記N人の被験者それぞれの時系列の生体信号のデータである行列と予測する時系列の生体信号を各要素とする未知のベクトルとの積であるN次元のベクトルからなる生体信号類似度ベクトルと、前記特定の評価項目だけが選択された主観評価ベクトルから得られた前記主観評価類似度ベクトルとを、前記選択された計測チャンネルについてのマッピング情報で関係付ける関係式が成り立つように前記未知のベクトルの各要素を決定する演算を行うことで生体信号の時系列の推定値を求め、前記受け付けた所定の評価軸における評価に寄与したシーンとして、前記求めた生体信号の時系列の推定値に基づいて映像のシーンを決定する主観評価対応シーン推定手段と、
を備えることを特徴とする映像評価装置。
Time-series biological signal data of each subject measured simultaneously for each of a plurality of measurement channels indicating any part of the body from a plurality of subjects viewing video content presented in the video system, and a plurality of the plurality of subjects The video system is evaluated by estimating the scene of the video content that has contributed to the evaluation on the predetermined evaluation axis based on the evaluation result data of each subject, which is an answer obtained by subjective evaluation of the video content using the evaluation axis. A video evaluation device that
In order to estimate a scene corresponding to a predetermined evaluation axis, a selection of a specific evaluation item in the predetermined evaluation axis among the plurality of evaluation axes is accepted, and only the specific evaluation item among all items of the plurality of evaluation axes A subjective evaluation vector creating means for creating a subjective evaluation vector that numerically represents that is selected,
Subjective evaluation similarity calculation for calculating a similarity evaluation vector of N-dimensional vectors by calculating the similarity between the evaluation result data for all items of the plurality of evaluation axes and the subjective evaluation vector for N subjects. Means,
The biosignal similarity between the subjects calculated for each measurement channel using the biosignal data of each of the N subjects and the evaluation result data for the N subjects using the biosignal data. Mapping for selecting mapping information for at least one measurement channel from mapping storage means for storing, for each measurement channel, mapping information calculated in advance for associating the subjective evaluation similarity between subjects calculated in combination A selection means;
A biological signal similarity vector composed of an N-dimensional vector that is a product of a matrix, which is data of time-series biological signals of each of the N subjects, and an unknown vector whose elements are predicted time-series biological signals; The unknown vector so that a relational expression relating the subjective evaluation similarity vector obtained from the subjective evaluation vector with only the specific evaluation item selected by the mapping information for the selected measurement channel is established. The time series estimated value of the biological signal is obtained by performing an operation to determine each element of the above, and based on the obtained time series estimated value of the biological signal as a scene contributing to the evaluation on the received predetermined evaluation axis A scene estimation means for subjective evaluation that determines the scene of the video,
A video evaluation apparatus comprising:
前記N人の被験者それぞれの生体信号のデータを用いてN×N個の前記被験者間の生体信号類似度を各要素とする生体信号類似度行列を前記計測チャンネル毎に算出する生体信号類似度算出手段と、
前記生体信号のデータを用いた前記N人の被験者についての前記複数の評価軸の全項目に関する評価結果データを組み合わせてN×N個の前記被験者間の主観評価類似度を各要素とする主観評価類似度行列を算出する主観評価類似度算出手段と、
前記マッピング情報として、前記計測チャンネル毎の前記生体信号類似度行列と、前記主観評価類似度行列と、を関連付けるN次元の縦ベクトルを要素に含む2つの行列からなるマッピング行列の組を求めて前記マッピング記憶手段に格納する類似度間マッピング算出手段と、
をさらに備えることを特徴とする請求項1に記載の映像評価装置。
Biological signal similarity calculation for calculating, for each measurement channel, a biological signal similarity matrix having biological signal similarity between N × N subjects as each element using the biological signal data of each of the N subjects. Means,
Subjective evaluation using the evaluation result data for all items of the plurality of evaluation axes for the N subjects using the data of the biological signal as a factor and the subjective evaluation similarity between the N × N subjects. A subjective evaluation similarity calculating means for calculating a similarity matrix;
As the mapping information, a set of mapping matrices consisting of two matrices whose elements include N-dimensional vertical vectors associating the biological signal similarity matrix for each measurement channel and the subjective evaluation similarity matrix is obtained. A similarity-to-similarity mapping calculation means stored in the mapping storage means;
The video evaluation apparatus according to claim 1, further comprising:
前記類似度間マッピング算出手段は、
前記計測チャンネル毎の前記生体信号類似度行列とN次元の縦ベクトルである未知の第1重みベクトルとの積である第1ベクトルと、
前記主観評価類似度行列とN次元の縦ベクトルである未知の第2重みベクトルとの積である第2ベクトルと、の内積が、
前記第1ベクトル及び前記第2ベクトルのノルムを予め定めた定数とする制約条件のもとで最大となる前記第1重みベクトル及び前記第2重みベクトルを、前記マッピング行列の列の要素として算出することを特徴とする請求項2に記載の映像評価装置。
The similarity mapping calculation means includes:
A first vector that is a product of the biological signal similarity matrix for each measurement channel and an unknown first weight vector that is an N-dimensional vertical vector;
An inner product of the subjective evaluation similarity matrix and a second vector that is a product of an unknown second weight vector, which is an N-dimensional vertical vector,
The first weight vector and the second weight vector that are maximized under a constraint condition in which norms of the first vector and the second vector are predetermined constants are calculated as elements of a column of the mapping matrix. The video evaluation apparatus according to claim 2.
前記マッピング選択手段は、
前記類似度間マッピング算出手段で前記計測チャンネル毎に求められた複数のマッピング行列の組と、前記複数のマッピング行列の組を求める際に使用していない他の被験者の生体信号のデータ及び評価結果データと、を用いて、予測精度が所定の基準を満たす少なくとも1つの計測チャンネルを決定し、当該決定した計測チャンネルについてのマッピング行列の組を選択することを特徴とする請求項2又は請求項3に記載の映像評価装置。
The mapping selection means includes
A plurality of mapping matrix sets obtained for each measurement channel by the similarity mapping calculation means, and data and evaluation results of biological signals of other subjects not used when obtaining the plurality of mapping matrix sets 4 or 3, wherein at least one measurement channel satisfying a predetermined criterion is determined using the data, and a set of mapping matrices for the determined measurement channel is selected. The video evaluation apparatus described in 1.
前記主観評価対応シーン推定手段は、
前記予測する時系列の生体信号を各要素とする未知のベクトルの各要素を決定する演算を行うことで求めた生体信号の時系列の推定値のうち絶対値が所定の閾値を超えている時点に対応する映像のシーンを、前記受け付けた所定の評価軸における特定の評価項目の評価に対して寄与が大きいシーンとして決定することを特徴とする請求項1から請求項4のいずれか一項に記載の映像評価装置。
The subjective evaluation corresponding scene estimation means includes:
The time when the absolute value of the estimated value of the biological signal obtained by performing the calculation for determining each element of the unknown vector having the biological signal of the predicted time series as each element exceeds a predetermined threshold 5. The scene of the video corresponding to is determined as a scene having a large contribution to the evaluation of a specific evaluation item on the received predetermined evaluation axis. 6. The video evaluation apparatus described.
コンピュータを、請求項1に記載の映像評価装置として機能させるための映像評価プログラム。   A video evaluation program for causing a computer to function as the video evaluation apparatus according to claim 1.
JP2014085262A 2014-04-17 2014-04-17 Image evaluation apparatus and program thereof Active JP6259353B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014085262A JP6259353B2 (en) 2014-04-17 2014-04-17 Image evaluation apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014085262A JP6259353B2 (en) 2014-04-17 2014-04-17 Image evaluation apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2015207038A true JP2015207038A (en) 2015-11-19
JP6259353B2 JP6259353B2 (en) 2018-01-10

Family

ID=54603829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014085262A Active JP6259353B2 (en) 2014-04-17 2014-04-17 Image evaluation apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP6259353B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126474A1 (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Material evaluation method and material evaluation device
JP2019032767A (en) * 2017-08-09 2019-02-28 国立研究開発法人情報通信研究機構 Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method
EP3376404A4 (en) * 2016-01-18 2019-06-12 National Institute of Information and Communications Technology Viewing material evaluation method, viewing material evaluation system, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128884A (en) * 2003-10-24 2005-05-19 Sony Corp Device and method for editing information content
JP2013183373A (en) * 2012-03-02 2013-09-12 Nippon Telegr & Teleph Corp <Ntt> Device and method for estimating degree of interest and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128884A (en) * 2003-10-24 2005-05-19 Sony Corp Device and method for editing information content
JP2013183373A (en) * 2012-03-02 2013-09-12 Nippon Telegr & Teleph Corp <Ntt> Device and method for estimating degree of interest and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
青砥哲朗, 大倉典子: "システムの感性評価を目的とした生体信号の利用方法の検討", 第51回自動制御連合講演会講演論文集, JPN6017043385, 23 November 2008 (2008-11-23), pages 1101 - 1104 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017126474A1 (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Material evaluation method and material evaluation device
JP2017129924A (en) * 2016-01-18 2017-07-27 国立研究開発法人情報通信研究機構 Material evaluation method and material evaluation device
CN107920773A (en) * 2016-01-18 2018-04-17 国立研究开发法人情报通信研究机构 Material evaluation method and material evaluating apparatus
EP3376404A4 (en) * 2016-01-18 2019-06-12 National Institute of Information and Communications Technology Viewing material evaluation method, viewing material evaluation system, and program
CN107920773B (en) * 2016-01-18 2020-11-17 国立研究开发法人情报通信研究机构 Material evaluation method and material evaluation device
JP2019032767A (en) * 2017-08-09 2019-02-28 国立研究開発法人情報通信研究機構 Brain activity prediction device, perception recognition content estimation system, and brain activity prediction method

Also Published As

Publication number Publication date
JP6259353B2 (en) 2018-01-10

Similar Documents

Publication Publication Date Title
Sinclair et al. Human-level performance on automatic head biometrics in fetal ultrasound using fully convolutional neural networks
JP4978860B2 (en) Action prediction method and action prediction apparatus
WO2021068781A1 (en) Fatigue state identification method, apparatus and device
EP3281079B1 (en) System and method for estimating cognitive traits
Alvino et al. Computerized measurement of facial expression of emotions in schizophrenia
US20160078613A1 (en) Method and System for Determining a Phenotype of a Neoplasm in a Human or Animal Body
CN105225222A (en) To the automatic evaluation of the perception visual quality of different images collection
JP6259353B2 (en) Image evaluation apparatus and program thereof
Ardakani et al. Application of texture analysis in diagnosis of multiple sclerosis by magnetic resonance imaging
Pendse et al. A simple and objective method for reproducible resting state network (RSN) detection in fMRI
KR102030131B1 (en) Continuous skin condition estimating method using infrared image
Sarath Human emotions recognition from thermal images using Yolo algorithm
Desrosiers-Gregoire et al. Rodent Automated Bold Improvement of EPI Sequences (RABIES): A standardized image processing and data quality platform for rodent fMRI
JP6154728B2 (en) Viewing state estimation apparatus and program thereof
Dessouky et al. Computer-aided diagnosis system for Alzheimer’s disease using different discrete transform techniques
Zhang et al. Nonparametric inference of the hemodynamic response using multi-subject fMRI data
Liu et al. Fmri data classification based on hybrid temporal and spatial sparse representation
JP6417232B2 (en) Image evaluation apparatus and program thereof
Shen et al. Spatial–temporal modelling of fMRI data through spatially regularized mixture of hidden process models
Rao et al. A comparison of strategies for incorporating nuisance variables into predictive neuroimaging models
Brahim et al. Classification of autism spectrum disorder through the graph fourier transform of fmri temporal signals projected on structural connectome
Jafarpour et al. Population level inference for multivariate MEG analysis
Di Bono et al. Decoding Cognitive States from fMRI Data Using Support Vector Regression.
Han et al. Encoding brain network response to free viewing of videos
Wang et al. Image-based facial pore detection and visualization in skin health evaluation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171208

R150 Certificate of patent or registration of utility model

Ref document number: 6259353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250