JP2012243043A - Content evaluation device, method, and program thereof - Google Patents

Content evaluation device, method, and program thereof Download PDF

Info

Publication number
JP2012243043A
JP2012243043A JP2011111915A JP2011111915A JP2012243043A JP 2012243043 A JP2012243043 A JP 2012243043A JP 2011111915 A JP2011111915 A JP 2011111915A JP 2011111915 A JP2011111915 A JP 2011111915A JP 2012243043 A JP2012243043 A JP 2012243043A
Authority
JP
Japan
Prior art keywords
user
content
recall
reaction
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011111915A
Other languages
Japanese (ja)
Other versions
JP5789735B2 (en
Inventor
Mototaka Yoshioka
元貴 吉岡
Jun Ozawa
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011111915A priority Critical patent/JP5789735B2/en
Publication of JP2012243043A publication Critical patent/JP2012243043A/en
Application granted granted Critical
Publication of JP5789735B2 publication Critical patent/JP5789735B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a content evaluation device capable of accurately evaluating a content by determining presence/absence of a user's recollection behavior.SOLUTION: A content evaluation device 110 identifies a reaction of a user to an image content by analyzing a biological signal of the user viewing the image content. The content evaluation device 110 comprises: an acquisition part 120 for acquiring a cerebral blood flow and a sight line position of a user; a reaction identifying part 102 for determining whether or not the user shows a psychological reaction while the user is viewing an image content, on the basis of the cerebral blood flow; and a recollection determination part 106 for determining whether or not the user viewing the image content recalls other image content displayed before the currently displayed image content, on the basis of the sight line position of the user.

Description

本発明は、コンテンツ評価装置に関し、特に、画像コンテンツを視聴するユーザの生体信号を分析することでユーザの画像コンテンツに対する反応を特定するコンテンツ評価装置等に関する。   The present invention relates to a content evaluation apparatus, and more particularly to a content evaluation apparatus that identifies a user's response to image content by analyzing a biometric signal of the user viewing the image content.

従来技術として、コンテンツを視聴するユーザの脳波等の生体信号をもとに、コンテンツの評価を行う手法がある(例えば、特許文献1参照)。   As a conventional technique, there is a method of evaluating content based on a biological signal such as a brain wave of a user who views the content (see, for example, Patent Document 1).

特表2010−520554号公報Special table 2010-520554 特開2004−21870号公報JP 2004-21870 A

しかしながら、従来技術の構成では、ユーザの想起状態については全く考慮されていないため、コンテンツ評価を精度よく行うことが困難である(特許文献1)。   However, in the configuration of the prior art, since the user's recall state is not taken into consideration at all, it is difficult to accurately evaluate the content (Patent Document 1).

一般に、前頭葉の脳血流は、頭の中で計算をしたり、記憶したりする場合に変化することが知られている。また、何かを思い出したり(すなわち、想起したり)、頭の中でなんらかの処理を行う場合にも変化する。従って、例えば、コンテンツを視聴する際、実際には現在のコンテンツに対する感情ではなく、過去のコンテンツを思い出している場合であっても脳血流が変化してしまうことがある。   In general, it is known that the cerebral blood flow in the frontal lobe changes when calculation or memory is performed in the head. It also changes when something is remembered (ie, recalled) or when some processing is performed in the head. Therefore, for example, when viewing content, cerebral blood flow may change even when the user actually remembers past content rather than feelings about the current content.

よって、従来技術のように、ユーザの想起状態を考慮していないシステムにおいては、脳血流に変化が生じた場合、その原因が、変化が生じた時刻にユーザが視聴したコンテンツにあるのか、又は、想起状態にあるユーザが過去に視聴したコンテンツにあるのかを評価できない。その結果、従来技術に係るシステムでは、精度よくコンテンツ評価を行うことが困難である。   Therefore, in a system that does not consider the user's recall state as in the prior art, when a change occurs in the cerebral blood flow, is the cause of the content viewed by the user at the time when the change occurred? Or, it cannot be evaluated whether the user who is in the recall state has the content viewed in the past. As a result, it is difficult for the system according to the prior art to accurately evaluate the content.

本発明は、従来の課題を解決するもので、ユーザによる想起行動の有無を判断することで、精度よくコンテンツの評価を行うことが可能なコンテンツ評価装置を提供することを目的とする。   An object of the present invention is to solve the conventional problems, and to provide a content evaluation apparatus capable of accurately evaluating content by determining the presence or absence of a user's recalling action.

本発明のある局面に係るコンテンツ評価装置は、画像コンテンツを視聴するユーザの生体信号を分析することで当該ユーザの当該画像コンテンツに対する反応を特定するコンテンツ評価装置であって、前記ユーザの脳血流と視線位置とを取得する取得部と、前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示したか否かを前記脳血流に基づいて識別する反応識別部と、前記画像コンテンツを視聴するユーザが、表示されている当該画像コンテンツより前に表示された他の画像コンテンツを想起していたか否かを、前記ユーザの視線位置に基づいて判定する想起判定部とを備える。   A content evaluation apparatus according to an aspect of the present invention is a content evaluation apparatus that identifies a user's reaction to the image content by analyzing a biological signal of the user who views the image content, the cerebral blood flow of the user And an eye-gaze position, a reaction identification unit for identifying whether or not the user has a psychological reaction when viewing the image content, and viewing the image content A recall determining unit that determines whether or not the user has recalled another image content displayed before the displayed image content based on the user's line-of-sight position.

この構成によると、コンテンツ評価装置は、表示されたコンテンツを視聴するユーザの心理的な反応をユーザの脳血流から識別するとともに、ユーザが現に表示されているコンテンツ以外のコンテンツを想起していたか否かを視線位置から判定することができる。その結果、ユーザの示した心理的反応が、現に表示されているコンテンツに対するものか否かを評価することができる。その結果、精度よくコンテンツの評価を行うことが可能となる。   According to this configuration, the content evaluation device identifies the psychological reaction of the user who views the displayed content from the user's cerebral blood flow, and has the user recalled content other than the content currently displayed? It can be determined from the line-of-sight position. As a result, it is possible to evaluate whether the psychological reaction indicated by the user is for the content currently displayed. As a result, it is possible to accurately evaluate the content.

なお、本発明は、このような特徴的な処理部を備えるコンテンツ評価装置として実現することができるだけでなく、コンテンツ評価装置に含まれる特徴的な処理部をステップとするコンテンツ評価方法として実現したり、コンテンツ評価方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc−Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのはいうまでもない。   The present invention can be realized not only as a content evaluation apparatus including such a characteristic processing unit, but also as a content evaluation method using a characteristic processing unit included in the content evaluation apparatus as a step. Also, the characteristic steps included in the content evaluation method can be realized as a program for causing a computer to execute. Such a program can be distributed via a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.

さらに、本発明は、このようなコンテンツ評価装置の機能の一部又は全てを実現する半導体集積回路(LSI)として実現したり、このようなコンテンツ評価装置を含むコンテンツ評価システムとして実現したりできる。   Furthermore, the present invention can be realized as a semiconductor integrated circuit (LSI) that realizes part or all of the functions of such a content evaluation apparatus, or can be realized as a content evaluation system including such a content evaluation apparatus.

本発明によると、ユーザによる想起行動の有無を判断することで、精度よくコンテンツの評価を行うことが可能なコンテンツ評価装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the content evaluation apparatus which can evaluate a content accurately can be provided by determining the presence or absence of the recall action by a user.

本発明の実施の形態におけるコンテンツ評価装置の構成を示すブロック図である。It is a block diagram which shows the structure of the content evaluation apparatus in embodiment of this invention. 実施の形態及びその変形例における脳血流検知方法を示す図である。It is a figure which shows the cerebral blood-flow detection method in embodiment and its modification. 実験によって示された、視聴コンテンツと脳血流の変化量との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of viewing content and the variation | change_quantity of cerebral blood flow shown by experiment. 実験によって示された前頭葉の血流量の変化の一例を示す図である。It is a figure which shows an example of the change of the blood flow rate of the frontal lobe shown by experiment. 実験によって示された、視聴コンテンツと脳血流の変化量との対応関係の他の例を示す図である。It is a figure which shows the other example of the correspondence of viewing content and the variation | change_quantity of cerebral blood flow shown by experiment. 実施の形態及びその変形例においてユーザがコンテンツを視聴する画面の座標系を示す図である。It is a figure which shows the coordinate system of the screen in which a user views a content in embodiment and its modification. 実施の形態及びその変形例における評価情報蓄積部が蓄積している想起情報を説明する図である。It is a figure explaining the recall information which the evaluation information storage part in an embodiment and its modification accumulates. 実験において示された、想起行動時のユーザの視線位置の例を示す図である。It is a figure which shows the example of the user's eyes | visual_axis position at the time of recall behavior shown in experiment. 実験によって示された視聴コンテンツと脳血流と想起度との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of viewing-and-listening content shown by experiment, cerebral blood flow, and recall. 実験によって示された視聴コンテンツと脳血流と想起度との対応関係の他の例を示す図である。It is a figure which shows the other example of the correspondence of viewing-and-listening content shown by experiment, cerebral blood flow, and a recall. 実施の形態及びその変形例における評価表示部に表示されるコンテンツ評価の一例を示す図である。It is a figure which shows an example of the content evaluation displayed on the evaluation display part in embodiment and its modification. 本発明の実施の形態におけるコンテンツ評価装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the content evaluation apparatus in embodiment of this invention. 本発明の実施の形態における反応の識別処理の詳細なフローチャートである。It is a detailed flowchart of the identification process of reaction in embodiment of this invention. 本発明の実施の形態における滞留時間の算出処理の詳細なフローチャートである。It is a detailed flowchart of the calculation process of the residence time in embodiment of this invention. 本発明の実施の形態における想起判定処理の詳細なフローチャートである。It is a detailed flowchart of the recall determination process in the embodiment of the present invention. 本発明の実施の形態における反応対象の特定処理の詳細なフローチャートである。It is a detailed flowchart of the specific process of reaction object in embodiment of this invention. 本発明の実施の形態における想起判定部による想起度判定処理を説明する第1の図である。It is a 1st figure explaining the recall degree determination process by the recall determination part in embodiment of this invention. 本発明の実施の形態における想起判定部による想起度判定処理を説明する第2の図である。It is a 2nd figure explaining the recall degree determination process by the recall determination part in embodiment of this invention. 本発明の実施の形態における想起判定部による想起度判定処理を説明する第3の図である。It is a 3rd figure explaining the recall degree determination process by the recall determination part in embodiment of this invention. 実験において映画の宣伝用コンテンツを視聴しているユーザの脳血流の変化等を説明する図である。It is a figure explaining the change etc. of the cerebral blood flow of the user who is viewing the content for movie advertisement in the experiment. 本発明の実施の形態の変形例1に係るコンテンツ評価装置の構成を示すブロック図である。It is a block diagram which shows the structure of the content evaluation apparatus which concerns on the modification 1 of embodiment of this invention. 本発明の実施の形態の変形例1に係るコンテンツ評価装置によって示された、視聴コンテンツと脳血流の変化量との対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of viewing content and the variation | change_quantity of cerebral blood flow shown by the content evaluation apparatus which concerns on the modification 1 of embodiment of this invention. 本発明の実施の形態の変形例2に係るコンテンツ評価装置の構成を示すブロック図である。It is a block diagram which shows the structure of the content evaluation apparatus which concerns on the modification 2 of embodiment of this invention. 本発明の実施の形態並びにその変形例1及び2に係るコンテンツ評価装置を実現するコンピュータシステムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the computer system which implement | achieves the content evaluation apparatus which concerns on embodiment and its modifications 1 and 2 of this invention.

本発明のある局面に係るコンテンツ評価装置は、画像コンテンツを視聴するユーザの生体信号を分析することで当該ユーザの当該画像コンテンツに対する反応を特定するコンテンツ評価装置であって、前記ユーザの脳血流と視線位置とを取得する取得部と、前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示したか否かを前記脳血流に基づいて識別する反応識別部と、前記画像コンテンツを視聴するユーザが、表示されている当該画像コンテンツより前に表示された他の画像コンテンツを想起していたか否かを、前記ユーザの視線位置に基づいて判定する想起判定部とを備える。   A content evaluation apparatus according to an aspect of the present invention is a content evaluation apparatus that identifies a user's reaction to the image content by analyzing a biological signal of the user who views the image content, the cerebral blood flow of the user And an eye-gaze position, a reaction identification unit for identifying whether or not the user has a psychological reaction when viewing the image content, and viewing the image content A recall determining unit that determines whether or not the user has recalled another image content displayed before the displayed image content based on the user's line-of-sight position.

この構成によると、コンテンツ評価装置は、表示されたコンテンツを視聴するユーザの心理的な反応をユーザの脳血流から識別するとともに、ユーザが現に表示されているコンテンツ以外のコンテンツを想起していたか否かを視線位置から判定することができる。その結果、ユーザの示した心理的反応が、現に表示されているコンテンツに対するものか否かを評価することができる。その結果、精度よくコンテンツの評価を行うことが可能となる。   According to this configuration, the content evaluation device identifies the psychological reaction of the user who views the displayed content from the user's cerebral blood flow, and has the user recalled content other than the content currently displayed? It can be determined from the line-of-sight position. As a result, it is possible to evaluate whether the psychological reaction indicated by the user is for the content currently displayed. As a result, it is possible to accurately evaluate the content.

また、前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示した場合であって、当該ユーザが前記他の画像コンテンツを想起していたと前記想起判定部が判定した場合には、当該他の画像コンテンツを当該ユーザが心理的な反応を示した対象として特定する反応対象特定部をさらに備えるとしてもよい。   In addition, when the user shows a psychological reaction when viewing the image content, and the recall determination unit determines that the user is recalling the other image content, A reaction target specifying unit for specifying the image content as a target for which the user has shown a psychological reaction may be further provided.

この構成によると、コンテンツ評価装置が備える反応対象特定部は、ユーザが心理的な反応を示した対象を特定できる。   According to this structure, the reaction object specific | specification part with which a content evaluation apparatus is provided can specify the object for which the user showed psychological reaction.

また、前記反応識別部は、取得した前記脳血流の絶対値が事前に定められた閾値を上まわる場合、又は、所定の時間区間における前記脳血流の積分値の絶対値が事前に定められた値を上まわる場合には、前記ユーザが心理的な反応を示したと識別するとしてもよい。   Further, the reaction identification unit determines in advance when the absolute value of the acquired cerebral blood flow exceeds a predetermined threshold, or the absolute value of the integrated value of the cerebral blood flow in a predetermined time interval is determined in advance. If the measured value is exceeded, the user may be identified as having a psychological reaction.

この構成によると、反応識別部は、ユーザの脳血流の値と閾値とを比較することにより、コンテンツに対してユーザが心理的な反応を示したか否かを判定することができる。   According to this configuration, the reaction identification unit can determine whether or not the user has shown a psychological reaction to the content by comparing the value of the user's cerebral blood flow with a threshold value.

また、前記想起判定部は、前記画像コンテンツを視聴する時の一般的な視線位置として事前に定式化されたモデルと、前記ユーザの視線位置との乖離度合いが事前に定められた値より大きければ、当該ユーザは想起状態であったと判定するとしてもよい。   In addition, the recall determination unit is configured so that a degree of deviation between a model formulated in advance as a general line-of-sight position when viewing the image content and the user's line-of-sight position is greater than a predetermined value. The user may determine that the user is in the recall state.

この構成によると、想起判定部は、コンテンツ視聴時のユーザの典型的な視線位置として事前に定められたモデルと現に取得したユーザの視線位置とを比較し、その乖離度合いと閾値とを比較することにより、ユーザが想起しているか否かを判定することができる。   According to this configuration, the recall determination unit compares a model determined in advance as a user's typical line-of-sight position during content viewing with the user's acquired line-of-sight position, and compares the degree of deviation with a threshold value. Thus, it can be determined whether or not the user is recalling.

なお具体的には、前記視線位置の移動距離が事前に定められた閾値以内であった時間である滞留時間を算出する滞留時間算出部と、前記画像コンテンツを時分割した各々であるシーンの表示時間と、前記表示時間に前記画像コンテンツの一部として表示される画像である提供画像の表示領域とを対応付ける情報である想起情報を蓄積している想起情報蓄積部とをさらに備え、前記想起判定部は、前記シーンごとに、当該シーンの前記表示時間における前記視線位置と当該表示時間に対応付けられた前記表示領域との距離、及び前記表示時間における前記滞留時間が、それぞれ事前に定められた閾値以上であるか否かを判定し、前記閾値以上である場合には、前記ユーザが想起状態であると判定するとしてもよい。   More specifically, a dwell time calculation unit that calculates a dwell time, which is a time during which the movement distance of the line-of-sight position is within a predetermined threshold, and display of a scene that is each time-divided of the image content A recall information storage unit that stores recall information that is information that associates a time with a display area of a provided image that is an image that is displayed as part of the image content at the display time; The unit determines the distance between the line-of-sight position in the display time of the scene and the display area associated with the display time, and the dwell time in the display time for each scene. It may be determined whether or not the threshold is equal to or greater than the threshold, and if the threshold is equal to or greater than the threshold, the user may be determined to be in the recall state.

また、前記想起判定部は、前記想起情報に含まれるシーンの総数に対する、前記ユーザが前記想起状態であると判定されたシーンの総数の割合として想起度を算出するとしてもよい。   The recall determination unit may calculate the recall level as a ratio of the total number of scenes in which the user is determined to be in the recall state with respect to the total number of scenes included in the recall information.

これによると、想起度判定部は複数のシーンを含むコンテンツ全体に対するユーザの想起度合いを、数値として算出することができる。   According to this, the recall level determination unit can calculate the user's recall level for the entire content including a plurality of scenes as a numerical value.

また、前記反応識別部は、取得した前記脳血流が第1の閾値を上まわる場合には、前記ユーザの心理的な反応の種別を興奮状態であると識別し、当該脳血流が第2の閾値を下まわる場合には、当該ユーザの心理的な反応の種別を集中状態であると識別し、前記第1の閾値は、基準時における前記ユーザの脳血流よりも大きな値であり、前記第2の閾値は、前記基準時における前記ユーザの脳血流よりも小さな値であるとしてもよい。   In addition, when the acquired cerebral blood flow exceeds a first threshold, the reaction identifying unit identifies the type of psychological reaction of the user as an excited state, and the cerebral blood flow is If the threshold value is below 2, the type of psychological reaction of the user is identified as being in a concentrated state, and the first threshold value is larger than the cerebral blood flow of the user at the reference time. The second threshold value may be a value smaller than the cerebral blood flow of the user at the reference time.

これによると、反応識別部は、ユーザがコンテンツに対して示した反応の種別を、興奮系と集中系のいずれであるかを識別することができる。その結果、コンテンツ評価装置はより詳細にコンテンツを評価することができる。   According to this, the reaction identifying unit can identify whether the type of reaction indicated by the user with respect to the content is an excited system or a concentrated system. As a result, the content evaluation apparatus can evaluate the content in more detail.

また、前記反応識別部は、取得した前記脳血流の絶対値が前記事前に定められた閾値を上まわった時刻、及び、前記所定の時間区間における当該脳血流の積分値の絶対値が前記事前に定められた値を上まわった時刻のいずれかの時刻から、事前に定められた時間だけ遡った時刻までの時間区間に含まれる時刻を、前記ユーザが前記心理的な反応を示した時刻の候補である反応時刻候補と特定し、前記反応対象特定部は、前記反応時刻候補と前記想起度とに基づいて、前記ユーザが前記心理的な反応を示した対象を特定するとしてもよい。   In addition, the reaction identification unit, the time when the acquired absolute value of the cerebral blood flow exceeds the predetermined threshold, and the absolute value of the integrated value of the cerebral blood flow in the predetermined time interval The time that is included in the time interval from any time at which the value exceeds the predetermined value to a time that is back by a predetermined time, the user performs the psychological reaction. As the reaction time candidate that is a candidate for the indicated time, the reaction target specifying unit specifies the target on which the user has shown the psychological reaction based on the reaction time candidate and the recall level. Also good.

これによると、コンテンツ評価装置が備える反応対象特定部は、ユーザが想起状態にあった際に心理的な反応を示した場合においても、そのユーザはどのコンテンツに対して心理的な反応を示したのかを、より詳細に特定することができる。   According to this, even when the reaction target specifying unit included in the content evaluation device showed a psychological reaction when the user was in a recall state, the user showed a psychological reaction to which content Can be specified in more detail.

具体的には、前記反応対象特定部は、前記想起度が事前に定められた値よりも小さい場合には、前記反応時刻候補に視聴した画像コンテンツを前記ユーザが前記心理的な反応を示した対象として特定し、前記想起度が事前に定められた値以上の場合には、前記反応時刻候補よりも前に視聴した画像コンテンツを、当該ユーザが当該心理的な反応を示した対象として特定するとしてもよい。   Specifically, when the recall level is smaller than a predetermined value, the reaction target specifying unit indicates the psychological reaction of the image content viewed by the reaction time candidate. When it is specified as an object and the recall level is equal to or greater than a predetermined value, the image content viewed before the reaction time candidate is specified as an object for which the user has exhibited the psychological reaction. It is good.

また、前記想起判定部は、前記提供画像が文字情報を表す場合には、当該提供画像の表示時間内の前記視線位置の移動量が事前に定められた閾値未満の場合には、前記ユーザが前記想起状態であると判定するとしてもよい。   In addition, when the provided image represents character information, the recall determining unit determines that the user does not move when the amount of movement of the line-of-sight position within the display time of the provided image is less than a predetermined threshold. The recall state may be determined.

これによると、コンテンツ評価装置は、コンテンツに含まれる文字情報に対する想起状態の判断を、より正確に行うことができる。   According to this, the content evaluation device can more accurately determine the recall state for the character information included in the content.

また、前記想起判定部は、前記視線位置が前記提供画像の前記表示領域内に位置する場合において、当該視線位置が当該提供画像の前記表示時間より前から当該表示領域内に位置する場合は、前記ユーザが前記想起状態であるとは判定しないとしてもよい。   The recall determination unit may be configured such that when the line-of-sight position is located in the display area of the provided image and the line-of-sight position is located in the display area from before the display time of the provided image, It may not be determined that the user is in the recall state.

これによると、想起判定部は、ユーザの視線位置と提供画像の表示領域とが偶然一致した場合に、本来は想起状態であるにも関わらず、想起状態ではないと判断されることを防ぐことができる。   According to this, when the user's line-of-sight position coincides with the display area of the provided image, the recall determination unit prevents the determination that the user is not in the recall state even though it is originally in the recall state. Can do.

また、前記想起判定部は、前記シーンが複数の表示領域を含む場合には、前記視線位置に対し最も近い前記表示領域との離れ度合いを用いて前記距離を算出するとしてもよい。   In addition, when the scene includes a plurality of display areas, the recall determination unit may calculate the distance using a degree of separation from the display area closest to the line-of-sight position.

これによると、複数の提供画像が同時に表示される場合においても、想起判定部は適切に想起状態の判断を行うことができる。   According to this, even when a plurality of provided images are displayed simultaneously, the recall determination unit can appropriately determine the recall state.

また、前記想起判定部は、前記シーンごとに、前記表示時間における前記視線位置と当該表示時間に対応付けられた前記表示領域との距離、及び前記表示時間における前記滞留時間が、それぞれ事前に定められた閾値以上であるかを判定し、それぞれが閾値以上である場合には、当該シーンより前に表示された他のシーンを当該ユーザが想起していたと判定するとしてもよい。   Further, the recall determination unit determines in advance a distance between the line-of-sight position in the display time and the display area associated with the display time, and the dwell time in the display time for each scene. It is also possible to determine whether the user is recalling another scene displayed before the scene when each of the thresholds is equal to or greater than the threshold.

これによると、想起判定部106はより細かい時間間隔でユーザが想起状態にあるか否かを判定することができる。   According to this, the recall determination unit 106 can determine whether or not the user is in the recall state at finer time intervals.

また、前記想起情報は、前記シーンごとに重みを有し、前記想起判定部は、前記想起状態と判定されたシーンの総数を、当該シーンに対応する前記重みを乗じて集計するとしてもよい。   The recall information may have a weight for each scene, and the recall determination unit may add up the total number of scenes determined to be the recall state by multiplying the weight corresponding to the scene.

一般に、シーンに応じてユーザのコンテンツに対する興味の程度は変化する。したがって、事前に想定されるユーザの興味の程度に応じてシーンごとに重みを付与しておき、重み付きのシーン数を集計することで、より適切な想起度を算出することができる。   In general, the degree of interest in the content of the user varies depending on the scene. Therefore, a more appropriate recall level can be calculated by assigning a weight to each scene according to the degree of interest of the user assumed in advance and counting the number of weighted scenes.

また、前記コンテンツ評価装置は、複数の画像コンテンツを表示し、前記複数の画像コンテンツの表示順序を記憶している刺激提示順序記憶部と、前記刺激提示順序記憶部に記憶されている前記複数の画像コンテンツの表示順序を変更する刺激提示順序変更部と、前記刺激提示順序記憶部に記憶されている順序、又は前記刺激提示順序変更部によって変更された表示順序に基づき前記複数のコンテンツを表示する刺激提示部とをさらに備えるとしてもよい。   The content evaluation apparatus displays a plurality of image contents, and stores a stimulus presentation order storage unit that stores a display order of the plurality of image contents, and the plurality of stimulus presentation order storage units. The stimulus presentation order changing unit that changes the display order of the image content, and the plurality of contents are displayed based on the order stored in the stimulus presentation order storage unit or the display order changed by the stimulus presentation order changing unit. A stimulus presentation unit may be further provided.

具体的には、前記刺激提示順序変更部は、前記反応対象特定部で特定された前記他の画像コンテンツを再度表示するように前記表示順序を変更するとしてもよい。   Specifically, the stimulus presentation order changing unit may change the display order so that the other image content specified by the reaction target specifying unit is displayed again.

より具体的には、前記反応対象特定部は、前記他の画像コンテンツが1回目に表示されたときの脳血流の増減量と、当該他の画像コンテンツが2回目以降に表示されたときの脳血流の増減量との差分に基づいて、前記ユーザが当該他の画像コンテンツを想起していたか否かを判定するとしてもよい。   More specifically, the reaction target specifying unit is configured to increase or decrease the cerebral blood flow when the other image content is displayed for the first time, and when the other image content is displayed for the second time or later. Based on the difference from the increase / decrease amount of cerebral blood flow, it may be determined whether or not the user has recalled the other image content.

これによると、ユーザに対して同じコンテンツを複数回視聴させた場合の、視聴回数ごとの脳血流の変化から、そのコンテンツに対するユーザの関心の強さを計測することができる。ここで、ユーザは、想起するコンテンツに対しては強い関心をもっていると考えられる。したがって、反応対象特定部は、複数回の視聴にも関わらず脳血流の増減量が大きいコンテンツを、ユーザが心理的な反応を示した対象であると具体的に特定することができる。   According to this, the intensity of the user's interest in the content can be measured from the change in cerebral blood flow for each number of times of viewing when the user views the same content a plurality of times. Here, it is considered that the user has a strong interest in the recalled content. Therefore, the reaction target specifying unit can specifically specify content having a large increase or decrease in cerebral blood flow despite being viewed multiple times as a target for which the user has exhibited a psychological reaction.

また、前記コンテンツ評価装置は、複数の画像コンテンツを表示し、前記複数のコンテンツの表示順序を記憶している刺激提示順序記憶部と、前記刺激提示順序記憶部に記憶されている順序に基づき前記複数のコンテンツを表示する刺激提示部と、前記ユーザの視線位置を履歴として蓄積する視線履歴蓄積部と、前記視線履歴蓄積部に蓄積された前記視線位置を用いて、前記複数の画像コンテンツの各々が表示されたときの視線位置を特定し、特定された前記視線位置を前記表示領域として含む前記想起情報を生成する典型想起情報生成部とをさらに備えるとしてもよい。   Further, the content evaluation device displays a plurality of image contents, and stores a display order of the plurality of contents stored in the stimulus presentation order storage unit, and the order stored in the stimulus presentation order storage unit Each of the plurality of image contents using a stimulus presentation unit that displays a plurality of contents, a line-of-sight history storage unit that stores the user's line-of-sight position as a history, and the line-of-sight position stored in the line-of-sight history storage unit A typical recall information generation unit that identifies the line-of-sight position when “” is displayed and generates the recall information including the identified line-of-sight position as the display area may be further included.

これによると、コンテンツ評価装置を使用するコンテンツ制作者は、事前に想起情報を準備するために必要な工数を削減することができる。   According to this, the content creator who uses the content evaluation apparatus can reduce the man-hours required for preparing the recall information in advance.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態)
実施の形態に係るコンテンツ評価装置について説明する。
(Embodiment)
A content evaluation apparatus according to an embodiment will be described.

図1は、本発明の実施の形態におけるコンテンツ評価装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a content evaluation apparatus according to an embodiment of the present invention.

図1において、コンテンツ評価装置110は、画像コンテンツを視聴するユーザの生体信号を分析することでユーザの画像コンテンツに対する反応を特定するコンテンツ評価装置であって、取得部120と、反応識別部102と、滞留時間算出部104と、想起情報蓄積部105と、想起判定部106と、反応対象特定部107とを備える。   In FIG. 1, a content evaluation apparatus 110 is a content evaluation apparatus that identifies a user's response to image content by analyzing a user's biological signal for viewing the image content, and includes an acquisition unit 120, a reaction identification unit 102, and the like. , A residence time calculation unit 104, a recall information storage unit 105, a recall determination unit 106, and a reaction target specifying unit 107.

取得部120は、ユーザの脳血流と視線位置とを含む生体信号を取得する。具体的には、取得部120は、脳血流検知部320と視線検知部103とを有する。後述するように、脳血流検知部320は、例えば近赤外分光法等により脳血流を検出するセンサである。また、視線検知部103は、例えばカメラで取得した瞳孔位置からユーザが注視する位置である視線位置を計測するセンサである。   The acquisition unit 120 acquires a biological signal including the user's cerebral blood flow and line-of-sight position. Specifically, the acquisition unit 120 includes a cerebral blood flow detection unit 320 and a line-of-sight detection unit 103. As will be described later, the cerebral blood flow detection unit 320 is a sensor that detects cerebral blood flow by, for example, near infrared spectroscopy. The line-of-sight detection unit 103 is a sensor that measures a line-of-sight position that is a position where the user gazes from a pupil position acquired by a camera, for example.

脳血流検知部320は、脳血流の変化を検知する手段である。図2(a)は、本実施の形態における脳血流検知部320の一例を示す図である。脳血流検知部320は、例えば近赤外線センサ(NIRS;Near−Infrared Spectroscopyセンサ)で構成されている。近年、このNIRSセンサを用いることで脳の血流量の変化を検知できることが知られている。以下、概要を説明する。   The cerebral blood flow detection unit 320 is a means for detecting a change in cerebral blood flow. FIG. 2A is a diagram illustrating an example of the cerebral blood flow detection unit 320 in the present embodiment. The cerebral blood flow detection unit 320 includes, for example, a near-infrared sensor (NIRS; Near-Infrared Spectroscopy sensor). In recent years, it has been known that changes in cerebral blood flow can be detected by using this NIRS sensor. The outline will be described below.

血液の中のヘモグロビンは、酸素と結合することで体内に酸素を送っている。NIRSセンサは、近赤外線(波長700nm〜1000nm)を発光する発光素子を備える発光部322と、発光された近赤外線を受光する受光素子を備える受光部321とから構成されている。NIRSセンサは、近赤外線を発光部322から体内へ向けて照射し、体内組織を透過してきた光を受光部321で受光する。受光した光の成分を調べることにより、NIRSセンサは、脳の血液中のヘモグロビン酸素化状態を検知することができる。例えば、額などに装着することで、前頭葉の酸素血流量を検知することができる。   Hemoglobin in the blood sends oxygen into the body by combining with oxygen. The NIRS sensor includes a light emitting unit 322 including a light emitting element that emits near infrared light (wavelength 700 nm to 1000 nm), and a light receiving unit 321 including a light receiving element that receives the emitted near infrared light. The NIRS sensor irradiates near-infrared rays from the light emitting unit 322 toward the inside of the body, and the light receiving unit 321 receives light transmitted through the body tissue. By examining the component of the received light, the NIRS sensor can detect the hemoglobin oxygenation state in the blood of the brain. For example, it is possible to detect the oxygen blood flow in the frontal lobe by wearing it on the forehead or the like.

反応識別部102は、画像コンテンツの視聴時にユーザが心理的な反応を示したか否かを脳血流に基づいて識別する。すなわち、取得部120で検知された脳の血流量の変化から、ユーザの反応を検知する手段である。本実施の形態では、ユーザが商品説明映像、又はCM(Commercial Message)などのコンテンツを視聴した際の、脳血流の変化から、ユーザの商品及びCMに対する所定の感情等の反応の種別である反応種別を特定する。   The reaction identifying unit 102 identifies whether the user has exhibited a psychological reaction when viewing the image content based on the cerebral blood flow. That is, it is a means for detecting the user's reaction from the change in the blood flow of the brain detected by the acquisition unit 120. In the present embodiment, the type of reaction such as a predetermined emotion to the user's product and CM based on a change in cerebral blood flow when the user views content such as a product description video or CM (Commercial Message). Specify the reaction type.

図2(b)はコンテンツ視聴時の一例である。被験者250であるユーザは、カメラBのCMを含むコンテンツ220を視聴している。   FIG. 2B is an example when viewing content. The user who is the subject 250 is viewing the content 220 including the CM of the camera B.

想起判定部106は、画像コンテンツを視聴するユーザが、表示されている画像コンテンツより前に表示された他の画像コンテンツを想起していたか否かを、ユーザの視線に基づいて判定する。想起判定部106の詳細は後述する。   The recall determination unit 106 determines whether the user viewing the image content has recalled another image content displayed before the displayed image content, based on the user's line of sight. Details of the recall determination unit 106 will be described later.

反応対象特定部107は、画像コンテンツの視聴時にユーザが心理的な反応を示した場合であって、ユーザが他の画像コンテンツを想起していたと想起判定部106が判定した場合には、他の画像コンテンツをユーザが心理的な反応を示した対象として特定する。反応対象特定部107の詳細は後述する。   The reaction target specifying unit 107 is a case where the user shows a psychological reaction when viewing the image content, and when the recall determination unit 106 determines that the user has recalled another image content, The image content is identified as an object for which the user has shown a psychological reaction. Details of the reaction target specifying unit 107 will be described later.

図3は、実験によって示された、視聴コンテンツと脳血流の変化量との対応関係の一例を示す図である。図3(b)は、視聴するコンテンツの模式図である。視聴するコンテンツは商品説明に関する動画である。例えば測定開始後、0秒から30秒までA社の一眼カメラの商品説明のコンテンツ222が表示されている。次に30秒から60秒までB社のデジタルカメラの商品説明のコンテンツ223が表示されている。次に60秒から90秒までC社のデジタルカメラの商品説明のコンテンツ224が表示されている。次に90秒から120秒までD社のデジタルカメラの商品説明のコンテンツ225が表示されている。   FIG. 3 is a diagram illustrating an example of a correspondence relationship between the viewing content and the amount of change in cerebral blood flow, which is shown by an experiment. FIG. 3B is a schematic diagram of content to be viewed. The content to be viewed is a movie related to the product description. For example, the product description content 222 of the single-lens camera of company A is displayed from 0 seconds to 30 seconds after the start of measurement. Next, a product description content 223 of the digital camera of company B is displayed from 30 seconds to 60 seconds. Next, a product description content 224 of the digital camera of company C is displayed from 60 seconds to 90 seconds. Next, the product description content 225 of the digital camera of company D is displayed from 90 seconds to 120 seconds.

一方、図3(a)は、図3(b)に示すコンテンツを視聴している際の、ユーザの脳血流を示す図である。具体的には、実際にNIRSセンサを用いて実験を行い、コンテンツ視聴時のユーザの前頭葉の血流量の変化を検知し、グラフで示した図である。   On the other hand, Fig.3 (a) is a figure which shows a user's cerebral blood flow at the time of viewing the content shown in FIG.3 (b). Specifically, the experiment is performed using an NIRS sensor to detect a change in the blood flow in the frontal lobe of the user when viewing the content, and is a graph.

脳血流の検知のサンプリング間隔は0.6秒であり、横軸を時間(秒)、縦軸を基準時である測定開始時からのヘモグロビンの変化量(mMol・mm(ミリモル・ミリメートル))としている。図3(a)に重ねて示される3本のグラフは、酸素と結合したヘモグロビンである酸化ヘモグロビン(oxy−Hb)濃度の変化量を示すグラフ402、酸素と結合していないヘモグロビンである脱酸化ヘモグロビン(deoxy−Hb)濃度の変化量を示すグラフ404、及びトータルのヘモグロビン(total−Hb)濃度の変化量を示すグラフ403の3種類の増減量を線で示している。   The sampling interval for detecting cerebral blood flow is 0.6 seconds, the horizontal axis is time (seconds), and the vertical axis is the reference time, the amount of change in hemoglobin from the start of measurement (mMol · mm (millimeter · millimeter)) It is said. Three graphs superimposed on FIG. 3A are a graph 402 showing the amount of change in oxygenated hemoglobin (oxy-Hb) concentration, which is hemoglobin bound to oxygen, and deoxidation, which is hemoglobin not bound to oxygen. Three types of increase / decrease amounts are shown by lines in a graph 404 showing the amount of change in hemoglobin (deoxy-Hb) concentration and a graph 403 showing the amount of change in total hemoglobin (total-Hb) concentration.

一般に、脳血流が増加すると、数秒程度遅延して、酸化ヘモグロビンが増加する。よって、酸化ヘモグロビン濃度の変化量を計測することにより、脳血流の変化量を取得することができる。以後、説明を簡単にするため、基準時(例えば、脳血流の測定開始時)における酸化ヘモグロビン濃度の値を0とし、基準時からの変化量を脳血流と呼ぶ。すなわち、脳血流が正である場合は、基準時よりも酸化ヘモグロビンが増加したことに対応し、脳血流が負である場合は、基準時よりも酸化ヘモグロビンが減少したことに対応する。また、酸化ヘモグロビン濃度が閾値を上まわったことを、脳血流が閾値を上まわったと表現し、酸化ヘモグロビン濃度が閾値を下まわったことを、脳血流が閾値を下まわったと表現する。   Generally, when cerebral blood flow increases, oxyhemoglobin increases with a delay of several seconds. Therefore, the amount of change in cerebral blood flow can be acquired by measuring the amount of change in oxyhemoglobin concentration. Hereinafter, for the sake of simplicity, the value of oxyhemoglobin concentration at the reference time (for example, at the start of measurement of cerebral blood flow) is set to 0, and the amount of change from the reference time is referred to as cerebral blood flow. That is, when the cerebral blood flow is positive, it corresponds to an increase in oxyhemoglobin compared to the reference time, and when the cerebral blood flow is negative, it corresponds to a decrease in oxyhemoglobin than the reference time. Further, the fact that the oxyhemoglobin concentration exceeds the threshold value is expressed as the cerebral blood flow exceeds the threshold value, and the fact that the oxyhemoglobin concentration falls below the threshold value is expressed as that the cerebral blood flow falls below the threshold value.

図3(a)に示されるように、ヘモグロビン濃度の各グラフは、0秒から30秒、及び30秒から60秒までは多少増減はするが、ほぼ一定の値を保持しているのが分かる。一方、65秒近辺から酸化ヘモグロビン及びトータルヘモグロビンの濃度が徐々に増加し、その後また減少していることが分かる。   As shown in FIG. 3 (a), it can be seen that each graph of hemoglobin concentration maintains a substantially constant value although it slightly increases or decreases from 0 to 30 seconds and from 30 to 60 seconds. . On the other hand, it can be seen that the concentration of oxyhemoglobin and total hemoglobin gradually increased from around 65 seconds and then decreased again.

ここで脳血流の変化と、コンテンツに対するユーザの心理変化との関連性について、図4を用いて説明する。   Here, the relationship between a change in cerebral blood flow and a user's psychological change with respect to content will be described with reference to FIG.

脳は、一般的に、記憶を行うなどのタスク(ワーキングメモリ)を課すと酸素を消費して活動し、それを補うために、それ以上の酸素が血液から補給されるようになるため、酸化ヘモグロビンやトータルヘモグロビンが増加することが知られている(ボールド反応)。また、興奮や焦りなどによって脳血流が増加することも知られている。例えば、嘘をつくと焦りにより脳血流が増加するという特性を利用し、嘘発見機などへの応用も知られている(非特許文献1)。   In general, when the brain imposes tasks such as memory (working memory), it consumes oxygen and acts, and in order to supplement it, more oxygen is supplied from the blood. It is known that hemoglobin and total hemoglobin increase (bold reaction). It is also known that cerebral blood flow increases due to excitement and impatience. For example, utilizing the characteristic that cerebral blood flow increases due to impatience when lying, it is also known to be applied to a lie detector (Non-Patent Document 1).

一方、ゲームなど、集中してタスクをこなす場合、前頭葉の酸化ヘモグロビンが減少することも知られている。したがって、NIRSセンサでは、酸化ヘモグロビン又はトータルヘモグロビンの増減量、あるいはこれらの組み合わせに着目することが一般的である。しかしながら、脳血流とコンテンツを視聴した際のユーザの心理変化との関連性について開示された技術は従来ない。そこで、発明者らは以下の実験を行った。   On the other hand, it is also known that oxygenated hemoglobin in the frontal lobe decreases when performing tasks intensively such as in games. Therefore, in the NIRS sensor, it is common to pay attention to the increase / decrease amount of oxyhemoglobin or total hemoglobin, or a combination thereof. However, there has been no technology disclosed about the relationship between cerebral blood flow and a user's psychological change when viewing content. Therefore, the inventors conducted the following experiment.

まず、被験者であるユーザ十数名に複数のコンテンツ(商品説明の動画、又はコマーシャル等が連続して再生されるもの)を視聴してもらい、視聴している間の脳血流の変化を計測した。また、視聴したコンテンツに対する心理状態及び感想等を口頭で回答してもらった。図4を参照して、実験結果より得られた脳血流の変化と、心理状態との関連性について報告する。   First, dozens of users, who are test subjects, watch multiple contents (product description videos or commercials that are continuously played back), and measure changes in cerebral blood flow during viewing did. In addition, they were asked to verbally answer the psychological state and impressions of the content they watched. With reference to FIG. 4, the relationship between the change in cerebral blood flow obtained from the experimental results and the psychological state will be reported.

図4は、実際にNIRSセンサを用い、コンテンツ視聴時のユーザの前頭葉の血流量の変化を検知し、グラフで示した図である。検知のサンプリング間隔は0.6秒であり、横軸を時間(秒)、縦軸を計測開始時点からのヘモグロビン濃度の変化量(mMol・mm(ミリモル・ミリメートル))とした。各グラフについて、酸素と結合したヘモグロビンである酸化ヘモグロビン(oxy−Hb)、結合していないヘモグロビンである脱酸化ヘモグロビン(deoxy−Hb)、及びトータルのヘモグロビン(total−Hb)の3種類の増減量を異なる線種で示している。   FIG. 4 is a graph showing a change in blood flow in the frontal lobe of the user during content viewing using an actual NIRS sensor. The sampling interval of detection was 0.6 seconds, the horizontal axis was time (seconds), and the vertical axis was the amount of change in hemoglobin concentration from the measurement start point (mMol · mm (mmol · millimeter)). For each graph, three types of increase / decrease amounts of oxygenated hemoglobin (oxy-Hb) which is hemoglobin bound to oxygen, deoxygenated hemoglobin (deoxy-Hb) which is not bound hemoglobin, and total hemoglobin (total-Hb) Are indicated by different line types.

実験結果において、特に印象を持たなかったコンテンツ又はシーン、及び興味の低いコンテンツ又はシーンに対しては、脳血流の変化が見られないユーザが多かった。ここで、シーンとは、コンテンツを時分割した一部である。   In the experimental results, there were many users who did not change cerebral blood flow for content or scenes that had no particular impression and content or scenes of low interest. Here, a scene is a part of content divided in time.

例えば、図4(a)は、あるユーザのあるコンテンツを視聴している際の脳血流の変化であって、印象を持たなかった場合の典型的なデータ推移を示したものである。脱酸化ヘモグロビン、酸化ヘモグロビン、及びトータルヘモグロビンのそれぞれの濃度の増減量はいずれも小さく、ともにほぼ一定の量を保持していることが分かる。また、ユーザによる口頭での回答では、ユーザはこのコンテンツに対しては特に印象を持たず、興味の低いものであることが語られた。ユーザは、コンテンツを淡々と視聴している状態と考えられる。また、コンテンツ内で訴える機能及び商品などに対しても淡々と視聴している状況であった。   For example, FIG. 4A shows a typical data transition in the case of a change in cerebral blood flow when a certain user is viewing a certain content and has no impression. It can be seen that the amount of increase / decrease in the respective concentrations of deoxygenated hemoglobin, oxygenated hemoglobin, and total hemoglobin is small, and all of them retain a substantially constant amount. In addition, the verbal answer by the user indicated that the user has no particular impression of this content and is not interested. The user is considered to be viewing the content indifferently. In addition, it was a situation in which the functions and products appealing in the content were indifferently viewed.

一方、実験結果において、興味があったり、興奮したり、驚いたり、緊張したりしてしまうコンテンツ又はシーンに対しては、脳血流の変化が見られるユーザが多かった。特に、酸化ヘモグロビン濃度とトータルヘモグロビン濃度とが増加するユーザが多かった。図4(b)は、あるユーザのあるコンテンツを視聴している際の脳血流の変化であって、ユーザが視聴コンテンツに興味を示した場合の脳血流変化の一例を示したものである。脱酸化ヘモグロビン濃度はほぼ一定であるが、酸化ヘモグロビン濃度と、トータルヘモグロビン濃度とが時間の経過とともに増加し、その後、酸化ヘモグロビン濃度が減少していることが分かる。また、ユーザによる口頭での回答では、このコンテンツに対しては非常に印象に残っており、ドキっとしたとの回答が得られた。特に、コンテンツに出る俳優や女優など人物やシーンになんらかの感情を有する場合が多かった。一方で、人物又はシーンに対してなんらかの感情変化を生じてしまったため、コンテンツ内で訴える機能及び商品などに対しては、意識が行き届かず、印象に残っていなかったり、全く見ていなかったり、覚えていない場合もあった。   On the other hand, in the experimental results, there are many users who see changes in cerebral blood flow for content or scenes that are interested, excited, surprised, or nervous. In particular, many users have increased oxyhemoglobin concentration and total hemoglobin concentration. FIG. 4B shows an example of a change in cerebral blood flow when a user is viewing a certain content, and shows an example of a change in cerebral blood flow when the user is interested in the viewing content. is there. Although the deoxyhemoglobin concentration is almost constant, it can be seen that the oxygenated hemoglobin concentration and the total hemoglobin concentration increase with the passage of time, and thereafter the oxygenated hemoglobin concentration decreases. In addition, the verbal response by the user was very impressive for this content, and it was answered that it was stunning. In particular, there are many cases where people or scenes such as actors and actresses appearing in the content have some feelings. On the other hand, because some emotional change has occurred to the person or scene, the function and product appealing in the content is not fully aware, not impressed, or not at all, Sometimes I didn't remember.

また、実験結果において、興味があるコンテンツ、及び集中して見入ってしまったコンテンツに対しては、脳血流の変化が見られるユーザが多かった。特には、酸化ヘモグロビン濃度とトータルヘモグロビン濃度とが減少するユーザが多かった。図4(c)は、あるユーザのあるコンテンツを視聴している際の脳血流の変化であって、ユーザがコンテンツの視聴に集中した場合の一例を示したものである。脱酸化ヘモグロビン濃度はほぼ一定であるが、酸化ヘモグロビン濃度と、トータルヘモグロビン濃度とが時間の経過とともに減少し、その後増加して回復していることが分かる。ユーザによる口頭での回答では、このコンテンツに対しては非常に印象に残っており、集中して見たとの回答を得ている。ユーザが冷静に集中してコンテンツを視聴しているような状況である。また、コンテンツ内で訴える機能及び商品にも目を配り、印象に残っているという回答が得られた。   In addition, in the experimental results, there are many users who can see changes in cerebral blood flow for content that they are interested in and content that has been focused on. In particular, many users have decreased oxyhemoglobin concentration and total hemoglobin concentration. FIG. 4C shows an example of a change in cerebral blood flow when a certain user views a certain content, and the user concentrates on viewing the content. Although the deoxygenated hemoglobin concentration is almost constant, it can be seen that the oxidized hemoglobin concentration and the total hemoglobin concentration decrease with time and increase thereafter to recover. The verbal response by the user is very impressive for this content, and it is answered that it was viewed in a concentrated manner. The situation is such that the user is calmly watching the content. In addition, he also paid attention to the functions and products appealing in the content, and received a response that left an impression.

得られた上記知見をもとに、本実施の形態に係るコンテンツ評価装置110が備える反応識別部102は、以下の処理によりユーザの心理状態の種別を判定する判定手法を用いる。   Based on the obtained knowledge, the reaction identification unit 102 included in the content evaluation apparatus 110 according to the present embodiment uses a determination method for determining the type of the user's psychological state by the following process.

まず、所定の閾値を設け、基準時からの脳血流の変化量の絶対値が閾値未満の場合は、ユーザのコンテンツに対する心理状態は、興味又は印象が低い状態であるとする。   First, when a predetermined threshold is provided and the absolute value of the change in cerebral blood flow from the reference time is less than the threshold, it is assumed that the psychological state of the user content is a state of low interest or impression.

また、脳血流の変化量の絶対値が閾値以上の場合は、ユーザのコンテンツに対する心理状態は、興味又は印象が高い状態であるとする。   In addition, when the absolute value of the change in cerebral blood flow is equal to or greater than the threshold, the psychological state of the user content is a state of high interest or impression.

以上の判定手法を被験者実験で得られたデータにより検証したところ、実際にユーザから口頭で得られた正解に対し、脳血流をもとに判定した心理状態の正解率は70%以上であった。   As a result of verifying the above determination method using data obtained from subject experiments, the correctness rate of the psychological state determined based on cerebral blood flow was 70% or higher compared to the correct answer actually obtained from the user. It was.

また、視聴コンテンツに対して興奮したり、驚いたり、緊張するという心理状態と、酸化ヘモグロビン濃度が増加する脳血流変化との相関も非常に高かった。また、視聴コンテンツに対して見入ってしまい、又は、集中してみるという心理状態と、酸化ヘモグロビン濃度が減少する脳血流変化との相関も非常に高かった。   In addition, there was a very high correlation between the psychological state of being excited, surprised, and nervous about the viewing content, and the change in cerebral blood flow in which the oxyhemoglobin concentration increased. In addition, the correlation between the psychological state of seeing or concentrating on the viewing content and the change in cerebral blood flow in which the oxyhemoglobin concentration decreases was very high.

実際、人の心理状態と脳の血流量の変化については未解明な部分が多く、商品の好き嫌い、コンテンツの好き嫌い、及び嗜好など、高次の心理状態まで特定することは、現在の実験結果からは困難である。しかしながら、上記実験結果より、少なくとも印象が残るほど興奮して視聴し、見入ってしまうコンテンツであったか(「有反応系」と定義する)、そうでないか(「無反応系」と定義する)は、脳血流の増減量をもとに特定が可能であると考えられる。   In fact, there are many unexplained parts about changes in human psychological state and blood flow in the brain, and it is based on the current experimental results to specify higher psychological states such as product likes and dislikes, content likes and dislikes, and preferences. It is difficult. However, based on the above experimental results, it was determined whether the content was viewed with excitement at least to leave an impression (defined as “reactive”) or not (defined as “non-reactive”). It can be identified based on the increase or decrease in cerebral blood flow.

また、反応があったコンテンツであって、その興味の持ち方が興奮したり、驚いたり、緊張するという心理状態(「興奮系」と定義する)か、見入ってしまったり、集中してみるという心理状態(「集中系」と定義する)かという、コンテンツに対する反応の種別の識別も、脳血流が増加したか、又は減少したかを区別することによって大別することが可能と考えられる。   In addition, it is a content that has been reacted, and the way of interest is excited, surprised, or nervous (defined as "excited system"), looked at, or concentrated The type of response to content, which is a psychological state (defined as “concentrated system”), can also be broadly classified by distinguishing whether cerebral blood flow has increased or decreased.

そこで本発明では、コンテンツに対するユーザの反応を上記3つの種別(無反応系、興奮系、集中系)のいずれかとし、反応識別部102において、脳血流の変化をもとに反応のいずれかの反応の種別かを識別し、また、有反応系の反応を示した時刻(以後、反応時刻候補という)を特定することとする。   Therefore, in the present invention, the user's reaction to the content is any one of the above three types (non-reactive system, excitatory system, and concentrated system), and the reaction identification unit 102 selects one of the reactions based on the change in cerebral blood flow. And the time when the reaction of the reaction system is shown (hereinafter referred to as a reaction time candidate) is specified.

なお、本発明においては、脳血流のうち、酸化ヘモグロビン濃度に着目し、以下では説明のため酸化ヘモグロビン濃度の増減量を用いて反応種別を認識することとする。ただし、必ずしも酸化ヘモグロビン濃度の増減量のみに限ったものではなく、トータルヘモグロビン濃度の増減量、又はこれらの組み合わせてもよい。例えば酸化ヘモグロビン濃度とトータルヘモグロビン濃度がともに同じ方向へ増減した場合を有反応系と特定し、又はトータルヘモグロビン濃度の増加量に対し酸化ヘモグロビン濃度が事前に定められた割合以上増加した場合を有反応系と特定してもよい。   In the present invention, attention is paid to oxyhemoglobin concentration in the cerebral blood flow, and in the following, for the sake of explanation, the reaction type is recognized using the increase / decrease amount of oxyhemoglobin concentration. However, the increase / decrease amount of the oxygenated hemoglobin concentration is not necessarily limited, and the increase / decrease amount of the total hemoglobin concentration or a combination thereof may be used. For example, if the oxyhemoglobin concentration and the total hemoglobin concentration both increase or decrease in the same direction, the reaction system is specified, or if the oxyhemoglobin concentration increases more than a predetermined ratio with respect to the increase in the total hemoglobin concentration, the reaction occurs. It may be specified as a system.

また、反応識別部102は、反応種別の識別に使用する脳血流として、脳血流検知部320から取得した脳血流の測定結果に対して、平滑化処理、又は脱酸化ヘモグロビンを用いたベースライン補正を施してもよい。脳血流は生理現象に起因するノイズを含むため、平滑化処理を行うことでノイズを除去することが可能となる。また、脱酸化ヘモグロビンを基準にベースライン補正を行うことで、ノイズ及び生理現象による増加量を除去し、脳血流の増減を詳細に把握することが可能となる。   In addition, the reaction identification unit 102 uses smoothing processing or deoxygenated hemoglobin for the measurement result of the cerebral blood flow acquired from the cerebral blood flow detection unit 320 as the cerebral blood flow used to identify the reaction type. Baseline correction may be performed. Since cerebral blood flow includes noise due to physiological phenomena, it is possible to remove noise by performing smoothing processing. In addition, by performing baseline correction based on deoxygenated hemoglobin, it is possible to remove the increase due to noise and physiological phenomena and grasp the increase or decrease in cerebral blood flow in detail.

再び、図3を用いて説明する。反応識別部102は、所定の閾値として、第1の閾値412と第2の閾値413とを設けている。例えば、第1の閾値412を0.05とし、第2の閾値413を−0.05とする。このとき、反応識別部102は、脳血流の増減量の絶対値が所定の閾値を上まわる場合を「有反応系」と認識する。すなわち、脳血流が0.05を上まわり、又は−0.05を下まわる場合には、反応識別部102は、反応種別を有反応系と認識する。   Again, a description will be given with reference to FIG. The reaction identification unit 102 provides a first threshold 412 and a second threshold 413 as predetermined thresholds. For example, the first threshold 412 is set to 0.05, and the second threshold 413 is set to −0.05. At this time, the reaction identification unit 102 recognizes a case where the absolute value of the increase / decrease amount of the cerebral blood flow exceeds a predetermined threshold as a “reactive system”. That is, when the cerebral blood flow exceeds 0.05 or falls below -0.05, the reaction identification unit 102 recognizes the reaction type as a reactive system.

より詳細には、反応識別部102は、脳血流が正の閾値である第1の閾値412を増加方向に超えた場合は「興奮系」の反応種別であると特定し、負の閾値である第2の閾値413を減少方向に超えた場合は「集中系」の反応種別であると特定する。   More specifically, when the cerebral blood flow exceeds the first threshold value 412 that is a positive threshold value in the increasing direction, the reaction identifying unit 102 specifies that the reaction type is “exciting system” and sets a negative threshold value. When a certain second threshold 413 is exceeded in the decreasing direction, it is specified that the reaction type is “concentrated”.

一方、脳血流が閾値以内(例えば、±0.05以内)の場合、反応識別部102は反応種別を「無反応系」と特定する。また、反応種別が「有反応系」(すなわち、「興奮系」又は「集中系」)であると特定された時刻を反応時刻候補として特定する。   On the other hand, when the cerebral blood flow is within a threshold value (for example, within ± 0.05), the reaction identifying unit 102 specifies the reaction type as “no reaction system”. Also, the time specified as the reaction type “reactive system” (that is, “excited system” or “concentrated system”) is specified as a reaction time candidate.

すなわち、反応識別部102は、取得した脳血流の絶対値が事前に定められた閾値を上まわる場合、又は、所定の時間区間における脳血流の積分値の絶対値が事前に定められた値を上まわる場合には、ユーザが心理的な反応を示したと識別する。   That is, the reaction identifying unit 102 determines the absolute value of the integrated value of the cerebral blood flow in a predetermined time interval when the absolute value of the acquired cerebral blood flow exceeds a predetermined threshold value or If the value exceeds the value, the user is identified as having a psychological reaction.

より詳細には、反応識別部102は、取得した脳血流が第1の閾値を上まわる場合には、ユーザの心理的な反応の種別を興奮状態であると識別し、脳血流が第2の閾値を下まわる場合には、ユーザの心理的な反応の種別を集中状態であると識別する。ここで、第1の閾値は基準時におけるユーザの脳血流よりも大きな値であり、第2の閾値は基準時におけるユーザの脳血流よりも小さな値である。   More specifically, when the acquired cerebral blood flow exceeds the first threshold, the reaction identifying unit 102 identifies the type of psychological reaction of the user as being in an excited state, and the cerebral blood flow is When the threshold value is below 2, the user's psychological reaction type is identified as being in a concentrated state. Here, the first threshold value is larger than the user's cerebral blood flow at the reference time, and the second threshold value is smaller than the user's cerebral blood flow at the reference time.

図3において、0秒から30秒までのA社の一眼カメラの商品説明の動画が表示されている間と、30秒から60秒までB社のデジタルカメラの商品説明の動画が表示されている間とは、酸化ヘモグロビン濃度として測定される脳血流が閾値以内であるため、反応識別部102は、反応種別を「無反応系」と特定する。一方、60秒からC社のデジタルカメラの商品説明の動画が表示され、65秒に閾値以上に酸化ヘモグロビンの量が増加している。よって、反応識別部102は、測定開始後65秒経過時である反応時刻候補420における反応種別を「興奮系」と特定する。   In FIG. 3, the product description video of the single-lens camera of Company A from 0 to 30 seconds is displayed, and the product description video of the digital camera of Company B is displayed from 30 to 60 seconds. Between, since the cerebral blood flow measured as the oxygenated hemoglobin concentration is within the threshold, the reaction identifying unit 102 specifies the reaction type as “non-reactive system”. On the other hand, a movie describing the product description of the digital camera of company C is displayed from 60 seconds, and the amount of oxyhemoglobin increases above the threshold value in 65 seconds. Therefore, the reaction identification unit 102 identifies the reaction type in the reaction time candidate 420 when 65 seconds have elapsed after the start of measurement as “excited system”.

なお、脳血流の増減は、個人差や検知する脳の部位にも依存するのが一般的である。そこで例えば、あらかじめブランクなどの動画を視聴し、その間の脳血流の増減量の平均値を「無反応系」と認識する閾値として算出する等、測定開始前に個人ごとにキャリブレーションを行ってもよい。   In general, the increase or decrease in cerebral blood flow also depends on individual differences and the part of the brain to be detected. Therefore, for example, by watching a video such as a blank in advance and calculating the average value of the increase or decrease in cerebral blood flow during that time as a threshold for recognizing it as “non-reactive system”, calibration is performed for each individual before starting the measurement. Also good.

図5は、実験によって示された、視聴するコンテンツと脳血流の変化量との対応関係の他の例を示す図である。具体的には、図3の場合と同じコンテンツを視聴した別のユーザの脳血流を示す図である。図5(b)は、視聴するコンテンツの模式図である。   FIG. 5 is a diagram illustrating another example of the correspondence relationship between the content to be viewed and the amount of change in cerebral blood flow, which is shown by experiments. Specifically, it is a diagram showing the cerebral blood flow of another user who has viewed the same content as in the case of FIG. FIG. 5B is a schematic diagram of content to be viewed.

図5(a)は、コンテンツを視聴している際の、ユーザの脳血流を示す図である。すなわち、実際にNIRSセンサを用い、コンテンツ視聴時のユーザの前頭葉の血流量の変化を検知し、グラフで示した図である。グラフの横軸は時間を、縦軸は脳の血流量で表している。ここで、閾値412は0.05とし、閾値413は−0.05する。   FIG. 5A is a diagram illustrating the cerebral blood flow of the user when viewing the content. That is, FIG. 3 is a graph showing a change in blood flow in the frontal lobe of a user when viewing content using an NIRS sensor. The horizontal axis of the graph represents time, and the vertical axis represents brain blood flow. Here, the threshold value 412 is set to 0.05, and the threshold value 413 is set to −0.05.

図5(a)では、0秒から30秒の間に表示されるA社の商品説明のコンテンツ222、30秒から60秒の間に表示されるB社の商品説明のコンテンツ223、そして60秒から90秒の間に表示されるC社の商品説明のコンテンツ224の間、血流量は閾値以内に収まっていることが分かる。一方、計測開始後90秒の時点で、酸化ヘモグロビン濃度を示すグラフ402は閾値412を超え、脳の血流量が増加していることが分かる。このように、脳血流はユーザの心理状態を反映しており、コンテンツへの集中、興味の高まり、及び興奮などの心理状態によって増減することが分かる。   In FIG. 5A, the product description content 222 of company A displayed between 0 seconds and 30 seconds, the product description content 223 of company B displayed between 30 seconds and 60 seconds, and 60 seconds. It can be seen that the blood flow is within the threshold during the content 224 of the product description of the company C displayed during 90 seconds from the start. On the other hand, at the point of 90 seconds after the start of measurement, the graph 402 showing the oxygenated hemoglobin concentration exceeds the threshold value 412 and it can be seen that the blood flow in the brain is increased. Thus, it can be seen that the cerebral blood flow reflects the psychological state of the user and increases or decreases depending on the psychological state such as concentration on content, increased interest, and excitement.

次に、得られた反応が、いずれのコンテンツ及びシーン対しての反応であるかを特定する処理について、順を追って説明する。   Next, processing for specifying which content and scene the obtained response is for will be described in order.

図1を参照して、視線検知部103は、コンテンツを視聴しているユーザの視線を検知する。視線検知部103は、例えば、テレビ画面、PC画面、又は携帯画面など、コンテンツが表示される画面上の座標を所定時間ごとに検知する。   With reference to FIG. 1, the line-of-sight detection unit 103 detects the line of sight of the user who is viewing the content. The line-of-sight detection unit 103 detects, for example, coordinates on a screen on which content is displayed, such as a television screen, a PC screen, or a mobile screen, every predetermined time.

図6を参照して、視線検知部103による視線検知を説明する。図6は、本実施の形態においてユーザがコンテンツを視聴する画面の座標系を示す図である。画面の横軸をX座標、縦軸をY座標とし、左上を原点(0、0)とする。1ピクセルを1単位として表し、X軸は右を正、Y軸は下を正として表す。図6(a)は画面に対する位置や領域を説明する図である。図6(a)において、例えばユーザが点Aを注視している場合の視線位置は(200、300)となる。また、ユーザが点Aから右に600ピクセル、下に100ピクセル移動した点A’を注視している場合の視線位置は(800、400)となる。また、点Aと点A’で囲まれる長方形の領域Bのように所定の長方形の領域を(左上の点のX座標、左上の点のY座標、右下の点のX座標、右下の点のY座標)と表す。例えば領域Bは(200、300、800、400)となる。また、視線検知部103は、10ms(ミリセック)ごと等、所定の時間ごとに視線位置を検知する。これにより、コンテンツ評価装置110は、ユーザの視線の移動や、所定の領域への視線の滞留時間等を計測することができる。なお、視線位置の検知手法については、従来から、被験者の眼球画像を撮影し、眼球における瞳孔の位置を用いて被験者の視線を検知するなど、様々な手法が知られており(例えば、特許文献2等)、本発明における視線検知部103も同様の手法で検知することとする。   With reference to FIG. 6, the gaze detection by the gaze detection unit 103 will be described. FIG. 6 is a diagram showing a coordinate system of a screen on which a user views content in the present embodiment. The horizontal axis of the screen is the X coordinate, the vertical axis is the Y coordinate, and the upper left is the origin (0, 0). One pixel is represented as one unit, the X axis represents the right as positive, and the Y axis represents the lower as positive. FIG. 6A is a diagram for explaining positions and areas with respect to the screen. In FIG. 6A, for example, the line-of-sight position when the user is gazing at the point A is (200, 300). Further, the line-of-sight position when the user is gazing at the point A ′ moved 600 pixels to the right and 100 pixels downward from the point A is (800, 400). In addition, a predetermined rectangular area such as a rectangular area B surrounded by the points A and A ′ (the X coordinate of the upper left point, the Y coordinate of the upper left point, the X coordinate of the lower right point, Y coordinate of the point). For example, the region B is (200, 300, 800, 400). The line-of-sight detection unit 103 detects the line-of-sight position every predetermined time, such as every 10 ms (millisec). Thereby, the content evaluation apparatus 110 can measure the movement of the user's line of sight, the staying time of the line of sight in a predetermined area, and the like. Note that various methods have been known for detecting the eye gaze position, such as taking an eyeball image of the subject and detecting the eye gaze of the subject using the position of the pupil in the eyeball (for example, Patent Documents). 2), the gaze detection unit 103 according to the present invention is also detected by the same method.

滞留時間算出部104は、視線位置の移動距離が事前に定められた閾値以内であった時間である滞留時間を算出する。具体的には、視線検知部103で検知された所定時間ごとの視線位置の推移から、視線が滞留している位置である滞留位置と、その滞留位置への滞留時間を算出する。例えば図6(b)において、生体信号の計測開始後3.5秒後から5.5秒後までの間、視線がC(400、380)に位置したとする。この場合、滞留時間算出部104は、滞留位置が座標C(400、380)であり、対応する滞留時間が2秒間(=5.5−3.5)であると算出する。このように、滞留時間算出部104は、時間差分を算出することで滞留時間を算出できる。   The dwell time calculation unit 104 calculates a dwell time that is a time during which the movement distance of the line-of-sight position is within a predetermined threshold. Specifically, the stay position at which the line of sight stays and the stay time at the stay position are calculated from the transition of the line-of-sight position detected by the line-of-sight detection unit 103 every predetermined time. For example, in FIG. 6B, it is assumed that the line of sight is positioned at C (400, 380) from 3.5 seconds to 5.5 seconds after the start of measurement of the biological signal. In this case, the residence time calculation unit 104 calculates that the residence position is coordinates C (400, 380) and the corresponding residence time is 2 seconds (= 5.5-3.5). In this way, the residence time calculation unit 104 can calculate the residence time by calculating the time difference.

再度図1を参照して、想起判定部106は、ユーザが思い出しなどの想起行動を生じているか否かの判定を行う。   Referring to FIG. 1 again, the recall determination unit 106 determines whether or not the user has a recall action such as a reminder.

本実施の形態に係るコンテンツ評価システムは、ユーザにコンテンツを視聴してもらい、視聴している間の脳血流等をもとにユーザの心理状態を推定することによってコンテンツを評価する。したがって、ユーザから得られた反応が、ユーザが視聴した複数のコンテンツのうち、いずれのコンテンツに対するものであるかを特定することが非常に重要となる。   The content evaluation system according to the present embodiment evaluates the content by having the user view the content and estimating the user's psychological state based on the cerebral blood flow during viewing. Therefore, it is very important to specify which of the plurality of contents viewed by the user is the reaction obtained from the user.

例えば脳血流が増加した場合など、興奮又は興味などの心理的な反応を示す結果が得られた場合であっても、ユーザは、実際にはちょうど見終えたコンテンツに対して考え事を行ったり、又は何かに気づいて思い出したりする場合も非常によくある。例えば、ユーザに連続してコンテンツを視聴させ、取得した生体信号をもとにコンテンツに対する評価をコンテンツごとに比較するようなシステムでは、得られた生体信号に示される心理的な反応が、いずれのコンテンツに対応するものであるかの特定が困難である。また、複数の異なるシーンが連続するようなドラマや映画などをユーザに視聴させ、取得した生体信号をもとにシーンに対する評価や感情を推定するシステムでは、得られた心理的な反応が、いずれのシーンに対応するものであるかの特定が困難である。   Even when a result showing a psychological reaction such as excitement or interest is obtained, for example, when the cerebral blood flow increases, the user actually thinks about the content that has just been viewed. It is very common to notice something and remember it. For example, in a system that allows a user to continuously view content and compare the evaluation of the content for each content based on the acquired biological signal, the psychological reaction indicated by the obtained biological signal It is difficult to identify whether the content corresponds to the content. In addition, in a system that allows a user to watch a drama or a movie in which a plurality of different scenes continue, and evaluates the scene and estimates emotion based on the acquired biological signal, It is difficult to specify whether the scene corresponds to the scene.

実際、前述した図5に示される脳血流の変化を示したユーザは、実験後の口頭質問において、C社の動画を視聴直後に「C社の商品とは意外だったので、その後も感情を引きずってその後視聴していた」との回答が得られている。また、一方でD社の動画にはまったく印象に残っていないとの回答も得られている。このように、思い出したり、考え事をする場合も脳血流が増減する結果は、他の実験からも得られている。これは、ユーザによる思い出し行動も、短時間の記憶などのワーキングメモリ行動と考えられ、脳の血流に変化が生じるためと考えられる。   In fact, the user who showed the change in the cerebral blood flow shown in FIG. 5 described above immediately after watching the video of the company C in the oral question after the experiment, “Since the product of the company C was unexpected, “I was watching and then watching”. On the other hand, there is a reply that the video of Company D is not impressive at all. In this way, the results of increase or decrease in cerebral blood flow are also obtained from other experiments when remembering or thinking. This is because the user's recall behavior is also considered to be a working memory behavior such as short-term memory, and changes in the blood flow of the brain occur.

本実施の形態では、このように思い出し等を行う行動を「想起」と定義し、以下、ユーザによる想起状態の判定について説明する。   In the present embodiment, the action of performing such reminding is defined as “recall”, and the determination of the recall state by the user will be described below.

再度図1を参照して、想起情報蓄積部105は、画像コンテンツを時分割した各々であるシーンの表示時間と、表示時間に画像コンテンツの一部として表示される画像である提供画像の表示領域とを対応付ける情報である想起情報を蓄積している。具体的には、画面上に表示されるコンテンツの内容とその時間に関する情報である「想起情報」を蓄積する。   Referring to FIG. 1 again, the recall information storage unit 105 displays a display time of a scene that is each time-divided image content, and a display area of a provided image that is an image displayed as part of the image content at the display time. Recall information, which is information that associates Specifically, “recollection information” that is information about the content and the time of the content displayed on the screen is stored.

本来コンテンツには、時間ごとに着目して欲しいシーン又は領域を有するのが一般的である。そしてコンテンツは、ユーザがこれらの領域を視線で追うことで、ユーザがコンテンツに対する理解を得られるよう作成されている。図7は、想起情報を説明する図である。   In general, the content generally has a scene or region that should be focused on every time. The content is created so that the user can gain an understanding of the content by following these areas with his gaze. FIG. 7 is a diagram for explaining the recall information.

図7に示されるように、想起情報蓄積部105には、想起情報として、コンテンツの「名称」や、時間ごとの着目すべき内容(属性とする)と、その内容が表示される領域が「シーンタグ」として蓄積されている。   As shown in FIG. 7, in the recall information storage unit 105, as the recall information, the “name” of the content, the content to be noticed for each time (assumed to be an attribute), and the area where the content is displayed are “ It is stored as a “scene tag”.

具体的には、想起情報蓄積部105は、少なくとも1つ以上の想起情報1105を含む。各想起情報1105は、例えばコンテンツの名称1108と、1つ以上のシーンタグ1110とを含む。また、1つのシーンタグ1110は、1つのシーンに対応する。   Specifically, the recall information storage unit 105 includes at least one or more recall information 1105. Each recall information 1105 includes, for example, a content name 1108 and one or more scene tags 1110. One scene tag 1110 corresponds to one scene.

シーンタグ1110は、識別子と、コンテンツに提供画像が表示される表示時間と、その提供画像の表示領域と、その提供画像の属性とを対応付けている。なお、1つのシーンタグは、複数の提供画像を含んでもよい。   The scene tag 1110 associates an identifier, a display time during which the provided image is displayed in the content, a display area of the provided image, and an attribute of the provided image. One scene tag may include a plurality of provided images.

ここで提供画像とは、コンテンツ制作者がユーザに注目してもらいたいと考えて、コンテンツに含まれる画像の中から選択した画像である。また、提供画像の属性とは、例えば、提供画像が有するコンテンツ内での役割(商品説明、機能説明)等であってもよく、提供画像が示す情報の種別(文字情報を伝えるロゴ、映像情報を伝える外観写真)等であってもよい。   Here, the provided image is an image selected from images included in the content because the content creator wants the user to pay attention. The attribute of the provided image may be, for example, the role (product description, function description) in the content of the provided image, and the type of information indicated by the provided image (logo that conveys character information, video information) Or an external photograph).

より具体的には、ユーザに、A社CM、B社CM、C社CM、D社CMという4社のCMを見せ、各CMに対する評価を取得する場合、各社のCMがコンテンツであり、各コンテンツに1つの想起情報が対応付けて定義されている。各コンテンツは、例えばカメラの外観写真、商品名のロゴ、及び使用場面等の提供画像を含んでおり、シーンタグにより提供画像が特定される。   More specifically, when showing the CMs of four companies, A company CM, B company CM, C company CM, and D company CM to the user, and obtaining an evaluation for each CM, the CM of each company is content, One recall information is defined in association with the content. Each content includes provided images such as an external photograph of a camera, a brand name logo, and a usage scene, and the provided image is specified by a scene tag.

例えば、コンテンツ3に対応する想起情報1105を参照すると、コンテンツの名称は「C社デジタルカメラCM」である。識別子が1のシーンタグには、対応する提供画像の表示時間が1秒から2秒であり、表示領域が(200、300、700、400)であり、属性が女優であることが示されている。   For example, referring to the recall information 1105 corresponding to the content 3, the name of the content is “Company C digital camera CM”. The scene tag with the identifier 1 indicates that the display time of the corresponding provided image is 1 to 2 seconds, the display area is (200, 300, 700, 400), and the attribute is an actress. Yes.

これは、1秒から2秒の間、表示領域(200、300、700、400)にCMのタレント女優が表示されることを意味している。   This means that the CM talent actress is displayed in the display area (200, 300, 700, 400) for 1 to 2 seconds.

また、識別子が2のシーンタグには、対応する提供画像の表示時間が3秒から4秒であり、表示領域が(200、300、700、600)であり、属性がカメラであることが示されている。   The scene tag with the identifier 2 indicates that the display time of the corresponding provided image is 3 to 4 seconds, the display area is (200, 300, 700, 600), and the attribute is a camera. Has been.

これは、3秒から4秒の間、表示領域(200、300、700、600)にC社のカメラを表す提供画像が表示されることを意味している。   This means that the provided image representing the camera of company C is displayed in the display area (200, 300, 700, 600) for 3 to 4 seconds.

このように想起情報蓄積部105には、想起情報として、コンテンツ制作側が着目して欲しいと考えている提供画像の表示領域、あるいは一般的にユーザが着目すると考えられる提供画像の表示領域が蓄積されている。また、ユーザ側も、一般的にはこの領域に着目し、これら領域の視聴を時間ごとに経ることで、コンテンツを理解していくこととなる。そして、その表示領域に着目し、コンテンツを理解することで、興味の有無などの、ユーザごとの心理的は反応が形成される。   As described above, the recall information storage unit 105 stores, as the recall information, the display area of the provided image that the content production side wants to pay attention to or the display area of the provided image that the user generally considers to pay attention to. ing. Also, the user side generally pays attention to these areas, and understands the contents by watching these areas over time. Then, paying attention to the display area and understanding the content, a psychological reaction for each user such as the presence or absence of interest is formed.

しかしながら、ユーザがコンテンツの視聴中に想起状態にある場合には、現在表示されているコンテンツにおいて、本来ならユーザが着目しやすい領域とは異なる領域に視線が位置することが発明者らの実験より明らかになった。また、この場合には、視線の位置がしばらく滞留する傾向があることも明らかになった。これらの理由は以下のように考えられる。   However, when the user is in a recall state while viewing the content, the inventors' experiments indicate that the line of sight is located in a region that is different from the region that the user is likely to focus on in the currently displayed content. It was revealed. In this case, it has also been clarified that the line of sight tends to stay for a while. These reasons are considered as follows.

ユーザが着目しやすい領域とは、具体的には、女優、俳優、製品の外観図などを表す提供画像の表示領域のように、ユーザの関心を引きやすい画像が表示される領域である。しかし、ユーザが想起状態にある場合は、これら着目しやすい領域に視線が行ってしまうと、そちらに集中してしまい、想起行動の継続が困難となる。したがって、ユーザは無意識のうちに、視線を着目しやすい領域から外すと考えられる。また、前述のように、想起状態にある場合は、視線の移動量は減少し、着目しやすい領域以外の位置にしばらく視線が滞留する場合も多い。この理由は、上記同様、ユーザが視線を動かした結果、現在のコンテンツに表示されている注目しやすい領域に着目してしまうと、想起行動の継続が困難になるためと考えられる。   Specifically, the region that is easy for the user to pay attention is a region in which an image that easily attracts the user's interest is displayed, such as a display region of a provided image that represents an external view of an actress, an actor, or a product. However, when the user is in the recall state, if the line of sight goes to these easy-to-focus areas, the user concentrates on that area, making it difficult to continue the recall action. Therefore, it is considered that the user unconsciously removes the line of sight from the region where attention is easily focused. Further, as described above, when the user is in the recall state, the amount of movement of the line of sight decreases, and the line of sight often stays for a while at a position other than the region that is easily noticed. The reason for this is thought to be that, as a result of the user moving his / her line of sight as described above, if attention is paid to a region that is easily noticed displayed in the current content, it is difficult to continue the recalling action.

そこで、想起判定部106は、想起情報をもとに、ユーザが着目しやすい領域である表示領域に対する視線の位置と、視線位置の滞留時間とをもとに想起状態の判定を行う。すなわち、想起判定部106は、画像コンテンツを視聴する時の一般的な視線位置として事前に定式化されたモデルと、ユーザの視線位置との乖離度合いが事前に定められた値より大きければ、ユーザは想起していた(すなわち、想起状態であった)と判定する。   Therefore, the recall determination unit 106 determines the recall state based on the position of the line of sight with respect to the display area, which is an area that is easy for the user to focus on, and the dwell time of the line of sight position based on the recall information. In other words, the recall determination unit 106 determines that the user's line-of-sight position is larger than a predetermined value and a model that is formulated in advance as a general line-of-sight position when viewing image content. Is determined to have been recalled (ie, it was in a recall state).

より具体的には、想起判定部106は、シーンごとに、シーンの表示時間における視線位置と表示時間に対応付けられた表示領域との距離、及び表示時間における滞留時間が、それぞれ事前に定められた閾値以上であるか否かを判定し、閾値以上である場合には、ユーザが想起状態であると判定する。   More specifically, the recall determination unit 106 determines, for each scene, the distance between the line-of-sight position in the display time of the scene and the display area associated with the display time, and the residence time in the display time. If it is equal to or greater than the threshold value, and if it is equal to or greater than the threshold value, it is determined that the user is in the recall state.

例えば、想起判定部106は、視線位置から表示領域までの鉛直距離を算出し、この距離が所定の閾値以上であり、かつ、視線位置の滞留時間が所定の閾値以上の場合、ユーザは想起状態であると判定する。さらに、想起判定部106は、1つのコンテンツに含まれる全シーンのうち想起状態であると判定されたシーンの割合で想起度を算出してもよい。以下、具体例を用いて説明する。   For example, the recall determination unit 106 calculates the vertical distance from the line-of-sight position to the display area, and when the distance is equal to or greater than a predetermined threshold and the dwell time at the line-of-sight position is equal to or greater than the predetermined threshold, the user It is determined that Furthermore, the recall determination unit 106 may calculate the recall level by the ratio of scenes determined to be in the recall state among all scenes included in one content. Hereinafter, a specific example will be described.

図6(b)は、実験において示された、想起行動時のユーザの視線位置の一例を示す図である。具体的には、画面上に、C社の商品を紹介する動画コンテンツの一部のシーンが表示されている。画面上には商品の説明として、「手振れ補正機能付き」との文字を表す提供画像が表示領域(200、300、800、400)に表示されている。一方、ユーザの視線はこの間、視線C(400、380)に位置している。表示領域内に視線が位置しているため、ユーザは商品説明に着目していると考えることができる。   FIG. 6B is a diagram illustrating an example of a user's line-of-sight position at the time of the recall action, which is shown in the experiment. Specifically, some scenes of moving image content introducing products of company C are displayed on the screen. On the screen, as a description of the product, a provided image representing characters “with a camera shake correction function” is displayed in the display area (200, 300, 800, 400). On the other hand, the user's line of sight is located at line of sight C (400, 380) during this period. Since the line of sight is located in the display area, it can be considered that the user is paying attention to the product description.

一方、ユーザが想起を行っている場合、表示領域から外れた位置にユーザの視線が滞留することが多い。図8は、実験において示された、想起行動時のユーザの視線位置の例を示す図である。具体的には、図8(a)は、図6(b)と同様に、C社の商品を紹介する動画コンテンツの一部のシーンを示す。図6(b)に示される視線の計測対象であるユーザとは異なり、図8(a)に示される視線の計測対象であるユーザの視線は、視線D(200、100)に位置していることが分かる。また、このシーンは3秒間あり、ユーザの視線位置は、3秒間、座標(200、100)に滞留した。   On the other hand, when the user is recalling, the user's line of sight often stays at a position outside the display area. FIG. 8 is a diagram illustrating an example of the line-of-sight position of the user during the recalling action, which is shown in the experiment. Specifically, FIG. 8A shows a scene of a part of the moving image content introducing the product of company C, as in FIG. 6B. Unlike the user who is the measurement target of the line of sight shown in FIG. 6B, the line of sight of the user who is the measurement target of the line of sight shown in FIG. 8A is located at the line of sight D (200, 100). I understand that. Also, this scene has 3 seconds, and the user's line-of-sight position stays at coordinates (200, 100) for 3 seconds.

本来なら、ユーザは、商品の説明に関する文字「手振れ補正機能付き」を表す提供画像に着目すると考えられるところ、想起を行っているため、提供画像の表示領域から視線が大きく外れ、かつ、同じ位置に滞留していることが分かる。視線の座標(200、100)に対し領域までの鉛直距離は、座標(200、100)から座標(200、300)までの距離となり、200(=(0、200))となる。例えば距離の閾値を100とし、滞留時間の閾値を2秒とすると、距離及び滞留時間のいずれも閾値以上のため、想起判定部106は、ユーザが想起行動をとっている(すなわち、想起状態である)と判定する。   Originally, it is thought that the user focuses on the provided image representing the character “with camera shake correction function” related to the description of the product. However, since the user is recalling, the line of sight is greatly deviated from the display area of the provided image, and the same position. It turns out that it is staying in. The vertical distance to the area with respect to the coordinates (200, 100) of the line of sight is the distance from the coordinates (200, 100) to the coordinates (200, 300), and is 200 (= (0, 200)). For example, if the distance threshold is 100 and the residence time threshold is 2 seconds, both the distance and the residence time are equal to or greater than the threshold value, and the recall determination unit 106 takes the recall action (that is, in the recall state) It is determined.

また、コンテンツが動画等の場合、各コンテンツは複数の提供画像を含みうる。この場合、想起判定部106が一部の提供画像に対するユーザの想起状態のみを判定しても、コンテンツ全体に対する想起状態を正確に判定することはできない。   When the content is a moving image or the like, each content can include a plurality of provided images. In this case, even if the recall determination unit 106 determines only the user's recall state for some of the provided images, the recall state for the entire content cannot be accurately determined.

そこで想起判定部106は、例えば各コンテンツの視聴中における、ユーザによる想起行動の回数を集計し、その割合でコンテンツに対するユーザの想起度を算出する。   Therefore, for example, the recall determination unit 106 totals the number of recall actions by the user while viewing each content, and calculates the recall degree of the user for the content at the ratio.

例えば、再び図7(a)を参照して、コンテンツ3の「C社デジタルカメラCM」には、合計10個のシーンタグが含まれている。ここで、例えば10個中、識別子が1のシーンタグ(シーンタグ1)に対応する提供画像に対してのみユーザは想起行動をとり、それ以外の9個のシーンタグに対応する提供画像に対しては、所定の表示領域内にユーザの視線が位置していたとする。この場合、想起判定部106は、ユーザのコンテンツ3に対する想起度を、1/10=10%と算出する。すなわち、想起判定部106は、想起情報に含まれるシーンの総数に対する、ユーザが想起状態であると判定されたシーンの総数の割合として想起度を算出する。   For example, referring again to FIG. 7A, “C company digital camera CM” of content 3 includes a total of 10 scene tags. Here, for example, the user takes a recall action only for the provided image corresponding to the scene tag (scene tag 1) having the identifier 1 out of 10, and for the provided images corresponding to the other 9 scene tags. It is assumed that the user's line of sight is located within a predetermined display area. In this case, the recall determination unit 106 calculates the recall level of the user for the content 3 as 1/10 = 10%. That is, the recall determination unit 106 calculates the recall level as a ratio of the total number of scenes determined to be in the recall state by the user with respect to the total number of scenes included in the recall information.

なお、想起判定部106は、想起状態と判定した時間の合計時間をもとに想起度を算出することとしてもよい。視線が領域を外れる時間が長いほど、想起している可能性が高いと考えられるからである。この場合、想起判定部106は、例えば、想起情報に含まれる全てのシーンタグに対応する表示時間の合計値に対する、ユーザが想起状態にあると判定されたシーンタグに対応する表示時間の合計値の割合として、想起度を算出してもよい。   The recall determination unit 106 may calculate the recall level based on the total time determined as the recall state. This is because the longer the time the line of sight departs from the region, the higher the possibility of recalling. In this case, the recall determination unit 106, for example, the total display time corresponding to the scene tag determined to be in the recall state with respect to the total display time corresponding to all scene tags included in the recall information. As a ratio, the degree of recall may be calculated.

図9、図10は、想起度について説明する図である。図9(a)は、図3(a)と同じユーザの脳血流の測定結果を示す図である。図9(b)は、ユーザが視聴した4つのコンテンツの概要を示す。図9(c)は、各コンテンツに対して想起判定部106によって算出された想起度を示す。   9 and 10 are diagrams for explaining the recall level. Fig.9 (a) is a figure which shows the measurement result of the same user's cerebral blood flow as Fig.3 (a). FIG. 9B shows an outline of four contents viewed by the user. FIG. 9C shows the recall level calculated by the recall determination unit 106 for each content.

例えば0秒から30秒までのA社の商品説明用の動画コンテンツの視聴時は、全部で10個のシーンのうち、2個のシーンで、ユーザの視線位置が表示領域から閾値以上離れていたため、想起判定部106は、想起度を20%と算出する。一方、B社、C社、D社の商品説明用の動画コンテンツの視聴時には、表示領域にユーザの視線が位置しており、いずれも想起度は0%と算出されている。   For example, when viewing the video content for the product explanation of Company A from 0 to 30 seconds, the user's line-of-sight position is far from the display area by more than a threshold in two of the ten scenes. The recall determination unit 106 calculates the recall level as 20%. On the other hand, at the time of viewing the video content for product explanation of Company B, Company C, and Company D, the user's line of sight is located in the display area, and the recall level is calculated as 0%.

図10(a)は、図5(a)と同じユーザの脳血流を示す図である。図10(b)は、ユーザが視聴した4つのコンテンツの概要を示す。図10(c)は、各コンテンツに対して想起判定部106によって算出された想起度を示す。例えば0秒から30秒までのA社の商品説明用の動画コンテンツの視聴時は想起度が0%と算出され、B社の商品説明用の動画コンテンツの視聴時は想起度が20%と算出され、C社の商品説明用の動画コンテンツの視聴時は想起度が0%と算出され、D社の商品説明用の動画コンテンツの視聴時は想起度が80%と算出されている。   Fig.10 (a) is a figure which shows the cerebral blood flow of the same user as Fig.5 (a). FIG. 10B shows an outline of four contents viewed by the user. FIG. 10C shows the recall level calculated by the recall determination unit 106 for each content. For example, when viewing the video content for product explanation of Company A from 0 to 30 seconds, the recall is calculated as 0%, and when viewing the video content for product description of Company B, the recall is calculated as 20%. In addition, the degree of recall is calculated as 0% when viewing the video content for product explanation of company C, and the degree of recall is calculated as 80% when viewing the video content for product description of company D.

反応対象特定部107は、反応識別部102で特定された反応時刻の候補と、想起判定部106において特定された想起度をもとに、ユーザが心理的な反応を示したコンテンツ、又はシーン等の対象である反応対象を特定する。なお、反応対象特定部107は、反応対象が表示された時刻を特定してもよい。   The reaction target specifying unit 107 is a content or scene that shows a psychological reaction by the user based on the reaction time candidate specified by the reaction identifying unit 102 and the recall level specified by the recall determining unit 106. Identify the reaction target that is the target of The reaction target specifying unit 107 may specify the time when the reaction target is displayed.

本実施の形態では、A社、B社、C社、及びD社の各社の商品説明用の動画コンテンツを、それぞれ1つのコンテンツとし、ユーザが示した心理的な反応がいずれのコンテンツによるものかを特定する例をもとに説明する。   In the present embodiment, the video contents for product explanation of each company of Company A, Company B, Company C, and Company D are set as one content, and which content the psychological reaction indicated by the user is due to? This will be described based on an example of specifying

まず、前述のように、反応識別部102は、取得した脳血流の絶対値が事前に定められた閾値を上まわった場合、及び、所定の時間区間における脳血流の積分値の絶対値が事前に定められた値を上まわった場合のいずれかの場合には、ユーザが心理的な反応を示した(すなわち、反応種別が「有反応系」である)と識別する。このとき、反応識別部102は、取得した脳血流の絶対値が事前に定められた閾値を上まわった時刻、及び、所定の時間区間における脳血流の積分値の絶対値が事前に定められた値を上まわった時刻のいずれかの時刻から、事前に定められた時間だけ遡った時刻までの時間区間に含まれる時刻を、ユーザが心理的な反応を示した時刻の候補である反応時刻候補と特定する。   First, as described above, the reaction identification unit 102 determines the absolute value of the integrated value of the cerebral blood flow when the acquired absolute value of the cerebral blood flow exceeds a predetermined threshold value and in a predetermined time interval. When the value exceeds a predetermined value, it is identified that the user has exhibited a psychological reaction (that is, the reaction type is “reactive system”). At this time, the reaction identifying unit 102 determines in advance the time when the acquired absolute value of the cerebral blood flow exceeds a predetermined threshold and the absolute value of the integrated value of the cerebral blood flow in a predetermined time interval. Response that is a candidate for the time when the user showed a psychological response to the time included in the time interval from one of the times that exceeded the specified value to the time that went back by a predetermined time Identify as a time candidate.

次に、反応対象特定部107は、ユーザが示した心理的な反応が反応時刻候補として特定された時刻にユーザが視聴しているコンテンツ又はシーンに対する反応であるか、それとも、過去のシーン又はコンテンツをユーザが想起していたために生じた反応であるかを特定する。   Next, the reaction target specifying unit 107 determines whether the psychological reaction indicated by the user is a response to the content or scene that the user is viewing at the time specified as the reaction time candidate, or a past scene or content. It is specified whether the reaction is caused by the user recalling.

例えば、想起判定部106によって算出された想起度が所定の閾値(例えば60%)未満の場合、反応対象特定部107は、ユーザがコンテンツ視聴時に心理的な反応を示した対象はユーザが現に視聴しているコンテンツであると特定する。その結果、反応対象特定部107は、反応時刻候補を含むコンテンツをユーザが心理的な反応を示した対象のコンテンツとして特定する。一方、想起度が閾値である60%以上の場合、反応対象特定部107は、反応時刻候補よりも前の時刻にユーザが視聴したコンテンツを、ユーザが心理的な反応を示した対象として特定する。   For example, when the recall level calculated by the recall determination unit 106 is less than a predetermined threshold (for example, 60%), the reaction target specifying unit 107 displays the target for which the user has shown a psychological reaction when viewing the content. To identify the content being As a result, the reaction target specifying unit 107 specifies the content including the reaction time candidate as the target content for which the user has shown a psychological reaction. On the other hand, when the recall level is 60% or more which is the threshold value, the reaction target specifying unit 107 specifies the content viewed by the user at a time before the response time candidate as the target for which the user has shown a psychological reaction. .

すなわち、反応対象特定部107は、想起度が事前に定められた値よりも小さい場合には、反応時刻候補に視聴した画像コンテンツをユーザが心理的な反応を示した対象として特定し、想起度が事前に定められた値以上の場合には、反応時刻候補よりも前に視聴した画像コンテンツを、ユーザが心理的な反応を示した対象として特定する。   That is, when the recall level is smaller than a predetermined value, the reaction target specifying unit 107 specifies the image content viewed as a response time candidate as a target that the user has shown a psychological response, and the recall level Is equal to or greater than a predetermined value, the image content viewed before the reaction time candidate is specified as a target for which the user has shown a psychological reaction.

具体的には、反応識別部102が識別した心理的な反応は、ユーザが過去に視聴したコンテンツ、又はシーンを対象とする反応であると特定する。   Specifically, the psychological reaction identified by the reaction identifying unit 102 is identified as a reaction that targets content or a scene that the user has viewed in the past.

より具体的には、図9(a)に示す脳血流の計測対象であるユーザは、65秒を起点に脳血流が閾値である0.05を上まわるように増加しており、心理的な反応を生じている。したがって、反応識別部102は、65秒を反応時刻候補420として特定する。次に、反応時刻候補420を含むシーン、すなわち、C社の商品説明用の動画コンテンツに対する想起度を参照すると、想起度は0%である。すなわち、想起度は、閾値である60%未満である。したがって、反応対象特定部107は、反応時刻候補420に示された心理的な反応は、反応時刻候補420を含むシーンに対する反応、すなわちC社の商品説明用の動画コンテンツに対する反応であると特定する。   More specifically, the number of users whose cerebral blood flow is measured as shown in FIG. 9 (a) has increased so that the cerebral blood flow exceeds the threshold of 0.05 starting from 65 seconds. Reaction has occurred. Therefore, the reaction identification unit 102 specifies 65 seconds as the reaction time candidate 420. Next, referring to the recall level for the scene including the reaction time candidate 420, that is, the moving image content for product explanation of company C, the recall level is 0%. That is, the recall level is less than the threshold value of 60%. Therefore, the reaction target specifying unit 107 specifies that the psychological reaction indicated in the reaction time candidate 420 is a reaction to a scene including the reaction time candidate 420, that is, a reaction to a moving image content for product explanation of company C. .

一方、図10(b)に示す脳血流の計測対象であるユーザは、90秒を起点に脳血流が閾値である0.05を上まわるように増加している。したがって、反応識別部102は、90秒を反応時刻候補421として特定する。次に、反応時刻候補421を含むシーン、すなわち、D社の商品説明用の動画コンテンツに対する想起度を参照すると、想起度は80%である。すなわち、想起度が閾値以上となっている。したがって、反応対象特定部107は、1つ前のシーンであるC社の商品説明用の動画コンテンツをユーザが想起している対象として特定する。これにより、反応対象特定部107は、反応時刻候補421に示されたユーザの心理的な反応は、C社の商品説明用の動画コンテンツに対する反応であると特定する。   On the other hand, the number of users whose cerebral blood flow is measured as shown in FIG. 10B is increasing so that the cerebral blood flow exceeds the threshold value of 0.05 starting from 90 seconds. Therefore, the reaction identification unit 102 specifies 90 seconds as the reaction time candidate 421. Next, referring to the scene containing the reaction time candidate 421, that is, the recall level for the video content for product explanation of Company D, the recall level is 80%. That is, the recall level is equal to or greater than the threshold value. Therefore, the reaction target specifying unit 107 specifies the moving image content for product description of company C, which is the previous scene, as a target recalled by the user. Thereby, the reaction target specifying unit 107 specifies that the user's psychological reaction indicated in the reaction time candidate 421 is a reaction to the moving image content for product explanation of the C company.

なお、コンテンツ評価装置110は、コンテンツに対するユーザの評価を外部の表示装置である評価表示部108に表示してもよい。評価表示部108は、コンテンツに対する評価、例えば反応の有無などの結果を表示するための表示装置である。評価表示部108は、例えば液晶ディスプレイ、又はCRT(Cathode Ray Tube)等である。なお、コンテンツ評価装置110が評価表示部108を備えてもよい。   The content evaluation device 110 may display the user's evaluation of the content on the evaluation display unit 108 that is an external display device. The evaluation display unit 108 is a display device for displaying results such as evaluation of content, for example, presence or absence of reaction. The evaluation display unit 108 is, for example, a liquid crystal display or a CRT (Cathode Ray Tube). Note that the content evaluation apparatus 110 may include the evaluation display unit 108.

図11は、評価表示部108に表示されるコンテンツの評価結果の一例である。評価した各コンテンツと、各コンテンツに対するユーザの反応とが、評価の結果として表示されている。また、参考情報として、ここでは脳血流の実測値も表示されている。例えば0秒から30秒までの間に表示されたA社の商品説明用の動画コンテンツと、30秒から60秒までの間に表示されたB社の商品説明用の動画コンテンツとについては、脳血流が変化しておらず、ユーザの心理的な反応はなしとの評価がなされている。   FIG. 11 is an example of content evaluation results displayed on the evaluation display unit 108. Each evaluated content and a user response to each content are displayed as a result of the evaluation. As reference information, an actual measurement value of cerebral blood flow is also displayed here. For example, regarding the video content for product explanation of Company A displayed between 0 seconds and 30 seconds and the video content for product description of Company B displayed between 30 seconds and 60 seconds, The blood flow has not changed, and it is evaluated that there is no psychological reaction of the user.

一方、90秒から120秒までの間に表示されたD社の商品説明用の動画コンテンツについては、脳血流に閾値以上の反応がある。しかしながら、ユーザは想起状態にあるため、この反応はD社のコンテンツに対してではなく、その前のC社のコンテンツに対する反応として特定されている。すなわち、C社の商品説明用の動画コンテンツに対し、反応あり(増加しているため、興奮系)と特定されている。   On the other hand, regarding the moving image content for product explanation of Company D displayed between 90 seconds and 120 seconds, there is a reaction in the cerebral blood flow that exceeds the threshold. However, since the user is in a recollection state, this reaction is specified not as a response to the content of Company D but as a response to the previous content of Company C. In other words, it is specified that there is a response to the moving image content for product explanation of company C (because it has increased, it is excited).

一方、90秒から120秒については、ユーザが想起状態にあるため、反応なし(想起)と評価されている。なお、図11では想起度を考慮しての評価を示しているため、図10に示すような想起度の表示は行っていないが、評価の1つとして想起度を合わせて表示することとしてもよい。   On the other hand, about 90 seconds to 120 seconds, since the user is in the recall state, it is evaluated that there is no response (recall). In addition, since the evaluation considering the recall is shown in FIG. 11, the recall is not displayed as shown in FIG. 10, but the recall may be displayed together as one of the evaluations. Good.

次に、本発明の動作フローを図12、図13、図14、図15、図16、及び図17を用いて説明する。   Next, the operation flow of the present invention will be described with reference to FIGS. 12, 13, 14, 15, 16, and 17. FIG.

まず、図12を参照して、脳血流検知部320は、コンテンツを視聴しているユーザの脳血流を検知する(ステップS101)。   First, referring to FIG. 12, the cerebral blood flow detection unit 320 detects the cerebral blood flow of the user who is viewing the content (step S101).

次に、検知された脳血流の増減量をもとに、反応識別部102は、ユーザの心理的な反応種別を識別する(ステップS102)。なお、脳血流の検知(ステップS101)と、視線検知(ステップS102)は並行処理であってもよい。   Next, based on the detected increase or decrease in cerebral blood flow, the reaction identification unit 102 identifies the user's psychological reaction type (step S102). The detection of cerebral blood flow (step S101) and the gaze detection (step S102) may be performed in parallel.

図13は、反応の識別処理(図12のステップS102)の詳細なフローチャートである。反応識別部102は、所定の閾値(例えば±0.05など)を設けて、脳血流(すなわち、酸化ヘモグロビン濃度又はトータルヘモグロビン濃度)が閾値以上に増加又は減少したか否かを判定し、増減量が閾値以上である場合(ステップS201でYes)に、ユーザに心理的な反応があった(すなわち、「有反応系」)と識別する(ステップS202)。一方、脳血流の増減量が閾値未満の場合(ステップS201でNo)は、反応なし(すなわち、「無反応系」)と識別する(ステップS203)。   FIG. 13 is a detailed flowchart of the reaction identification process (step S102 in FIG. 12). The reaction identification unit 102 provides a predetermined threshold (for example, ± 0.05) and determines whether or not cerebral blood flow (that is, oxyhemoglobin concentration or total hemoglobin concentration) has increased or decreased beyond the threshold, When the increase / decrease amount is equal to or greater than the threshold value (Yes in step S201), the user is identified as having a psychological reaction (that is, “reactive system”) (step S202). On the other hand, when the increase / decrease amount of the cerebral blood flow is less than the threshold (No in step S201), it is identified as no response (that is, “no response system”) (step S203).

なお、脳血流の増減量が閾値以上である場合には、反応識別部102は、脳血流の変化が増加か減少かによって反応種別をさらに詳細に識別してもよい。例えば本実施の形態に係る反応識別部102は、脳血流の変化が増加か減少かを判断し(ステップS204)、増加の場合(ステップS204でYes)には、反応種別を「興奮系」の反応と識別し(ステップS205)、減少の場合(ステップS204でNo)には、反応種別を「集中系」の反応と識別する(ステップS206)。さらにまた、反応識別部102は、脳血流の変化量が閾値以上となった時刻を反応時刻の候補(反応時刻候補)として特定する(ステップS207)。   When the increase / decrease amount of the cerebral blood flow is equal to or greater than the threshold value, the reaction identifying unit 102 may identify the reaction type in more detail depending on whether the change in cerebral blood flow is increased or decreased. For example, the reaction identification unit 102 according to the present embodiment determines whether the change in cerebral blood flow is increased or decreased (step S204), and in the case of an increase (Yes in step S204), the reaction type is “excited system”. (Step S205), and in the case of a decrease (No in step S204), the reaction type is identified as a “concentrated” reaction (step S206). Furthermore, the reaction identification unit 102 specifies the time when the amount of change in cerebral blood flow is equal to or greater than the threshold as a reaction time candidate (reaction time candidate) (step S207).

再度図12を参照して、視線検知部103は、コンテンツを視聴するユーザの視線の位置を所定時間ごとに検知する(ステップS103)。得られた視線の位置の時系列データを元に、滞留時間算出部104は、視線位置の滞留時間を算出する(ステップS104)。   Referring to FIG. 12 again, the line-of-sight detection unit 103 detects the position of the line of sight of the user who views the content every predetermined time (step S103). Based on the obtained time-series data of the line-of-sight position, the dwell time calculation unit 104 calculates the dwell time of the line-of-sight position (step S104).

図14は、滞留時間の算出処理(図12のステップS104)の詳細なフローチャートである。   FIG. 14 is a detailed flowchart of the residence time calculation process (step S104 in FIG. 12).

滞留時間算出部104は、視線検知の間(すなわち、コンテンツ評価装置110がコンテンツの評価に必要な全ての視線位置を取得するまで)、以下に述べるステップS301から306までの処理を繰り返し行うことで、視線位置の滞留時間を算出する。   The dwell time calculation unit 104 repeats the processing from step S301 to step S306 described below during gaze detection (that is, until the content evaluation device 110 acquires all gaze positions necessary for content evaluation). The dwell time at the line-of-sight position is calculated.

まず、滞留時間算出部104は、現在の視線位置を示す座標をバッファに蓄積する(ステップS302)。その後、次のサンプリングのタイミングで現在の視線位置を示す座標を参照し(ステップS303)、バッファに蓄積されている座標と、現在の座標との差分を算出する(ステップS304)。例えば、X座標、Y座標ともに±10などの所定の閾値を設けておき、差分が閾値以内であるか否かを判断する(ステップS305)。差分が閾値以上の場合(ステップS305でYes)、視線が移動していると判断できるため、滞留時間算出部104は、再びループ処理を行う(ステップS306)。   First, the residence time calculation unit 104 accumulates coordinates indicating the current line-of-sight position in the buffer (step S302). Thereafter, the coordinates indicating the current line-of-sight position are referred to at the next sampling timing (step S303), and the difference between the coordinates stored in the buffer and the current coordinates is calculated (step S304). For example, a predetermined threshold value such as ± 10 is provided for both the X coordinate and the Y coordinate, and it is determined whether or not the difference is within the threshold value (step S305). If the difference is greater than or equal to the threshold (Yes in step S305), it can be determined that the line of sight is moving, so the dwell time calculation unit 104 performs loop processing again (step S306).

一方、視線位置の差分が閾値未満の場合(ステップS305でNo)、滞留時間算出部104は、滞留時間を算出するために、まず現在の時刻をバッファに蓄積する(ステップS307)。そして、視線位置の差分が閾値未満の間、サンプリングのタイミングごとに現在時刻を参照しつつ(ステップS309)、ループ処理を行う(ステップS308からS310)。視線位置の差分が閾値を超えるとループを抜けるので(ステップS310)、抜けた時刻とバッファに蓄積されている時刻との差分を算出する(ステップS311)。その後、滞留時間算出部104は、得られた時刻の差分を滞留時間とする(ステップS312)。これにより、視線位置と当該視線位置への滞留時間とが、逐次得られることとなる。   On the other hand, when the line-of-sight position difference is less than the threshold (No in step S305), the residence time calculation unit 104 first accumulates the current time in a buffer in order to calculate the residence time (step S307). Then, while the line-of-sight position difference is less than the threshold value, a loop process is performed (steps S308 to S310) while referring to the current time at each sampling timing (step S309). When the line-of-sight position difference exceeds the threshold value, the loop is exited (step S310), and the difference between the exit time and the time stored in the buffer is calculated (step S311). After that, the residence time calculation unit 104 sets the obtained time difference as the residence time (step S312). As a result, the line-of-sight position and the staying time at the line-of-sight position are obtained sequentially.

再度図12を参照して、次に、想起判定部106は、想起情報蓄積部105に蓄積された想起情報を参照する(ステップS105)。そして想起判定部106は、コンテンツ視聴時のユーザの視線位置と視線の滞留時間とをもとに、ユーザが想起状態にあるか否かを判定する(ステップS106)。   Referring to FIG. 12 again, next, the recall determination unit 106 refers to the recall information stored in the recall information storage unit 105 (step S105). Then, the recall determination unit 106 determines whether or not the user is in the recall state based on the user's line-of-sight position and the gaze retention time when viewing the content (step S106).

図15は、想起判定処理(図12のステップS106)の詳細なフローチャートである。   FIG. 15 is a detailed flowchart of the recall determination process (step S106 in FIG. 12).

なお、本実施の形態に係る想起判定部106は、複数のシーンが集まった1つのコンテンツに対して、コンテンツごとに想起度を算出する。そのため、想起情報に含まれるシーンタグの数分だけ、ステップS403〜ステップS412の処理を繰り返し行う(ステップS403からS412まで)。   Note that the recall determination unit 106 according to the present embodiment calculates a recall level for each content with respect to one content in which a plurality of scenes are collected. Therefore, the processing from step S403 to step S412 is repeated for the number of scene tags included in the recall information (from step S403 to S412).

各繰り返し処理においては、まず、想起判定部106はシーンタグに含まれるシーンの時間(表示時間)を参照する(ステップS404)。また、想起判定部106は、シーンの表示領域を参照する(ステップS405)。図7に示す想起情報のシーンタグ1でいえば、表示時間は1秒から2秒であり、表示領域は(200、300、700、400)である。   In each iterative process, first, the recall determination unit 106 refers to the time (display time) of the scene included in the scene tag (step S404). The recall determination unit 106 refers to the display area of the scene (step S405). In the scene tag 1 of the recall information shown in FIG. 7, the display time is 1 second to 2 seconds, and the display area is (200, 300, 700, 400).

次に想起判定部106は、表示時間内におけるユーザの視線位置が、表示領域内に位置するか否かを判断する(ステップS406)。ここで、視線位置が表示領域内に位置する場合には(ステップS406でYes)、ユーザが提供画像を見ているために、想起状態ではないと判定する(ステップS407)。   Next, the recall determination unit 106 determines whether or not the user's line-of-sight position within the display time is located within the display area (step S406). If the line-of-sight position is located within the display area (Yes in step S406), it is determined that the user is not in the recall state because the user is looking at the provided image (step S407).

一方、表示領域内に位置しない場合(ステップS406でNo)、想起判定部106は、表示領域と視線位置の距離を算出する(ステップS408)。次に、想起判定部106は、算出された距離が閾値以上か否かを判断する(ステップS409)。距離が閾値未満の場合(ステップS409でNo)、想起判定部106は、対応する表示時間においてユーザが想起状態ではないと判定する(ステップS407)。表示領域内と視線位置との距離が短いため、表示領域内に視線位置が位置しないのは視線検出時の誤差と考えられるためである。   On the other hand, when not located in the display area (No in step S406), the recall determination unit 106 calculates the distance between the display area and the line-of-sight position (step S408). Next, the recall determination unit 106 determines whether or not the calculated distance is greater than or equal to a threshold (step S409). When the distance is less than the threshold (No in step S409), the recall determination unit 106 determines that the user is not in the recall state during the corresponding display time (step S407). Since the distance between the display area and the line-of-sight position is short, the reason why the line-of-sight position is not located within the display area is considered to be an error when detecting the line of sight.

一方、距離が閾値以上の場合(ステップS409でYes)、想起判定部106は、さらに滞留時間が閾値以上か否かを判断する(ステップS410)。滞留時間が閾値未満の場合(ステップS410でNo)、想起判定部106は、ユーザが想起状態ではないと判定する(ステップS407)。   On the other hand, when the distance is greater than or equal to the threshold (Yes in step S409), the recall determination unit 106 further determines whether or not the residence time is greater than or equal to the threshold (step S410). If the residence time is less than the threshold (No in step S410), the recall determination unit 106 determines that the user is not in the recall state (step S407).

一方、滞留時間が閾値以上の場合(ステップS410でYes)、想起判定部106は、対応する表示時間においてユーザが想起状態であると特定する(ステップS411)。   On the other hand, when the residence time is equal to or greater than the threshold (Yes in step S410), the recall determination unit 106 specifies that the user is in the recall state during the corresponding display time (step S411).

想起判定部106は、1つのコンテンツについての想起情報に含まれるシーンタグの数だけ、ステップS403〜ステップS412のループ処理を繰り返した後に、ループ処理を抜ける(ステップS412)。   The recall determination unit 106 repeats the loop processing from step S403 to step S412 by the number of scene tags included in the recall information for one content, and then exits the loop processing (step S412).

以上の処理により、シーンタグごとにユーザが想起状態であるか否かが判定される。その後、想起判定部106は、1つのコンテンツについての想起情報に含まれる全シーンタグの個数に対する、ユーザが想起状態であると判定されたシーンタグの個数の割合として想起度を算出する(ステップS413)。   With the above processing, it is determined whether or not the user is in a recall state for each scene tag. Thereafter, the recall determination unit 106 calculates the recall level as a ratio of the number of scene tags determined to be in the recall state to the number of all scene tags included in the recall information for one content (step S413). ).

再度図12を参照して、次に反応対象特定部107は、反応識別部102によって識別されたユーザの心理的な反応の有無及び反応時刻候補と、想起判定部106によって算出された想起度とをもとに、ユーザが実際に反応を示した対象を特定する。本実施の形態に係る反応対象特定部107は、ユーザが示した心理的な反応が、ユーザが視聴したいずれかのコンテンツに対する反応であることを前提に、その中のいずれのコンテンツに対しての反応であるかを特定する(ステップS107)。   Referring to FIG. 12 again, next, the reaction target specifying unit 107 includes the presence / absence of the user's psychological reaction and the reaction time candidate identified by the reaction identifying unit 102, and the recall degree calculated by the recall determining unit 106. Based on the above, the object to which the user actually responded is specified. The reaction target specifying unit 107 according to the present embodiment assumes that the psychological reaction indicated by the user is a reaction with respect to any content that the user has viewed. Whether it is a reaction is specified (step S107).

図16は、反応対象を特定する処理(図12のステップS107)の詳細なフローチャートである。まず、反応対象特定部107は、反応識別部102によって特定された反応時刻候補を参照する(ステップS501)。そして反応時刻候補とされた時刻を含むシーン又はコンテンツの想起度を参照する(ステップS502)。   FIG. 16 is a detailed flowchart of the process for specifying the reaction target (step S107 in FIG. 12). First, the reaction target specifying unit 107 refers to the reaction time candidate specified by the reaction identifying unit 102 (step S501). Then, the recall level of the scene or content including the time determined as the reaction time candidate is referred to (step S502).

本実施の形態では、反応時刻候補が含まれるコンテンツは1つということとなる。例えば、図9の場合、反応時刻候補420は65秒である。これに対応する想起度は、65秒を含むコンテンツ、すなわちC社の商品説明用の動画コンテンツの想起度である0%となる。また、図10の場合、反応時刻候補421は90秒である。これに対応する想起度は、90秒を含むコンテンツ、すなわちD社の商品説明用の動画コンテンツの想起度である80%となる。   In the present embodiment, there is one content including the reaction time candidate. For example, in the case of FIG. 9, the reaction time candidate 420 is 65 seconds. The degree of recall corresponding to this is 0%, which is the degree of recall of content including 65 seconds, that is, the moving image content for product explanation of company C. In the case of FIG. 10, the reaction time candidate 421 is 90 seconds. The degree of recall corresponding to this is 80%, which is the degree of recall of content including 90 seconds, that is, the moving image content for product explanation of Company D.

次に、反応対象特定部107は、想起度が閾値未満(閾値は例えば60%とする)であるか否かを判断する(ステップS503)。想起度が閾値未満の場合(ステップS503でYes)、反応対象特定部107は、反応時刻候補に示されたユーザの心理的な反応の対象が、現在(すなわち、反応時刻候補の時点)においてユーザが視聴したコンテンツであると特定する(ステップS504)。一方、想起度が閾値以上の場合(ステップS503でNo)、反応対象特定部107は、反応時刻候補の時点においてユーザの想起行動が生じていると判断する。この場合、反応対象特定部107は、反応時刻候補に示されたユーザの心理的な反応は、反応時刻候補を含むシーン又はコンテンツの1つ前にユーザが視聴したシーン又はコンテンツを対象とする反応であると特定する(ステップS505)。   Next, the reaction target specifying unit 107 determines whether or not the recall level is less than a threshold value (the threshold value is set to 60%, for example) (step S503). When the recall level is less than the threshold value (Yes in step S503), the reaction target specifying unit 107 indicates that the user's psychological reaction target indicated in the reaction time candidate is currently the user (that is, the time of the reaction time candidate). Is identified as the viewed content (step S504). On the other hand, when the recall level is equal to or higher than the threshold (No in step S503), the reaction target specifying unit 107 determines that the user's recall behavior is occurring at the time of the reaction time candidate. In this case, the reaction target specifying unit 107 determines that the user's psychological reaction indicated by the reaction time candidate is a reaction that targets the scene or content that the user viewed immediately before the scene or content including the reaction time candidate. (Step S505).

例えば、図9の場合、C社の商品説明用の動画コンテンツを視聴するユーザの想起度は0%であり、想起度は閾値未満である。したがって、反応対象特定部107は、反応時刻候補420においてユーザが示した心理的な反応は、現在(反応時刻候補420時点において)ユーザが視聴しているコンテンツであるC社の商品説明用の動画コンテンツに対する反応であると特定する。また、図10の場合、D社の商品説明用の動画コンテンツを視聴するユーザの想起度は80%であり、想起度は閾値以上である。したがって、反応対象特定部107は、反応時刻候補421においてユーザが示した心理的な反応は、現在(反応時刻候補421)ユーザが視聴しているコンテンツの1つ前のコンテンツであるC社の商品説明用の動画コンテンツに対する反応であると特定する。   For example, in the case of FIG. 9, the recall level of the user who views the moving image content for product explanation of company C is 0%, and the recall level is less than the threshold. Therefore, the reaction target specifying unit 107 has a psychological reaction indicated by the user in the reaction time candidate 420, which is the content currently being viewed by the user (at the time of the reaction time candidate 420). Identify the response to content. In the case of FIG. 10, the recall level of the user who views the moving image content for explaining the product of company D is 80%, and the recall level is equal to or higher than the threshold. Accordingly, the reaction target specifying unit 107 indicates that the psychological reaction indicated by the user in the reaction time candidate 421 is a product of company C, which is the content immediately before the content currently being viewed by the user (reaction time candidate 421). It is specified that the response is to a video content for explanation.

なお、再度図12を参照して、コンテンツ評価装置110は、反応識別部102によって識別された反応の有無及びその種別と、反応対象特定部107によって特定された反応対象又は反応対象の表示時刻とを、コンテンツに対するユーザの評価として評価表示部108へ表示してもよい(ステップS108)。   Referring to FIG. 12 again, the content evaluation apparatus 110 includes the presence / absence and type of the reaction identified by the reaction identification unit 102, the reaction target specified by the reaction target specifying unit 107, or the display time of the reaction target. May be displayed on the evaluation display unit 108 as the user's evaluation of the content (step S108).

なお、本実施の形態に係る想起判定部106は、複数の着目すべきシーンが集まった(すなわち、複数のシーンタグによって特定される)1つのコンテンツに対し、ユーザが想起状態であったシーンの割合を想起度として算出しているが、シーンごとに想起の有無を判定し、あるいは想起の度合いとして算出してもよい。例えば、想起判定部106は、シーンごとに、表示時間における視線位置と、当該表示時間に対応付けられた表示領域との距離、及び表示時間における滞留時間が、それぞれ事前に定められた閾値以上であるかを判定し、それぞれが閾値以上である場合には、当該シーンより前に表示された他のシーンをユーザが想起していたと判定してもよい。   It should be noted that the recall determination unit 106 according to the present embodiment collects a scene in which the user is in a recall state for one content in which a plurality of scenes to be focused on (that is, specified by a plurality of scene tags). Although the ratio is calculated as the recall level, the presence or absence of recall may be determined for each scene, or may be calculated as the recall level. For example, for each scene, the recall determination unit 106 determines that the distance between the line-of-sight position at the display time and the display area associated with the display time, and the residence time at the display time are equal to or greater than a predetermined threshold value. If there is a threshold value or more, it may be determined that the user has recalled another scene displayed before the scene.

また、本実施の形態に係る想起判定部106は、表示領域と視線位置との距離、及び視線の滞留時間を閾値と比較することで、想起状態の判定処理を行う例を説明したが、想起状態の判定はこれに限ったものではなく、様々なバリエーションが考えられる。以下、一例を説明する。   Moreover, although the recall determination unit 106 according to the present embodiment has described the example of performing the recall state determination process by comparing the distance between the display region and the line-of-sight position and the dwell time of the line of sight with threshold values, The state determination is not limited to this, and various variations are conceivable. An example will be described below.

本実施の形態に係る想起判定部106は、想起度の判定において、着目すべき領域(すなわち、シーンタグの中に定義されている表示領域)に対する視線の離れ度合いを用いていた。例えば図8において、想起判定部106は、視線D(200、100)と、着目すべき領域である領域B(200、300、800、400)との鉛直距離を200と算出していた。しかし、シーンによっては着目すべき領域が複数存在する場合もある。より詳細には、図17を用いて説明する。   The recall determination unit 106 according to the present embodiment uses the degree of gaze separation with respect to the region to be focused on (that is, the display region defined in the scene tag) in the determination of the recall level. For example, in FIG. 8, the recall determination unit 106 calculates the vertical distance between the line of sight D (200, 100) and the region B (200, 300, 800, 400) that is the region of interest as 200. However, depending on the scene, there may be a plurality of areas to be noted. This will be described in detail with reference to FIG.

図17では、着目すべき領域として領域B(200、300、800、400)と、領域C(300、50、60、150)とが定義されているとする。対して視線位置は視線D(200、100)である。この場合、想起判定部106は、例えば、領域B及び領域Cのそれぞれと、視線Dまでの鉛直距離を算出し、最も近い距離が閾値以上か否かで想起状態を判定してもよい。すなわち、想起判定部106は、シーンが複数の表示領域を含む場合には、視線位置に対し最も近い表示領域との離れ度合いを用いて距離を算出してもよい。複数ある表示領域のうち、視線位置に最も近い表示領域に対しても、視線位置が閾値以上離れているということは、ユーザは現在視聴しているコンテンツには着目しておらず、想起状態である可能性が高いと考えられるためである。   In FIG. 17, it is assumed that a region B (200, 300, 800, 400) and a region C (300, 50, 60, 150) are defined as regions to be noted. On the other hand, the line-of-sight position is the line of sight D (200, 100). In this case, for example, the recall determination unit 106 may calculate the vertical distance to each of the regions B and C and the line of sight D, and determine the recall state based on whether or not the closest distance is equal to or greater than a threshold value. That is, when the scene includes a plurality of display areas, the recall determination unit 106 may calculate the distance using the degree of separation from the display area closest to the line-of-sight position. Among the plurality of display areas, even for the display area closest to the line-of-sight position, the fact that the line-of-sight position is more than the threshold value means that the user is not paying attention to the content that is currently being viewed, This is because it is considered that there is a high possibility.

あるいは、領域B及び領域Cのそれぞれから、視線Dまでの距離に重みを付与し、重み付きの距離の総和を用いて想起状態を判定してもよい。すなわち、想起情報は、シーンごとに重みを有し、想起判定部106は、想起状態と判定されたシーンの総数を、シーンに対応する重みを乗じて集計してもよい。   Alternatively, the recall state may be determined by assigning a weight to the distance from each of the region B and the region C to the line of sight D and using the sum of the weighted distances. That is, the recall information may have a weight for each scene, and the recall determination unit 106 may add up the total number of scenes determined to be in the recall state by multiplying the weight corresponding to the scene.

例えば(式1)に示すように、想起判定部106は、シーンに含まれる各表示領域と視線位置との距離l(例えば鉛直距離とする)に、重みwを乗算してもよい。これにより、重み付きの距離の総和として、着目すべき領域(表示領域)に対する視線位置の乖離度合いを計算し、当該乖離度合いが閾値以上の場合は、ユーザが想起状態にあると判定することもできる。なお、重みの値は任意に定めることができるが、例えば、後述するように表示領域ごとにシーンタグ内で定義しておいてもよく、距離lの大きさによって所定の関数により定まる値f(l)を用いてもよい。   For example, as shown in (Formula 1), the recall determination unit 106 may multiply the distance l (for example, a vertical distance) between each display region included in the scene and the line-of-sight position by a weight w. Thereby, as the sum of the weighted distances, the degree of divergence of the line-of-sight position with respect to the region of interest (display region) is calculated, and when the degree of divergence is greater than or equal to the threshold, the user may be determined to be in the recall state. it can. The weight value can be arbitrarily determined. For example, as described later, it may be defined in the scene tag for each display area, and a value f () determined by a predetermined function depending on the size of the distance l. l) may be used.

Figure 2012243043
Figure 2012243043

なぜなら、1つのシーンに複数の着目すべき領域が存在する場合、そのシーンに着目しているユーザであれば、これら領域の全て、あるいはいくつかに視線が移動する。しかし、ユーザが想起を行っている場合、想起を邪魔されないため、無意識のうちに提供画像が表示されている全ての領域を避けようと、いずれの表示領域からも遠い位置に視線が行き、そこで視線が滞留する傾向があるからである。このように各領域を考慮することで、想起判定部106は、より精度よく想起度を判定することが可能となる。   This is because when there are a plurality of areas to be focused on in one scene, the user's line of sight moves to all or some of these areas if the user is focused on that scene. However, when the user is recalling, the recall is not disturbed, so in order to avoid all areas where the provided image is displayed unconsciously, the line of sight goes to a position far from any display area. This is because the line of sight tends to stay. By considering each region in this way, the recall determination unit 106 can determine the recall level more accurately.

また、本実施の形態に係る想起判定部106は、滞留時間が閾値以上(例えば1秒以上など)の場合、ユーザは想起状態にあると判定していたが、これに限ったものではない。   Further, the recall determination unit 106 according to the present embodiment determines that the user is in the recall state when the residence time is equal to or greater than a threshold (for example, 1 second or more), but the present invention is not limited to this.

例えば滞留時間が長いほど、想起状態により大きな重みを付与してもよい。すなわち、ユーザは、思い出しなど、想起行動をとっている場合、視線はあまり移動せず、一定範囲内に滞留することが多い。したがって、想起判定部106は、視線の滞留時間が長ければ長いほど想起の度合いが高くなるよう、例えば滞留時間tを重みとして視線位置と表示領域との距離等に乗算することで想起度を算出してもよい。より具体的には、上記(式1)にさらに時間の概念を加えた、下記(式2)などが考えられる。(式2)では、重み付けされた距離ごとに対応する滞留時間を乗じ、全表示領域についての総和Lを算出している。   For example, the longer the residence time, the greater the weight may be given to the recall state. That is, when the user takes a recall action such as recollecting, the line of sight does not move much and often stays within a certain range. Therefore, the recall determination unit 106 calculates the recall level by multiplying the distance between the line-of-sight position and the display area, for example, by using the residence time t as a weight so that the longer the stay time of the line of sight, the higher the degree of recall. May be. More specifically, the following (formula 2), which is obtained by adding the concept of time to the above (formula 1), can be considered. In (Equation 2), the total sum L for all display areas is calculated by multiplying the corresponding residence time for each weighted distance.

Figure 2012243043
Figure 2012243043

さらにまた、ユーザが想起行動をとる場合、ユーザの視線は、単に着目すべき領域に対して離れた位置に滞留するだけではなく、コンテンツが表示されている表示画面の4隅のいずれかに近い位置に滞留する場合もある。一般的にコンテンツは、ユーザがより着目しやすいよう作成されているものである。したがって、タレント、商品、機能説明、及び文字等、ユーザに見て欲しい対象を表す提供画像は画面の中央に配置される。その一方、ユーザは、これらの提供画像が目に入ると、想起の妨げになるため、無意識のうちに画面の4隅のいずれかに視線を移動させ、そこで滞留する傾向にある。そこで、想起判定部106は、着目すべき領域の位置にかかわらず、ユーザの視線位置が、表示画面の4隅のいずれかに所定の時間以上滞留している場合は、ユーザは想起状態であると判定してもよい。   Furthermore, when the user takes a recall action, the user's line of sight not only stays at a position distant from the region of interest, but is close to any of the four corners of the display screen on which the content is displayed. It may stay in place. In general, content is created so that a user can easily focus on the content. Therefore, the provided image representing the target that the user wants to see, such as a talent, a product, a function description, and characters, is arranged in the center of the screen. On the other hand, when these provided images enter the eyes, the user is hindered from recalling. Therefore, the user unconsciously moves his / her line of sight to one of the four corners of the screen and tends to stay there. Therefore, the recall determination unit 106 is in the recall state when the user's line-of-sight position remains in one of the four corners of the display screen for a predetermined time or more regardless of the position of the region to be noted. May be determined.

なお、発明者らの実験において、ユーザの視線が表示画面上のいずれの位置に滞留するかについては、位置による有意な差は得られていない。例えば、『あるユーザの視線位置は、表示画面の左上に常に位置するが、別のユーザの視線位置は画面の右側に常に位置する』等、ユーザごとに視線位置の滞留位置が有意に異なるという実験結果は、現在のところ得られていない。しかしながら、個人ごとに癖がある。そこで、想起判定部106は、例えば個人ごとに視線の履歴を蓄積し、想起時の位置や時間を算出しておき、それをモデル化したものを想起情報として用いることとしてもよい。   In the inventors' experiments, no significant difference depending on the position is obtained as to which position on the display screen the user's line of sight stays. For example, the stay position of the line-of-sight position is significantly different for each user, such as “the line-of-sight position of a certain user is always located at the upper left of the display screen, but the line-of-sight position of another user is always located on the right side of the screen”. Experimental results have not been obtained so far. However, each individual has a habit. Therefore, the recall determination unit 106 may accumulate, for example, a line-of-sight history for each individual, calculate a position and time at the time of recall, and use the modeled information as the recall information.

なお、発明者らが行った実験の結果より、商品説明用の動画、及び商品のコマーシャルでは、タレント、説明者等の人に最も視線が位置しやすく、次いで商品の外観、商品の機能を表した文字、及び社名ロゴに視線が位置するという傾向が得られている。   Based on the results of experiments conducted by the inventors, in the video for product explanation and commercials of products, the line of sight is most likely to be placed on people such as talents and explainers, followed by the appearance of the product and the function of the product. There is a tendency that the line of sight is located on the letters and the company name logo.

そこで、着目すべき領域である表示領域ごとに、事前に対応する提供画像の内容に応じて重みを付与しておき、想起判定部106は、重み付けされた想起状態を集計することで想起度を算出してもよい。   Therefore, a weight is assigned to each display area, which is a region to be focused on, in advance according to the content of the provided image, and the recall determination unit 106 adds the weighted recall state to calculate the recall level. It may be calculated.

すなわち、本実施の形態に係る想起判定部106は、説明のため、表示領域に対して閾値以上離れて視線が滞留した場合は想起状態であると特定していた。しかし、表示領域に表示される提供画像の内容によって、シーンタグ内で表示領域ごとに重み定義しておき、想起判定部106は、重みつきの距離の総和等で想起度を算出してもよい。例えば上記(式1)や(式2)において、着目すべき領域である表示領域に表示される提供画像の内容がタレントの場合は、この表示領域に対応する重みwとして1.0を指定し、文字又はロゴの場合は、この表示領域に対応する重みwとして0.5を指定することで、視線位置と表示領域との距離が同じであっても想起度が変わってくる。   In other words, for the sake of explanation, the recall determination unit 106 according to the present embodiment has identified the recall state when the line of sight stays away from the display area by more than a threshold. However, the weight may be defined for each display area in the scene tag according to the content of the provided image displayed in the display area, and the recall determination unit 106 may calculate the recall level by the sum of the weighted distances or the like. . For example, in the above (Equation 1) and (Equation 2), when the content of the provided image displayed in the display area that is the area of interest is a talent, 1.0 is designated as the weight w corresponding to this display area. In the case of a character or logo, by specifying 0.5 as the weight w corresponding to this display area, the degree of recall changes even if the distance between the line-of-sight position and the display area is the same.

すなわち、想起判定部106は、本来ならば、文字情報等よりも着目されやすい女優や俳優を表す提供画像が表示されているにもかかわらず、ユーザの視線がこの提供画像から離れた位置に滞留している場合は、文字等を表す提供画像が表示されている場合よりも高く想起度を算出してもよい。   In other words, the recall determination unit 106 originally retains the user's line of sight at a position away from the provided image even though the provided image representing an actress or actor who is more likely to be focused than character information is displayed. If it is, the degree of recall may be calculated higher than when a provided image representing characters or the like is displayed.

さらにまた、想起判定部106は、表示される提供画像が文字の場合、視線がその文字を追っているか否かを想起の判定時に考慮してもよい。例えば、文字の領域の場合は、単に位置するだけではなく、当該領域を追っているか、あるいは領域内を移動しているか等を考慮することとしてもよい。すなわち、想起判定部106は、提供画像が文字情報を表す場合には、提供画像の表示時間内の視線位置の移動量が事前に定められた閾値未満の場合には、ユーザが想起状態であると判定してもよい。さらに、想起判定部106は、視線位置の移動方向が提供画像が表す文字の書字方向に一致している場合には、ユーザが想起状態にないと判定してもよい。図18を用いて具体的に説明する。   Furthermore, when the provided image to be displayed is a character, the recall determination unit 106 may consider whether or not the line of sight is following the character when determining the recall. For example, in the case of a character area, it is possible not only to locate but also to consider whether the area is being followed or moved within the area. That is, when the provided image represents character information, the recall determination unit 106 is in the recall state when the movement amount of the line-of-sight position within the display time of the provided image is less than a predetermined threshold. May be determined. Furthermore, the recall determination unit 106 may determine that the user is not in the recall state when the moving direction of the line-of-sight position matches the writing direction of the character represented by the provided image. This will be specifically described with reference to FIG.

図18は、文字情報に対するユーザの注視度の算出方法を説明する図である。図18(a)及び(b)において、視線は視線D(150、860)で示される位置に滞留しているとする。一方、着目すべき領域である表示領域は、領域B(200、300、800、400)である。したがって、視線位置と表示領域との座標の差は(50、40)であり、その距離は閾値(例えば、100とする)未満である。従って、例えば図18(b)に示されるように、単に表示領域と視線位置との距離のみで判定する場合、想起判定部106は、ユーザは想起状態ではないと判定する。   FIG. 18 is a diagram illustrating a method for calculating a user's gaze degree for character information. In FIGS. 18A and 18B, it is assumed that the line of sight stays at the position indicated by the line of sight D (150, 860). On the other hand, the display area which is the area to be noted is the area B (200, 300, 800, 400). Therefore, the difference in coordinates between the line-of-sight position and the display area is (50, 40), and the distance is less than a threshold value (for example, 100). Therefore, for example, as illustrated in FIG. 18B, when the determination is made based only on the distance between the display area and the line-of-sight position, the recall determination unit 106 determines that the user is not in the recall state.

しかしながら、図18(a)においては、領域Bには「手振れ補正機能付き」という文字を表す提供画像が表示されている。したがって、コンテンツに本来着目しているユーザであれば、その視線は書字方向(この例では、左から右)に文字を追うのが一般的である。したがって、提供画像が文字を表す場合、想起判定部106は、ユーザの視線が文字を追うか否かの判断を加えることで、より精度よく想起判定が可能となる。図18(a)に示される場合、文字が表示されている領域Bに対し、ユーザの視線は視線Dに滞留しているため、たとえ領域Bと視線Dとの距離が閾値以内であろうと、想起判定部106はユーザが想起状態であると判定することとなる。なお、提供画像が文字情報を表す場合には、対応するシーンタグにおける属性欄に当該提供画像が文字情報を表すことを示す情報を含めることで、想起判定部106は、提供画像が文字情報を表すか否かを知ることができる。   However, in FIG. 18A, the provided image representing the characters “with a camera shake correction function” is displayed in the region B. Therefore, if the user originally focuses on the content, the line of sight generally follows the characters in the writing direction (from left to right in this example). Therefore, when the provided image represents a character, the recall determination unit 106 can determine the recall more accurately by adding whether or not the user's line of sight follows the character. In the case shown in FIG. 18 (a), the user's line of sight stays in the line of sight D in the area B where characters are displayed. Therefore, even if the distance between the area B and the line of sight D is within the threshold value, The recall determination unit 106 determines that the user is in the recall state. When the provided image represents character information, the recall determination unit 106 includes the information indicating that the provided image represents character information in the attribute field of the corresponding scene tag, so that the recall image determination unit 106 can display the character information. You can know whether or not to represent it.

なお、想起判定部106は、視線が滞留を開始した時刻を考慮して想起の判定を行うこととしてもよい。以下、図19の具体例を用いて説明する。図19は、視線の滞留が開始した時刻を考慮した想起判定処理を説明する図である。まず、図19(a)に示される画面において、視線は視線D(200、100)に位置している。また、着目すべき表示領域は、領域B(200、300、600、400)である。したがって、視線位置と表示領域とは、閾値以上離れており、ユーザの視線は滞留を開始している。すなわち、ユーザは想起を行って想起状態にあるため、着目すべき領域から視線を外し、かつ、視線が滞留している。ここで、画面が切り替わり、図19(b)に示される画面が表示されたとする。この場合、ユーザの視線が滞留していた位置に「夜でも綺麗」という文字を表す提供画像が現れている。しかしユーザはすでに想起を開始しているので、画面の切り替わりに関係なく、視線は同じ位置に滞留し続けている。   Note that the recall determination unit 106 may determine the recall in consideration of the time when the line of sight starts to stay. Hereinafter, a description will be given using a specific example of FIG. FIG. 19 is a diagram for explaining the recall determination process in consideration of the time when the gaze retention starts. First, in the screen shown in FIG. 19A, the line of sight is located at the line of sight D (200, 100). The display area to be noted is the area B (200, 300, 600, 400). Therefore, the line-of-sight position and the display area are separated from each other by a threshold or more, and the user's line of sight has started to stay. In other words, since the user recalls and is in the recall state, the line of sight is removed from the region to be noticed, and the line of sight remains. Here, it is assumed that the screen is switched and the screen shown in FIG. 19B is displayed. In this case, a provided image representing the characters “beautiful even at night” appears at a position where the user's line of sight stayed. However, since the user has already started recalling, the line of sight remains at the same position regardless of the screen change.

図19(b)に示される画面の場合、着目すべき領域は領域C(50、50、600、200)であるため、視線の位置である視線D(200、100)は、領域C内に入っている。したがって、想起判定部106は、実際はユーザが想起しているにもかかわらず、想起状態ではないと誤って判定してしまう恐れがある。そこで、想起判定部106は、滞留が開始した時刻において、ユーザの視線位置が表示領域に入っていたか否かを用いて想起状態の有無を判定し、その後は視線位置が滞留しているか否かのみによって想起状態の有無を判定してもよい。より具体的には、想起判定部106は想起情報を参照し、視線位置が提供画像の表示領域内に位置する場合において、視線位置が当該提供画像の表示時間より前から当該表示領域内に位置する場合は、ユーザが想起状態であるとは判定しないとしてもよい。このように場面の切り替わりで偶然視線の位置に領域が入ってしまった場合における誤判定を避けることが可能となる。   In the case of the screen shown in FIG. 19B, the region of interest is the region C (50, 50, 600, 200), and therefore the line of sight D (200, 100), which is the position of the line of sight, is within the region C. In. Therefore, the recall determination unit 106 may erroneously determine that the user is not in the recall state even though the user is actually recalling. Therefore, the recall determination unit 106 determines whether there is a recall state using whether or not the user's line-of-sight position is in the display area at the time when the stay starts, and then determines whether or not the line-of-sight position remains. The presence / absence of the recall state may be determined only by the above. More specifically, the recall determination unit 106 refers to the recall information, and when the line-of-sight position is located in the display area of the provided image, the line-of-sight position is located in the display area before the display time of the provided image. When doing so, it may not be determined that the user is in the recall state. In this way, it is possible to avoid erroneous determination when a region is accidentally entered at the line of sight due to scene switching.

なお、本実施の形態に係るコンテンツ評価装置110は、複数の注目すべきシーンが集まった商品説明用の動画コンテンツを1つのコンテンツとする場合において、複数のコンテンツを視聴したユーザの、コンテンツごとの脳血流の変化を計測した。また、計測結果からユーザの心理的な反応が生じたと判定された場合には、コンテンツ評価装置110は、いずれの商品説明用の動画コンテンツに対する反応であるかの特定を行った。しかし、コンテンツ評価装置110が評価を行うコンテンツは、これに限ったものではない。例えば、複数の異なるシーンが連続するようなドラマ、又は映画などに対して、生体信号をもとにシーンに対するユーザの評価や感情を推定するシステムなどへの応用も可能である。   Note that the content evaluation apparatus 110 according to the present embodiment uses a video content for product explanation in which a plurality of notable scenes are collected as one content, and each content of a user who has viewed the plurality of content. Changes in cerebral blood flow were measured. In addition, when it is determined from the measurement result that the user's psychological reaction has occurred, the content evaluation device 110 identifies which of the product explanation video content is the reaction. However, the content evaluated by the content evaluation device 110 is not limited to this. For example, for a drama or a movie in which a plurality of different scenes are continuous, application to a system for estimating a user's evaluation or feelings based on a biological signal is also possible.

発明者らは、商品説明用の動画コンテンツを視聴する際のユーザの視線及び脳血流の変化だけではなく、映画の説明、CM、及び3D映像などのコンテンツに対しても同様の評価実験を行っている。その結果、これらコンテンツに対しても、ユーザは、上記に説明する興奮系の反応及び集中系の反応と同様の反応を示すことを、実験より確認している。   The inventors conducted similar evaluation experiments not only on changes in the user's line of sight and cerebral blood flow when viewing video content for product explanation, but also on content such as movie descriptions, CMs, and 3D images. Is going. As a result, it has been confirmed from experiments that the user exhibits the same reaction as the excitatory reaction and the concentrated reaction described above for these contents.

従って本発明を用いて、例えば、集中したり、興奮したり、感情が高ぶったシーン等、脳血流に反応が生じ、ユーザの心理になんらかの変化があったシーンを抽出するシステムなどにも応用が可能である。   Therefore, using the present invention, for example, a system that extracts a scene in which a change in the user's psychology has occurred due to a reaction in the cerebral blood flow, such as a scene that is concentrated, excited, or highly emotional. Is possible.

図20は、実験において映画の宣伝用コンテンツを視聴しているユーザの脳血流の変化等を説明する図である。図20(a)は映画の宣伝を視聴している際のユーザの脳血流の変化を示した図である。横軸を時間、縦軸を脳血流としている。   FIG. 20 is a diagram for explaining changes in cerebral blood flow and the like of a user who is viewing content for promoting a movie in an experiment. FIG. 20A is a diagram showing a change in the cerebral blood flow of the user when watching a movie advertisement. The horizontal axis represents time, and the vertical axis represents cerebral blood flow.

図20(b)は、映画の宣伝用コンテンツに対応する、タグ形式で表現された想起情報の一例である。映画の宣伝等を1つのコンテンツとみなした場合、このコンテンツの中には複数のシーンが存在するのが一般的である。ここでは複数のシーンを「シーン群」として示している。例えばシーン群1は「映画説明」に関するシーンであり、シーンタグ1、シーンタグ2の2つの着目すべき領域と対応する表示時間とを含むことを示している。あるいはシーン群8は「魔法を憶えるシーン」としてシーンタグ86、シーンタグ87等、複数の着目すべき領域とその時間の組みで構成される。シーン群9は「逃走シーン」としてシーンタグ90、シーンタグ91等、複数の着目すべき領域とその時間の組みで構成される。   FIG. 20B is an example of the recall information expressed in the tag format corresponding to the promotional content of the movie. When a movie advertisement or the like is regarded as one content, a plurality of scenes generally exist in this content. Here, a plurality of scenes are shown as “scene groups”. For example, the scene group 1 is a scene relating to “movie description”, and includes that two notable areas of the scene tag 1 and the scene tag 2 and the corresponding display time are included. Alternatively, the scene group 8 is configured as a “scene that remembers magic” and includes a plurality of regions to be focused on, such as a scene tag 86 and a scene tag 87, and their time. The scene group 9 is composed of a plurality of areas to be focused on, such as a scene tag 90 and a scene tag 91, as “escape scenes”, and combinations of the times.

脳血流はしばらく一定の値を保持しつつ、100秒の時点で脳血流が閾値0.05を上まわるように増加していることが分かる。反応識別部102は閾値処理等を用いて、100秒をユーザが心理的な反応(興奮系)を示した時刻の候補として特定する。そして、想起判定部106は、反応時刻の候補である100秒以降の各シーンにおいて想起度を算出し、反応対象特定部107は、想起度が閾値未満の場合は当該時刻に視聴したコンテンツに対する反応であると特定する。   It can be seen that the cerebral blood flow increases so that the cerebral blood flow exceeds the threshold value 0.05 at 100 seconds while maintaining a constant value for a while. The reaction identification unit 102 uses threshold processing or the like to specify 100 seconds as a candidate for the time when the user showed a psychological reaction (excitement system). Then, the recall determination unit 106 calculates the recall level in each scene after 100 seconds that is a candidate for the reaction time, and the reaction target specifying unit 107 responds to the content viewed at the time when the recall level is less than the threshold value. To be identified.

例えばこの場合、想起度が閾値未満であれば、反応識別部102は、シーン群9の「逃走シーン」にユーザが興奮していると識別する。   For example, in this case, if the recall level is less than the threshold value, the reaction identifying unit 102 identifies that the user is excited about the “escape scene” of the scene group 9.

一方、想起度が閾値以上の場合、想起判定部106は、ユーザが想起状態にあると識別する。その場合、反応対象特定部107は、1つ前のシーンである「魔法を憶えるシーン」を対象として、ユーザはなんらかの考え事や思い出しなどの想起行動をとっていたと判断する。このように、コンテンツ評価装置110は、複数のコンテンツの中から、ユーザが心理的な反応を示したコンテンツを選ぶだけではなく、一連の動画などからユーザが心理的な反応を示した特定の時間やシーンを特定することも可能である。   On the other hand, when the recall level is equal to or greater than the threshold value, the recall determination unit 106 identifies that the user is in the recall state. In that case, the reaction target specifying unit 107 determines that the user has taken a recollection action such as a thought or a reminder of the “scene that remembers magic” that is the previous scene. As described above, the content evaluation apparatus 110 not only selects a content that shows a psychological reaction from a plurality of contents, but also a specific time when the user shows a psychological reaction from a series of videos. It is also possible to specify the scene.

なお、本実施の形態に係る反応対象特定部107は、ユーザが想起状態である場合、当該時刻に示される心理的な反応の対象は、1つ前のシーンやコンテンツであると特定している。これは、本実施の形態で説明するように、コンテンツが連続して表示され、ユーザにそのコンテンツを評価してもらう場合に、想起行動は1つ前のコンテンツに対してのものであることが多いという実験結果によるものである。しかし、ユーザに映画やテレビ番組を自由に視聴してもらい、必ずしも評価を強いるようなものではない状況の場合、想起の対象は必ずしも1つ前のシーン又はコンテンツに対するものとは限らない。そこで、コンテンツ評価装置110は、例えば当該反応を示す前にユーザが視聴した複数のシーン又はコンテンツうちのいずれかをユーザが想起している旨を表示してもよい。あるいは、コンテンツ評価装置110は、想起の対象であるシーンを特定せず、単に想起行動があった旨を表示するにとどめることとしてもよい。これにより、利用状況に応じたコンテンツ評価を行うことが可能となる。   Note that the reaction target specifying unit 107 according to the present embodiment specifies that the target of the psychological reaction indicated at the time is the previous scene or content when the user is in the recall state. . This is because, as described in this embodiment, when content is continuously displayed and the user evaluates the content, the recalling action may be for the previous content. This is due to the experimental results of many. However, in a situation where the user is free to watch a movie or television program and is not necessarily forced to evaluate, the recall target is not necessarily for the previous scene or content. Therefore, the content evaluation apparatus 110 may display, for example, that the user is recalling any of a plurality of scenes or contents viewed by the user before showing the reaction. Alternatively, the content evaluation apparatus 110 may simply display that there is a recall action without specifying a scene that is a recall target. This makes it possible to perform content evaluation according to the usage status.

(変形例1)
実施の形態に係るコンテンツ評価装置110は、所定順に表示されるコンテンツに対する脳内血流の変化に基づいて、被験者であるユーザの興味等、心理的な反応を認識していた。さらに、視線情報の画面上での滞留時間等の情報を利用して被験者が想起状態であるか否かを推定することによって、被験者の興味等が以前に提示されたコンテンツに対するものであるか否かも判断している。
(Modification 1)
The content evaluation apparatus 110 according to the embodiment recognizes a psychological reaction such as the interest of a user who is a subject based on a change in blood flow in the brain with respect to content displayed in a predetermined order. Furthermore, whether or not the subject's interest is related to the previously presented content by estimating whether or not the subject is in a recall state using information such as the dwell time on the screen of the line-of-sight information I also judge.

さらに、本変形例に係るコンテンツ評価装置110aは、被験者が想起状態であると判定したときには、被験者であるユーザが興味をもったと推定されるコンテンツを再びユーザに提示することで、ユーザがどのコンテンツに対して興味をもっていたかをより正確に特定するする。本変形例に係るコンテンツ評価装置110aのシステム構成を図21に示す。   Furthermore, when the content evaluation apparatus 110a according to the present modification determines that the subject is in the recall state, the content evaluation device 110a presents the user with the content that is presumed that the user who is the subject is interested. More accurately identify if you were interested in FIG. 21 shows a system configuration of the content evaluation apparatus 110a according to this modification.

図21に示されるように、本変形例に係るコンテンツ評価装置110aは、図1に示されるコンテンツ評価装置110のシステム構成に、さらに、刺激提示順序記憶部2101、刺激提示部2102、刺激提示順序変更部2103が追加されている。また、反応対象特定部107に代わり、反応対象特定部107aを備える。   As shown in FIG. 21, the content evaluation apparatus 110 a according to the present modification includes a stimulus presentation order storage unit 2101, a stimulus presentation part 2102, and a stimulus presentation order in addition to the system configuration of the content evaluation apparatus 110 shown in FIG. 1. A change unit 2103 is added. Further, instead of the reaction target specifying unit 107, a reaction target specifying unit 107a is provided.

刺激提示順序記憶部2101は、複数の画像コンテンツの表示順序を記憶している。すなわち、刺激提示順序記憶部2101は、被験者であるユーザに提示する刺激の提示順序を記憶している。例えば、本実施の形態に係る刺激提示順序記憶部2101には、CM映像を被験者に提示する順序、及び、そのCM映像間の時間が記憶されている。   The stimulus presentation order storage unit 2101 stores a display order of a plurality of image contents. That is, the stimulus presentation order storage unit 2101 stores a stimulus presentation order to be presented to a user who is a subject. For example, the stimulus presentation order storage unit 2101 according to the present embodiment stores the order in which the CM video is presented to the subject and the time between the CM videos.

刺激提示部2102は、刺激提示順序記憶部2101に記憶されている順序、又は刺激提示順序変更部2103によって変更された表示順序に基づき複数のコンテンツを表示する。すなわち、刺激提示部2102は、刺激提示順序記憶部2101に記憶されている刺激の順序に従って、コンテンツを順に表示することにより、被験者に刺激を提示する。刺激提示部2102は、例えば、CM映像の場合には、液晶ディスプレイ等の表示装置として構成され、被験者に対してCM映像及び音声を提示する。   The stimulus presentation unit 2102 displays a plurality of contents based on the order stored in the stimulus presentation order storage unit 2101 or the display order changed by the stimulus presentation order change unit 2103. That is, the stimulus presentation unit 2102 presents the stimulus to the subject by displaying the contents in order according to the order of the stimuli stored in the stimulus presentation order storage unit 2101. For example, in the case of a CM video, the stimulus presentation unit 2102 is configured as a display device such as a liquid crystal display, and presents the CM video and audio to the subject.

刺激提示順序変更部2103は、刺激提示順序記憶部2101に記憶されている複数の画像コンテンツの表示順序を変更する。例えば、刺激提示順序変更部2103は、反応対象特定部107で特定された時刻に刺激提示部2101が表示していたコンテンツが再度表示されるように、刺激提示順序記憶部2101に記憶されている提示順序を変更する。なお、刺激提示順序変更部2103は、ランダムに提示順序を変更してもよい。   The stimulus presentation order changing unit 2103 changes the display order of the plurality of image contents stored in the stimulus presentation order storage unit 2101. For example, the stimulus presentation order change unit 2103 is stored in the stimulus presentation order storage unit 2101 so that the content displayed by the stimulus presentation unit 2101 at the time specified by the reaction target specifying unit 107 is displayed again. Change the presentation order. The stimulus presentation order changing unit 2103 may change the presentation order at random.

刺激提示順序変更部2103は、反応対象特定部107によってユーザが心理的な反応を示したコンテンツであると特定された他の画像コンテンツを再度表示するように表示順序を変更する。   The stimulus presentation order changing unit 2103 changes the display order so that another image content specified by the reaction target specifying unit 107 as content for which the user has shown a psychological reaction is displayed again.

ここで、反応対象特定部107aによって、ユーザが心理的な反応を示した対象である可能性があると特定したコンテンツを第1の画像コンテンツとすると、反応対象特定部107aは、複数の画像コンテンツのうち第1の画像コンテンツが1回目に表示されたときの脳血流の増減量と、第1の画像コンテンツが2回目以降に表示されたときの脳血流の増減量との差分に基づいて、ユーザが第1の画像コンテンツを想起していたか否かを判定する。   Here, when the content specified by the reaction target specifying unit 107a as the first image content is identified as a target that the user may have shown a psychological reaction, the reaction target specifying unit 107a includes a plurality of image contents. Based on the difference between the increase / decrease amount of cerebral blood flow when the first image content is displayed for the first time and the increase / decrease amount of cerebral blood flow when the first image content is displayed for the second time or later. Then, it is determined whether or not the user has recalled the first image content.

例えば、反応対象特定部107aは、第1の画像コンテンツがN回目(ただし、N≧2)に表示されたときの脳血流の増加量から1回目に表示されたときの脳血流の増加量を引いた差が所定の閾値以上である場合に限り、ユーザは第1の画像コンテンツを想起していたと特定してもよい。以下、図22を参照してより具体的に説明する。   For example, the reaction target specifying unit 107a increases the cerebral blood flow when the first image content is displayed for the first time from the increase amount of the cerebral blood flow when the first image content is displayed for the Nth time (where N ≧ 2). Only when the difference minus the amount is greater than or equal to a predetermined threshold may the user identify that he has recalled the first image content. Hereinafter, a more specific description will be given with reference to FIG.

図22は、図5と同じユーザについて、視聴するコンテンツと脳血流の変化量との対応関係の続きを示す図である。図22に示されるように、被験者へD社のCMを刺激として提示したときには、被験者は興奮系の反応を示している。このとき、想起判定部106が、被験者が想起状態であると判定したとする。また、反応対象特定部107aは、D社のCMを提示したときに示された興奮系の反応は、D社のCMを提示したときにユーザが想起していたC社のカメラCMを対象としたものであると特定したとする。ただし、この時点における特定は確定的なものではないとする。次に刺激提示順序変更部2103は、D社のCMを提示した後に、再度、C社のCMが提示されるように、刺激提示順序記憶部2101に記憶されているコンテンツの提示順序を変更する。   FIG. 22 is a diagram illustrating a continuation of the correspondence between the content to be viewed and the amount of change in cerebral blood flow for the same user as in FIG. As shown in FIG. 22, when the CM of company D is presented to the subject as a stimulus, the subject exhibits an excitatory response. At this time, it is assumed that the recall determination unit 106 determines that the subject is in the recall state. In addition, the reaction target specifying unit 107a targets the camera CM of the C company that the user recalled when presenting the CM of the D company as the response of the excitatory system shown when the CM of the D company was presented. Suppose you specify that However, the identification at this point is not deterministic. Next, the stimulus presentation order changing unit 2103 changes the presentation order of the contents stored in the stimulus presentation order storage unit 2101 so that the CM of company C is presented again after presenting the CM of company D. .

一般に、提示されたコンテンツが、ユーザが始めて視聴するコンテンツである場合と、2回以上の視聴したことがあるコンテンツである場合とでは、1回目に提示されたコンテンツに対して、ユーザはより大きな心理的な反応を示すことが多い。その結果、脳の血流量も1回目に提示されたコンテンツを視聴した時の方が多くなる可能性が高い。しかしながら、D社のCMを提示したときにユーザがC社のCMの想起状態にあった場合には、D社のCMを提示後に、再度、C社のCMを提示すると、被験者の反応が有意に高くなる可能性が高い。具体的には、図22に示すようにD社のCM提示後に再度C社のCMを提示すると、被験者の脳内血流量が所定の閾値よりも増加すると考えられる。   In general, when the presented content is content that the user views for the first time and when the content has been viewed twice or more, the user is larger than the content presented for the first time. Often shows a psychological response. As a result, there is a high possibility that the amount of blood flow in the brain will increase when the content presented for the first time is viewed. However, if the user is in the recall state of the CM of company C when the CM of company D is presented, the response of the subject is significant when the CM of company C is presented again after the CM of company D is presented. Is likely to be high. Specifically, as shown in FIG. 22, when the CM of company C is presented again after the presentation of CM of company D, the brain blood flow of the subject is considered to increase beyond a predetermined threshold.

そこで、反応対象特定部107aは、C社の1回目のCM提示中の脳内血流量と、2回目のCM提示中の脳内血流量とを比較し、2回目の方がより大きな値となる場合には、90秒から120秒における脳内血流の反応は、ユーザがC社のCMを想起したことによるものと判断する。   Therefore, the reaction target specifying unit 107a compares the cerebral blood flow during the first CM presentation of Company C with the cerebral blood flow during the second CM presentation, and the second time has a larger value. In this case, it is determined that the reaction of the blood flow in the brain from 90 seconds to 120 seconds is caused by the user recalling the CM of company C.

以上述べたように、本変形例に係るコンテンツ評価装置110aは、視線情報を用いて以前に提示したコンテンツに対する想起反応であると判断したときには、再度、以前に提示したコンテンツが提示されるように、被験者に提示するコンテンツの順序を変更する。さらに、再度提示したコンテンツに対する被験者の脳内血流の変化を測定することで、想起反応によるものか否かを精度よく判断することが可能になる。   As described above, when the content evaluation apparatus 110a according to this modification determines that the recall reaction is for the previously presented content using the line-of-sight information, the previously presented content is again presented. , Change the order of the content presented to the subject. Furthermore, by measuring a change in the blood flow in the brain of the subject with respect to the content presented again, it is possible to accurately determine whether it is due to a recall reaction.

(変形例2)
実施の形態に係るコンテンツ評価装置110が備える想起情報蓄積部105は、図7に示されるように、コンテンツに含まれる各シーンに対応付けて、対象画像の表示領域、表示時間、及び属性等に関する情報を含む想起情報を蓄積している。ここで、表示領域等、想起情報に含まれる情報は、コンテンツの設計者(すなわち、コンテンツ制作者)が事前に設定しておく必要があり、その領域を設定するのには工数がかかる。また、一般のユーザが、そのコンテンツを視聴したときに、その領域内に視線が必ず滞留するとは限らない。
(Modification 2)
As shown in FIG. 7, the recall information storage unit 105 provided in the content evaluation apparatus 110 according to the embodiment relates to a display area, a display time, an attribute, and the like of the target image in association with each scene included in the content. Stores recall information including information. Here, the information included in the recall information such as the display area needs to be set in advance by the content designer (that is, the content creator), and it takes time to set the area. Further, when a general user views the content, the line of sight does not always stay in the area.

そこで、本変形例に係るコンテンツ評価装置110bは、ユーザが視聴した視線の履歴を用いて想起情報蓄積部105に蓄積される想起情報を生成する。   Therefore, the content evaluation apparatus 110b according to the present modification generates the recall information stored in the recall information storage unit 105 using the history of the line of sight viewed by the user.

コンテンツ評価装置110bは、被験者の拘束時間を少なくするために、映像刺激(すなわち、画像コンテンツ)を連続的にユーザへ提示し、その反応を測定する。そのために、以前に提示した刺激に対する反応であるか否かを、視線情報を用いて判断している。そこで、事前に、1つの映像を提示したときに、一般的なユーザは、どういう視線の動きをするかを表すモデル(例えば、表示領域と、これに対応する表示時間である滞留時間とを示す情報)を想起情報として蓄積しておき、取得したユーザの視線位置が想起情報であるモデルから大きくはずれたときには、想起判定部106は、ユーザが想起状態であると判断する。システムの構成を図23に示す。   The content evaluation device 110b continuously presents video stimuli (that is, image content) to the user and measures the response in order to reduce the subject's restraint time. For this purpose, it is determined using the line-of-sight information whether the response is to a previously presented stimulus. Therefore, when a single video is presented in advance, a general user indicates a model (for example, a display area and a dwell time corresponding to a display time) indicating what kind of line-of-sight movement is performed. Information) is stored as recall information, and when the acquired user's line-of-sight position deviates significantly from the model that is the recall information, the recall determination unit 106 determines that the user is in the recall state. The system configuration is shown in FIG.

図23に示されるように、本変形例に係るコンテンツ評価装置110bは、コンテンツ評価装置110と比較し、複数の画像コンテンツを表示し、複数のコンテンツの表示順序を記憶している刺激提示順序記憶部2101と、刺激提示順序記憶部に記憶されている順序に基づき複数のコンテンツを表示する刺激提示部2102と、ユーザの視線位置を履歴として蓄積する視線履歴蓄積部2301と、視線履歴蓄積部2301に蓄積された視線位置を用いて、複数の画像コンテンツの各々が表示されたときの視線位置を特定し、特定された視線位置を表示領域として含む想起情報を生成する典型想起情報生成部2302とをさらに備える。なお、変形例1に係るコンテンツ評価装置110aが備える構成要素と同一の構成要素については同一の符号を付し、詳細な説明は省略する。   As shown in FIG. 23, the content evaluation apparatus 110b according to the present modification displays a plurality of image contents and stores a display order of the plurality of contents compared to the content evaluation apparatus 110. Unit 2101, a stimulus presentation unit 2102 that displays a plurality of contents based on the order stored in the stimulus presentation order storage unit, a line-of-sight history storage unit 2301 that stores a user's line-of-sight position as a history, and a line-of-sight history storage unit 2301 A typical recall information generation unit 2302 that identifies a line-of-sight position when each of a plurality of image contents is displayed using the line-of-sight position stored in the image, and generates recall information including the identified line-of-sight position as a display area; Is further provided. In addition, the same code | symbol is attached | subjected about the component same as the component with which the content evaluation apparatus 110a which concerns on the modification 1 is provided, and detailed description is abbreviate | omitted.

視線履歴蓄積部2301は、視線検知部103で検出された視線情報を蓄積する。   The line-of-sight history storage unit 2301 stores the line-of-sight information detected by the line-of-sight detection unit 103.

典型想起情報生成部2302は、視線履歴蓄積部2301に蓄積された視線の履歴から、一般ユーザがそのコンテンツだけを提示されたときに、どこに視線が滞留するかを特定するための情報を抽出する。典型想起情報生成部2302で生成された典型的な視線情報は、想起情報として想起情報蓄積部105に蓄積される。   The typical recall information generation unit 2302 extracts information for specifying where the line of sight stays when a general user is presented only with the content from the line-of-sight history accumulated in the line-of-sight history accumulation unit 2301. . The typical line-of-sight information generated by the typical recall information generation unit 2302 is stored in the recall information storage unit 105 as recall information.

なお、本変形例に係る刺激提示順序記憶部2101に記憶されている刺激提示順序(すなわち、画像コンテンツの表示順序)は、変形例1とは異なり、1つのコンテンツを提示した後に、十分な時間をとった後に次のコンテンツが提示されるよう順序づけられている。これは、コンテンツを視聴中のユーザが、前のコンテンツを想起しないようにするためである。なぜなら、本変形例においては、想起状態が発生しない一般的な視線の履歴情報を事前に抽出し、想起情報として想起情報蓄積部105に蓄積させることが好ましいためである。   Note that the stimulus presentation order (that is, the display order of image content) stored in the stimulus presentation order storage unit 2101 according to the present modification is different from that of the first modification, and sufficient time has elapsed after presenting one content. It is ordered so that the next content is presented after taking. This is to prevent a user who is viewing the content from recalling the previous content. This is because, in the present modification, it is preferable that history information of a general line of sight where no recall state occurs is extracted in advance and stored in the recall information storage unit 105 as recall information.

典型想起情報生成部2302により生成された想起情報を参照し、想起判定部106は、一般的な視線の履歴とは異なる領域で視線が滞留した場合には、想起状態と判断し、そのときの脳内血流の変化は、それ以前にユーザが視聴したコンテンツに起因するものと判断する。   With reference to the recall information generated by the typical recall information generation unit 2302, the recall determination unit 106 determines that the eye is in a recall state when the line of sight stays in a region different from the general line-of-sight history. It is determined that the change in the blood flow in the brain is caused by the content viewed by the user before that time.

以上、本発明の実施の形態に係るコンテンツ評価装置について説明したが、本発明はこれらの実施の形態に限定されるものではない。   Although the content evaluation device according to the embodiments of the present invention has been described above, the present invention is not limited to these embodiments.

例えば、想起判定部106は、ユーザが想起状態にあると判定したシーンの数ではなく、想起状態にあると判定したシーンに対応する表示時間に基づいて、想起度を算出してもよい。具体的には、想起判定部106は、想起情報に含まれる全ての表示時間の合計に対する、想起状態であると判定したシーンの表示時間の合計の割合として想起度を算出してもよい。   For example, the recall determination unit 106 may calculate the recall level based on the display time corresponding to the scene determined to be in the recall state, instead of the number of scenes determined to be in the recall state by the user. Specifically, the recall determination unit 106 may calculate the recall level as a ratio of the total display time of the scene determined to be in the recall state with respect to the total of all display times included in the recall information.

また、実施の形態及びその変形例に係る取得部120は、脳血流検知部320と視線検知部103とを有することとしたが、取得部120が脳血流検知部320と視線検知部103とを有さない場合にも、同様の発明の効果を奏する。例えば、取得部120は、コンテンツ評価装置の外部装置によって取得された脳血流と視線位置とを記録媒体等から読み出すことで脳血流と視線位置とを取得してもよい。また、取得部120は、コンテンツ評価装置の外部装置が取得した脳血流と視線位置とを有線又は無線の通信インタフェースを介して取得してもよい。   In addition, the acquisition unit 120 according to the embodiment and the modification thereof includes the cerebral blood flow detection unit 320 and the gaze detection unit 103. However, the acquisition unit 120 includes the cerebral blood flow detection unit 320 and the gaze detection unit 103. Even in the case of having no, the same effect of the invention is obtained. For example, the acquisition unit 120 may acquire the cerebral blood flow and the line-of-sight position by reading out the cerebral blood flow and the line-of-sight position acquired by an external device of the content evaluation apparatus from a recording medium or the like. The acquisition unit 120 may acquire the cerebral blood flow and the line-of-sight position acquired by an external device of the content evaluation apparatus via a wired or wireless communication interface.

また、実施の形態及びその変形例に係るコンテンツ評価装置は、滞留時間算出部104を備えることとしたが、滞留時間算出部104を備えなくても同様の発明の効果を奏する。例えば、想起判定部106が、表示領域と視線位置との距離のみを使用して、ユーザが想起状態にあるか否かを判定してもよく、この場合には、コンテンツ評価装置は滞留時間算出部104を備えなくてもよい。   Moreover, although the content evaluation apparatus according to the embodiment and the modification thereof includes the residence time calculation unit 104, the same invention effect can be achieved without the residence time calculation unit 104. For example, the recall determination unit 106 may determine whether or not the user is in the recall state using only the distance between the display area and the line-of-sight position. In this case, the content evaluation apparatus calculates the residence time. The unit 104 may not be provided.

また、実施の形態及びその変形例に係るコンテンツ評価装置は、想起情報蓄積部105を備えることとしたが、想起情報蓄積部105を備えなくても同様の発明の効果を奏する。例えば、外部記憶媒体(図示なし)に想起情報を蓄積しておき、想起判定部106が外部記憶媒体から想起情報を読み込んでもよい。この場合には、コンテンツ評価装置は想起情報蓄積部105を備えなくてもよい。   Moreover, although the content evaluation apparatus according to the embodiment and the modification thereof includes the recall information storage unit 105, the same invention effect can be achieved without the recall information storage unit 105. For example, the recall information may be stored in an external storage medium (not shown), and the recall determination unit 106 may read the recall information from the external storage medium. In this case, the content evaluation device may not include the recall information storage unit 105.

また、実施の形態及びその変形例に係るコンテンツ評価装置は、反応対象特定部107を備えることとしたが、反応対象特定部107を備えなくても同様の発明の効果を奏する。例えば、ユーザに2つのコンテンツを比較させることによりコンテンツを評価する場合には、想起状態の有無を想起判定部106により判定できれば、反応対象特定部107を備えなくてもユーザが心理的な反応を示したコンテンツを特定することができる。   In addition, although the content evaluation device according to the embodiment and the modification thereof includes the reaction target specifying unit 107, the same invention effect can be achieved without the reaction target specifying unit 107. For example, when content is evaluated by allowing a user to compare two contents, if the presence / absence of the recall state can be determined by the recall determination unit 106, the user can have a psychological reaction without the reaction target specifying unit 107. The indicated content can be specified.

また、実施の形態の変形例に係るコンテンツ評価装置110aは、ユーザが心理的な反応を示したであろうと推定されるコンテンツ(例えば、直近に表示したコンテンツ)を再度ユーザに提示することで、ユーザが反応したコンテンツを正確に特定することとしたが、これとは逆に、ユーザが心理的な反応を示していないであろうと推定されるコンテンツを再度ユーザに提示してもよい。具体的には、刺激提示順序変更部2103はユーザが想起していないであろうと推定されるコンテンツが次の刺激として刺激提示部2102へ提示されるよう刺激提示順序記憶部2101に記憶されているコンテンツの表示順序を変更してもよい。ユーザが想起していないであろうと推定されるコンテンツとは、例えば、ユーザが最初に視聴したコンテンツ(視聴履歴が古いコンテンツ)、又は、他のユーザによって想起された割合が最も小さいコンテンツなどである。   In addition, the content evaluation device 110a according to the modification of the embodiment presents again to the user the content (for example, the most recently displayed content) that is estimated that the user would have had a psychological reaction. The content that the user has responded to is accurately specified, but conversely, the content that is estimated that the user will not exhibit a psychological reaction may be presented to the user again. Specifically, the stimulus presentation order changing unit 2103 stores the content estimated to be not recalled by the user in the stimulus presentation order storage unit 2101 so that the content is presented to the stimulus presentation unit 2102 as the next stimulus. The content display order may be changed. The content presumed that the user will not recall is, for example, content that the user first viewed (content with an old viewing history) or content that is least recalled by other users. .

なお、実施の形態並びにその変形例1及び2で説明したコンテンツ評価装置は、コンピュータにより実現することも可能である。図24は、コンテンツ評価装置110、110a及び110bを実現するコンピュータシステムのハードウェア構成を示すブロック図である。   Note that the content evaluation apparatus described in the embodiment and its modifications 1 and 2 can also be realized by a computer. FIG. 24 is a block diagram illustrating a hardware configuration of a computer system that implements the content evaluation apparatuses 110, 110a, and 110b.

コンテンツ評価装置は、コンピュータ34と、コンピュータ34に指示を与えるためのキーボード36及びマウス38と、コンピュータ34の演算結果等の情報を提示するためのディスプレイ32と、コンピュータ34で実行されるプログラムを読み取るためのCD−ROM(Compact Disc−Read Only Memory)装置40及び通信モデム(図示せず)とを含む。   The content evaluation apparatus reads a computer 34, a keyboard 36 and a mouse 38 for giving instructions to the computer 34, a display 32 for presenting information such as calculation results of the computer 34, and a program executed by the computer 34. A CD-ROM (Compact Disc-Read Only Memory) device 40 and a communication modem (not shown).

コンテンツ評価装置が行う処理であるプログラムは、コンピュータで読取可能な媒体であるCD−ROM42に記憶され、CD−ROM装置40で読み取られる。又は、コンピュータネットワークを通じて通信モデム52で読み取られる。   A program that is a process performed by the content evaluation apparatus is stored in a CD-ROM 42 that is a computer-readable medium, and is read by the CD-ROM apparatus 40. Alternatively, the data is read by the communication modem 52 through a computer network.

コンピュータ34は、CPU(Central Processing Unit)44と、ROM(Read Only Memory)46と、RAM(Random Access Memory)48と、ハードディスク50と、通信モデム52と、バス54とを含む。   The computer 34 includes a CPU (Central Processing Unit) 44, a ROM (Read Only Memory) 46, a RAM (Random Access Memory) 48, a hard disk 50, a communication modem 52, and a bus 54.

CPU44は、CD−ROM装置40又は通信モデム52を介して読み取られたプログラムを実行する。ROM46は、コンピュータ34の動作に必要なプログラムやデータを記憶する。RAM48は、プログラム実行時のパラメタなどのデータを記憶する。ハードディスク50は、プログラムやデータなどを記憶する。通信モデム52は、コンピュータネットワークを介して他のコンピュータとの通信を行う。バス54は、CPU44、ROM46、RAM48、ハードディスク50、通信モデム52、ディスプレイ32、キーボード36、マウス38及びCD−ROM装置40を相互に接続する。   The CPU 44 executes a program read via the CD-ROM device 40 or the communication modem 52. The ROM 46 stores programs and data necessary for the operation of the computer 34. The RAM 48 stores data such as parameters at the time of program execution. The hard disk 50 stores programs and data. The communication modem 52 communicates with other computers via a computer network. The bus 54 connects the CPU 44, the ROM 46, the RAM 48, the hard disk 50, the communication modem 52, the display 32, the keyboard 36, the mouse 38, and the CD-ROM device 40 to each other.

さらに、上記の各装置を構成する構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integrated Circuit:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。   Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured by a single system LSI (Large Scale Integrated Circuit). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

さらにまた、上記の各装置を構成する構成要素の一部又は全部は、各装置に脱着可能なICカード又は単体のモジュールから構成されているとしてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカード又はモジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカード又はモジュールは、その機能を達成する。このICカード又はこのモジュールは、耐タンパ性を有するとしてもよい。   Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured from an IC card that can be attached to and detached from each device or a single module. The IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

また、本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。   Further, the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.

さらに、本発明は、上記コンピュータプログラム又は上記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、USBメモリ、SDカードなどのメモリカード、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている上記デジタル信号であるとしてもよい。   Furthermore, the present invention provides a computer-readable recording medium such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD (Blu-ray Disc). (Registered trademark)), a memory card such as a USB memory or an SD card, or a semiconductor memory. Further, the digital signal may be recorded on these recording media.

また、本発明は、上記コンピュータプログラム又は上記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。   Further, the present invention may transmit the computer program or the digital signal via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.

また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしてもよい。   The present invention may be a computer system including a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.

また、上記プログラム又は上記デジタル信号を上記記録媒体に記録して移送することにより、又は上記プログラム又は上記デジタル信号を、上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。   In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like and executed by another independent computer system. You may do that.

さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。   Furthermore, the above embodiment and the above modification examples may be combined.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明は、コンテンツ評価装置等に適用でき、特に、画像コンテンツを視聴するユーザの生体信号を分析することで当該ユーザの当該画像コンテンツに対する反応を特定するコンテンツ評価装置等に適用できる。   The present invention can be applied to a content evaluation device and the like, and in particular, can be applied to a content evaluation device and the like that specify a reaction of the user to the image content by analyzing a biological signal of the user who views the image content.

32 ディスプレイ
34 コンピュータ
36 キーボード
38 マウス
40 CD−ROM装置
42 CD−ROM
44 CPU
46 ROM
48 RAM
50 ハードディスク
52 通信モデム
54 バス
102 反応識別部
103 視線検知部
104 滞留時間算出部
105 想起情報蓄積部
106、106a 想起判定部
107 反応対象特定部
108 評価表示部
110、110a、110b コンテンツ評価装置
120 取得部
220 コンテンツ
222、223、224、225 コンテンツ
250 被験者
320 脳血流検知部
321 受光部
322 発光部
402、403、404 グラフ
412、413 閾値
420、421 反応時刻候補
1105、1105a 想起情報
1108 コンテンツの名称
1110 シーンタグ
2101 刺激提示順序記憶部
2102 刺激提示部
2103 刺激提示順序変更部
2301 視線履歴蓄積部
2302 典型想起情報生成部
32 Display 34 Computer 36 Keyboard 38 Mouse 40 CD-ROM device 42 CD-ROM
44 CPU
46 ROM
48 RAM
50 Hard disk 52 Communication modem 54 Bus 102 Reaction identification unit 103 Gaze detection unit 104 Residence time calculation unit 105 Recall information storage unit 106, 106a Recall determination unit 107 Reaction target identification unit 108 Evaluation display unit 110, 110a, 110b Acquisition of content evaluation device 120 Unit 220 content 222, 223, 224, 225 content 250 subject 320 cerebral blood flow detection unit 321 light receiving unit 322 light emitting unit 402, 403, 404 graph 412, 413 threshold 420, 421 reaction time candidate 1105, 1105a recall information 1108 name of content 1110 Scene tag 2101 Stimulus presentation order storage unit 2102 Stimulus presentation unit 2103 Stimulus presentation order change unit 2301 Gaze history accumulation unit 2302 Typical recall information generation unit

Claims (20)

画像コンテンツを視聴するユーザの生体信号を分析することで当該ユーザの当該画像コンテンツに対する反応を特定するコンテンツ評価装置であって、
前記ユーザの脳血流と視線位置とを取得する取得部と、
前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示したか否かを前記脳血流に基づいて識別する反応識別部と、
前記画像コンテンツを視聴するユーザが、表示されている当該画像コンテンツより前に表示された他の画像コンテンツを想起していたか否かを、前記ユーザの視線位置に基づいて判定する想起判定部とを備える
コンテンツ評価装置。
A content evaluation device that identifies a user's reaction to the image content by analyzing a biological signal of the user who views the image content,
An acquisition unit for acquiring the cerebral blood flow and the line-of-sight position of the user;
A reaction identifying unit for identifying whether or not the user showed a psychological reaction when viewing the image content based on the cerebral blood flow;
A recall determining unit that determines whether or not a user viewing the image content has recalled another image content displayed before the displayed image content based on the line-of-sight position of the user; A content evaluation apparatus.
さらに、前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示した場合であって、当該ユーザが前記他の画像コンテンツを想起していたと前記想起判定部が判定した場合には、当該他の画像コンテンツを当該ユーザが心理的な反応を示した対象として特定する反応対象特定部を備える
請求項1に記載のコンテンツ評価装置。
Further, when the user shows a psychological reaction when viewing the image content, and the recall determination unit determines that the user has recalled the other image content, the other The content evaluation apparatus according to claim 1, further comprising: a reaction target specifying unit that specifies image content as a target for which the user has exhibited a psychological reaction.
前記反応識別部は、取得した前記脳血流の絶対値が事前に定められた閾値を上まわる場合、又は、所定の時間区間における前記脳血流の積分値の絶対値が事前に定められた値を上まわる場合には、前記ユーザが心理的な反応を示したと識別する
請求項2に記載のコンテンツ評価装置。
In the reaction identification unit, when the absolute value of the acquired cerebral blood flow exceeds a predetermined threshold value, or the absolute value of the integrated value of the cerebral blood flow in a predetermined time interval is determined in advance. The content evaluation apparatus according to claim 2, wherein if the value exceeds the value, the user is identified as having exhibited a psychological reaction.
前記想起判定部は、前記画像コンテンツを視聴する時の一般的な視線位置として事前に定式化されたモデルと、前記ユーザの視線位置との乖離度合いが事前に定められた値より大きければ、当該ユーザは想起状態であったと判定する
請求項3に記載のコンテンツ評価装置。
If the degree of divergence between the model formulated in advance as a general gaze position when viewing the image content and the gaze position of the user is greater than a predetermined value, the recall determination unit The content evaluation device according to claim 3, wherein the user is determined to be in a recall state.
前記視線位置の移動距離が事前に定められた閾値以内であった時間である滞留時間を算出する滞留時間算出部と、
前記画像コンテンツを時分割した各々であるシーンの表示時間と、前記表示時間に前記画像コンテンツの一部として表示される画像である提供画像の表示領域とを対応付ける情報である想起情報を蓄積している想起情報蓄積部とをさらに備え、
前記想起判定部は、前記シーンごとに、当該シーンの前記表示時間における前記視線位置と当該表示時間に対応付けられた前記表示領域との距離、及び前記表示時間における前記滞留時間が、それぞれ事前に定められた閾値以上であるか否かを判定し、前記閾値以上である場合には、前記ユーザが想起状態であると判定する
請求項4に記載のコンテンツ評価装置。
A dwell time calculation unit that calculates a dwell time that is a time during which the movement distance of the line-of-sight position is within a predetermined threshold;
Recall information that is information that associates a display time of a scene that is each time-divided image content with a display area of a provided image that is an image displayed as part of the image content at the display time. And a recall information storage unit
For each of the scenes, the recall determination unit determines in advance a distance between the line-of-sight position in the display time of the scene and the display area associated with the display time, and the dwell time in the display time. The content evaluation apparatus according to claim 4, wherein it is determined whether or not the threshold value is equal to or greater than a predetermined threshold value, and if the threshold value is equal to or greater than the threshold value, the user is determined to be in a recall state.
前記想起判定部は、前記想起情報に含まれるシーンの総数に対する、前記ユーザが前記想起状態であると判定されたシーンの総数の割合として想起度を算出する
請求項5に記載のコンテンツ評価装置。
The content evaluation apparatus according to claim 5, wherein the recall determination unit calculates a recall level as a ratio of a total number of scenes that the user determines to be in the recall state with respect to a total number of scenes included in the recall information.
前記反応識別部は、取得した前記脳血流が第1の閾値を上まわる場合には、前記ユーザの心理的な反応の種別を興奮状態であると識別し、当該脳血流が第2の閾値を下まわる場合には、当該ユーザの心理的な反応の種別を集中状態であると識別し、
前記第1の閾値は、基準時における前記ユーザの脳血流よりも大きな値であり、
前記第2の閾値は、前記基準時における前記ユーザの脳血流よりも小さな値である
請求項1に記載のコンテンツ評価装置。
When the acquired cerebral blood flow exceeds a first threshold, the reaction identifying unit identifies the type of psychological reaction of the user as being in an excited state, and the cerebral blood flow is If it falls below the threshold, the user's psychological response type is identified as being concentrated,
The first threshold value is larger than the cerebral blood flow of the user at the reference time,
The content evaluation apparatus according to claim 1, wherein the second threshold is a value smaller than the cerebral blood flow of the user at the reference time.
前記反応識別部は、取得した前記脳血流の絶対値が前記事前に定められた閾値を上まわった時刻、及び、前記所定の時間区間における当該脳血流の積分値の絶対値が前記事前に定められた値を上まわった時刻のいずれかの時刻から、事前に定められた時間だけ遡った時刻までの時間区間に含まれる時刻を、前記ユーザが前記心理的な反応を示した時刻の候補である反応時刻候補と特定し、
前記反応対象特定部は、前記反応時刻候補と前記想起度とに基づいて、前記ユーザが前記心理的な反応を示した対象を特定する
請求項6に記載のコンテンツ評価装置。
The reaction identification unit includes the time when the acquired absolute value of the cerebral blood flow exceeds the predetermined threshold, and the absolute value of the integrated value of the cerebral blood flow in the predetermined time interval is The user showed the psychological response to the time included in the time interval from one of the times that exceeded the value set before the article to the time that went back by a predetermined time. Identify it as a reaction time candidate that is a time candidate,
The content evaluation device according to claim 6, wherein the reaction target specifying unit specifies a target on which the user has shown the psychological reaction based on the reaction time candidate and the recall level.
前記反応対象特定部は、前記想起度が事前に定められた値よりも小さい場合には、前記反応時刻候補に視聴した画像コンテンツを前記ユーザが前記心理的な反応を示した対象として特定し、前記想起度が事前に定められた値以上の場合には、前記反応時刻候補よりも前に視聴した画像コンテンツを、当該ユーザが当該心理的な反応を示した対象として特定する
請求項8に記載のコンテンツ評価装置。
The reaction target specifying unit specifies, when the recall level is smaller than a predetermined value, the image content viewed as the reaction time candidate as a target for which the user has shown the psychological reaction, 9. The image content viewed before the reaction time candidate is specified as a target for which the user has exhibited the psychological reaction when the recall level is equal to or greater than a predetermined value. Content evaluation device.
前記想起判定部は、前記提供画像が文字情報を表す場合には、当該提供画像の表示時間内の前記視線位置の移動量が事前に定められた閾値未満の場合には、前記ユーザが前記想起状態であると判定する
請求項5に記載のコンテンツ評価装置。
When the provided image represents character information, the recall determination unit determines that the user recalls the recall if the movement amount of the line-of-sight position within the display time of the provided image is less than a predetermined threshold. The content evaluation device according to claim 5, wherein the content evaluation device is determined to be in a state.
前記想起判定部は、前記視線位置が前記提供画像の前記表示領域内に位置する場合において、当該視線位置が当該提供画像の前記表示時間より前から当該表示領域内に位置する場合は、前記ユーザが前記想起状態であるとは判定しない
請求項5に記載のコンテンツ評価装置。
In the case where the line-of-sight position is located in the display area of the provided image and the line-of-sight position is located in the display area before the display time of the provided image, The content evaluation device according to claim 5, wherein the content evaluation device is not determined to be in the recall state.
前記想起判定部は、前記シーンが複数の表示領域を含む場合には、前記視線位置に対し最も近い前記表示領域との離れ度合いを用いて前記距離を算出する
請求項5に記載のコンテンツ評価装置。
The content evaluation device according to claim 5, wherein, when the scene includes a plurality of display areas, the recall determination unit calculates the distance using a degree of separation from the display area closest to the line-of-sight position. .
前記想起判定部は、前記シーンごとに、前記表示時間における前記視線位置と当該表示時間に対応付けられた前記表示領域との距離、及び前記表示時間における前記滞留時間が、それぞれ事前に定められた閾値以上であるかを判定し、それぞれが閾値以上である場合には、当該シーンより前に表示された他のシーンを当該ユーザが想起していたと判定する
請求項5に記載のコンテンツ評価装置。
For each of the scenes, the recall determination unit determines in advance a distance between the line-of-sight position in the display time and the display area associated with the display time, and the dwell time in the display time. The content evaluation apparatus according to claim 5, wherein it is determined whether or not the threshold value is equal to or greater than the threshold value, and if each is equal to or greater than the threshold value, it is determined that the user has recalled another scene displayed before the scene.
前記想起情報は、前記シーンごとに重みを有し、
前記想起判定部は、前記想起状態と判定されたシーンの総数を、当該シーンに対応する前記重みを乗じて集計する
請求項6に記載のコンテンツ評価装置。
The recall information has a weight for each scene,
The content evaluation apparatus according to claim 6, wherein the recall determination unit totals the total number of scenes determined to be the recall state by multiplying the weight corresponding to the scene.
前記コンテンツ評価装置は、複数の画像コンテンツを表示し、
前記複数の画像コンテンツの表示順序を記憶している刺激提示順序記憶部と、
前記刺激提示順序記憶部に記憶されている前記複数の画像コンテンツの表示順序を変更する刺激提示順序変更部と、
前記刺激提示順序記憶部に記憶されている順序、又は前記刺激提示順序変更部によって変更された表示順序に基づき前記複数のコンテンツを表示する刺激提示部とをさらに備える
請求項2に記載のコンテンツ評価装置。
The content evaluation device displays a plurality of image contents,
A stimulus presentation order storage unit storing a display order of the plurality of image contents;
A stimulus presentation order changing unit that changes a display order of the plurality of image contents stored in the stimulus presentation order storage unit;
The content evaluation according to claim 2, further comprising: a stimulus presentation unit that displays the plurality of contents based on an order stored in the stimulus presentation order storage unit or a display order changed by the stimulus presentation order change unit. apparatus.
前記刺激提示順序変更部は、
前記反応対象特定部で特定された前記他の画像コンテンツを再度表示するように前記表示順序を変更する
請求項15に記載のコンテンツ評価装置。
The stimulus presentation order changing unit
The content evaluation apparatus according to claim 15, wherein the display order is changed so that the other image content specified by the reaction target specifying unit is displayed again.
前記反応対象特定部は、前記他の画像コンテンツが1回目に表示されたときの脳血流の増減量と、当該他の画像コンテンツが2回目以降に表示されたときの脳血流の増減量との差分に基づいて、前記ユーザが当該他の画像コンテンツを想起していたか否かを判定する
請求項16に記載のコンテンツ評価装置。
The reaction target specifying unit includes an increase / decrease amount of cerebral blood flow when the other image content is displayed for the first time, and an increase / decrease amount of cerebral blood flow when the other image content is displayed for the second time or later. The content evaluation apparatus according to claim 16, wherein it is determined whether or not the user has recalled the other image content based on a difference between the content and the user.
前記コンテンツ評価装置は、複数の画像コンテンツを表示し、
前記複数のコンテンツの表示順序を記憶している刺激提示順序記憶部と、
前記刺激提示順序記憶部に記憶されている順序に基づき前記複数のコンテンツを表示する刺激提示部と、
前記ユーザの視線位置を履歴として蓄積する視線履歴蓄積部と、
前記視線履歴蓄積部に蓄積された前記視線位置を用いて、前記複数の画像コンテンツの各々が表示されたときの視線位置を特定し、特定された前記視線位置を前記表示領域として含む前記想起情報を生成する典型想起情報生成部とをさらに備える
請求項5に記載のコンテンツ評価装置。
The content evaluation device displays a plurality of image contents,
A stimulus presentation order storage unit storing a display order of the plurality of contents;
A stimulus presentation unit that displays the plurality of contents based on the order stored in the stimulus presentation order storage unit;
A line-of-sight history storage unit that stores the line-of-sight position of the user as a history;
Using the gaze position accumulated in the gaze history accumulation unit, the gaze position when each of the plurality of image contents is displayed is identified, and the recall information includes the identified gaze position as the display area The content evaluation device according to claim 5, further comprising: a typical recall information generation unit that generates
画像コンテンツを視聴するユーザの生体信号を分析することで当該ユーザの当該画像コンテンツに対する反応を特定するコンテンツ評価方法であって、
前記ユーザの脳血流と視線位置とを取得する取得ステップと、
前記画像コンテンツの視聴時に前記ユーザが心理的な反応を示したか否かを前記脳血流に基づいて識別する反応識別ステップと、
前記画像コンテンツを視聴するユーザが、表示されている当該画像コンテンツより前に表示された他の画像コンテンツを想起していたか否かを、前記ユーザの視線位置に基づいて判定する想起判定ステップとを含む
コンテンツ評価方法。
A content evaluation method for identifying a user's reaction to the image content by analyzing a biological signal of the user viewing the image content,
Obtaining the cerebral blood flow and line-of-sight position of the user;
A reaction identifying step for identifying whether or not the user has a psychological reaction when viewing the image content based on the cerebral blood flow;
A recall determination step of determining whether or not a user viewing the image content has recalled another image content displayed before the displayed image content based on the line-of-sight position of the user; Includes content evaluation methods.
請求項19に記載のコンテンツ評価方法をコンピュータに実行させる
プログラム。
A program causing a computer to execute the content evaluation method according to claim 19.
JP2011111915A 2011-05-18 2011-05-18 Content evaluation apparatus, method, and program thereof Active JP5789735B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011111915A JP5789735B2 (en) 2011-05-18 2011-05-18 Content evaluation apparatus, method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011111915A JP5789735B2 (en) 2011-05-18 2011-05-18 Content evaluation apparatus, method, and program thereof

Publications (2)

Publication Number Publication Date
JP2012243043A true JP2012243043A (en) 2012-12-10
JP5789735B2 JP5789735B2 (en) 2015-10-07

Family

ID=47464700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011111915A Active JP5789735B2 (en) 2011-05-18 2011-05-18 Content evaluation apparatus, method, and program thereof

Country Status (1)

Country Link
JP (1) JP5789735B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029393A1 (en) * 2013-08-29 2015-03-05 ソニー株式会社 Information processing device and information processing method
WO2016084834A1 (en) * 2014-11-25 2016-06-02 株式会社日立ハイテクノロジーズ Measurement system, head-mounted device, program, and service providing method
JP2016181244A (en) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 User attention determination system, method and program
JP6077165B1 (en) * 2016-06-23 2017-02-08 ヤフー株式会社 Generating device, generating method, and generating program
JP2017228269A (en) * 2017-01-11 2017-12-28 ヤフー株式会社 Generation device, generation method, and generation program
JP2019058716A (en) * 2018-12-04 2019-04-18 サッポロホールディングス株式会社 Method for evaluating affection which is applied to functional feature by information following food and drink
JP2019170451A (en) * 2018-03-27 2019-10-10 株式会社デンソーアイティーラボラトリ Driver state estimation device and driver state estimation method
WO2020242018A1 (en) * 2019-05-31 2020-12-03 이화여자대학교 산학협력단 Method and apparatus for diagnosing condition of consumer consuming digital content

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP2011065504A (en) * 2009-09-18 2011-03-31 Tokyo Univ Of Science Preference prediction server for generating prediction model concerning preference relation of user and method therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007296169A (en) * 2006-05-01 2007-11-15 Agi:Kk Mental condition judging apparatus, and program
JP2011065504A (en) * 2009-09-18 2011-03-31 Tokyo Univ Of Science Preference prediction server for generating prediction model concerning preference relation of user and method therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800422007; 応和 大輔: '視線情報に基づく映像要約手法の評価' 情報処理学会研究報告 第2008巻 第22号, 20080306, pp.39-44, 社団法人情報処理学会 *
JPN6014037177; 応和 大輔: '視線情報に基づく映像要約手法の評価' 情報処理学会研究報告 第2008巻 第22号, 20080306, pp.39-44, 社団法人情報処理学会 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019058B2 (en) 2013-08-29 2018-07-10 Sony Corporation Information processing device and information processing method
WO2015029393A1 (en) * 2013-08-29 2015-03-05 ソニー株式会社 Information processing device and information processing method
WO2016084834A1 (en) * 2014-11-25 2016-06-02 株式会社日立ハイテクノロジーズ Measurement system, head-mounted device, program, and service providing method
JPWO2016084834A1 (en) * 2014-11-25 2017-11-16 株式会社日立ハイテクノロジーズ Measuring system, head-mounted device, program, and service providing method
JP2016181244A (en) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 User attention determination system, method and program
JP6077165B1 (en) * 2016-06-23 2017-02-08 ヤフー株式会社 Generating device, generating method, and generating program
JP2017228157A (en) * 2016-06-23 2017-12-28 ヤフー株式会社 Generation device, generation method, and generation program
JP2017228269A (en) * 2017-01-11 2017-12-28 ヤフー株式会社 Generation device, generation method, and generation program
JP2019170451A (en) * 2018-03-27 2019-10-10 株式会社デンソーアイティーラボラトリ Driver state estimation device and driver state estimation method
JP2019058716A (en) * 2018-12-04 2019-04-18 サッポロホールディングス株式会社 Method for evaluating affection which is applied to functional feature by information following food and drink
WO2020242018A1 (en) * 2019-05-31 2020-12-03 이화여자대학교 산학협력단 Method and apparatus for diagnosing condition of consumer consuming digital content
KR20200137648A (en) * 2019-05-31 2020-12-09 이화여자대학교 산학협력단 Method and apparatus for diagnosing conditions of a patient consuming digital content
KR102335968B1 (en) * 2019-05-31 2021-12-06 이화여자대학교 산학협력단 Method and apparatus for diagnosing conditions of a patient consuming digital content

Also Published As

Publication number Publication date
JP5789735B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP5789735B2 (en) Content evaluation apparatus, method, and program thereof
JP5624512B2 (en) Content evaluation apparatus, method, and program thereof
Bell et al. Beyond self-report: A review of physiological and neuroscientific methods to investigate consumer behavior
US10901509B2 (en) Wearable computing apparatus and method
JP5119375B2 (en) Concentration presence / absence estimation device and content evaluation device
US20120083675A1 (en) Measuring affective data for web-enabled applications
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
US9538219B2 (en) Degree of interest estimating device and degree of interest estimating method
US20150099987A1 (en) Heart rate variability evaluation for mental state analysis
US20120124122A1 (en) Sharing affect across a social network
US20130115582A1 (en) Affect based concept testing
US20130102854A1 (en) Mental state evaluation learning for advertising
AU2011265090A1 (en) Mental state analysis using web services
US20170105668A1 (en) Image analysis for data collected from a remote computing device
AU2010239526A1 (en) Method and system for measuring user experience for interactive activities
AU2013256179A1 (en) Physiological characteristic detection based on reflected components of light
US10817057B2 (en) Information processing device, information processing method, and program
US20140058828A1 (en) Optimizing media based on mental state analysis
US20130189661A1 (en) Scoring humor reactions to digital media
US20130238394A1 (en) Sales projections based on mental states
Perusquía-Hernández et al. Human perception and biosignal-based identification of posed and spontaneous smiles
US20130052621A1 (en) Mental state analysis of voters
CN112613364A (en) Target object determination method, target object determination system, storage medium, and electronic device
WO2014105266A1 (en) Optimizing media based on mental state analysis
EP3893091A1 (en) Controlling a data inspection by a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150113

R151 Written notification of patent or utility model registration

Ref document number: 5789735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151