JP2014006639A - Content evaluation data generation system, content evaluation data generation method, and program - Google Patents

Content evaluation data generation system, content evaluation data generation method, and program Download PDF

Info

Publication number
JP2014006639A
JP2014006639A JP2012140797A JP2012140797A JP2014006639A JP 2014006639 A JP2014006639 A JP 2014006639A JP 2012140797 A JP2012140797 A JP 2012140797A JP 2012140797 A JP2012140797 A JP 2012140797A JP 2014006639 A JP2014006639 A JP 2014006639A
Authority
JP
Japan
Prior art keywords
content
subject
unit
generation system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012140797A
Other languages
Japanese (ja)
Other versions
JP5941764B2 (en
Inventor
Takeshi Ioka
健 井岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012140797A priority Critical patent/JP5941764B2/en
Publication of JP2014006639A publication Critical patent/JP2014006639A/en
Application granted granted Critical
Publication of JP5941764B2 publication Critical patent/JP5941764B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a content evaluation data generation system, a content evaluation data generation method, and a program by which information for evaluating reaction of a subject viewing a content can be acquired more accurately without making the subject aware of the evaluation.SOLUTION: A content evaluation data generation system comprises: a display unit that displays a content; an imaging unit that photographs a subject browsing the content displayed on the display unit, and outputs a photographed image of the subject; a detection unit that detects biological information of the subject on the basis of the photographed image; and a recording unit that records data of the biological information detected by the detection unit in association with the content browsed by the subject when the biological information is detected or data indicating the content.

Description

本発明は、アンケートに対する被験者の回答や、コンテンツに対する被験者の応答を評価し補正するための情報を取得するコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムに関し、より詳細には、アンケートに答えている被験者の状況、またはコンテンツを視聴している被験者の状況をカメラで撮影し、映像に基づいて測定した被験者の生理反応の測定結果と被験者の状況とを関連づけた、被験者による回答や応答を補正するための情報を取得する技術に関する。   The present invention relates to a content evaluation data generation system, a content evaluation data generation method, and a program for acquiring information for evaluating and correcting a subject's response to a questionnaire and a subject's response to content. Subject's answer or response by correlating the measurement result of the subject's physiological response with the subject's situation measured by the camera by shooting the situation of the subject who is answering or watching the content. The present invention relates to a technique for acquiring information for correcting the error.

近年、インターネットに接続されているパソコン、TV、またはタブレットを利用したオンラインアンケート調査や、コンテンツ視聴における効果の測定が広く普及している。このような調査や効果の測定は、インターネットに接続される機器の増加に伴って、ますます多用されていくものと考えられる。   In recent years, online questionnaire surveys using personal computers, TVs, or tablets connected to the Internet, and measurement of effects on content viewing have become widespread. Such surveys and measurement of effects are considered to be increasingly used as the number of devices connected to the Internet increases.

従来、アンケート調査、テスト問題、またはゲームなどにおける対話型システムでは、マウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて被験者が入力したデータを、被験者の応答データとして取得していた。しかし、被験者が、提示されたアンケートやコンテンツの内容に関心を持たずに安易に入力したデータが取得した応答データに含まれていると、提示したアンケートやコンテンツに対する被験者の応答を集計した全体の結果の信頼性を下げてしまうことになる。   Conventionally, in interactive systems such as questionnaire surveys, test questions, or games, data input by a subject using a pointing device such as a mouse or an input device such as a keyboard is obtained as response data of the subject. However, if the data included in the response data that the subject entered easily without being interested in the content of the presented questionnaire or content is included in the acquired response data, This will reduce the reliability of the results.

このため、取得した応答データから、安易に入力したデータを選別することが必要となるが、被験者が入力したデータを選別する手段はなく、被験者が安易に入力したデータと信用できるデータとを選別すること、すなわち、有効な応答データのみを抽出することは非常に困難である。仮に、応答データを選別したとしても、選別した応答データが有効なデータであるか否かの最終的な判断は、心理学の専門家などによる精細な評価が必要である。   For this reason, it is necessary to select easily input data from the acquired response data, but there is no means for selecting the data input by the subject, and the data easily input by the subject and the reliable data are selected. That is, it is very difficult to extract only valid response data. Even if the response data is selected, the final judgment as to whether the selected response data is valid data requires a detailed evaluation by a psychological expert or the like.

また、従来から、有効な応答データのみを抽出した評価を行うために、被験者にセンサやマーカなどを装着し、被験者の生理反応を測定する方法が用いられている。しかし、この方法の場合、測定する環境の雰囲気や被験者の状況が通常と異なるため、緊張感などの特定の意識を被験者に抱かせてしまう。このため、逆に取得した応答データの信頼性が損なわれたり、被験者に測定への参加を拒否されたりするおそれがある。これでは、通常の被験者の状況を反映した応答データを取得しているとは言い難い。   Conventionally, in order to perform evaluation by extracting only valid response data, a method in which a subject is equipped with a sensor, a marker, or the like and the physiological reaction of the subject is measured has been used. However, in this method, since the atmosphere of the environment to be measured and the situation of the subject are different from usual, the subject is given specific consciousness such as tension. For this reason, the reliability of the acquired response data may be impaired, or the subject may be refused to participate in the measurement. In this case, it is difficult to say that response data reflecting the condition of a normal subject is acquired.

このような問題を解決するための技術として、例えば、特許文献1のように、コンテンツに対する被験者の応答を測定する際に、応答データと連動して被験者の眼球運動を測定して解析する技術が開示されている。特許文献1で開示された技術を用いることによって、通常の被験者の状況を反映したコンテンツ視聴の評価を行うことができ、被験者の応答データの有効性を判定することができる。   As a technique for solving such a problem, for example, as in Patent Document 1, when measuring a subject's response to content, there is a technique for measuring and analyzing the eye movement of the subject in conjunction with the response data. It is disclosed. By using the technique disclosed in Patent Document 1, it is possible to evaluate content viewing reflecting the condition of a normal subject, and to determine the validity of the response data of the subject.

特許第4874332号公報Japanese Patent No. 4874332

しかしながら、特許文献1で開示された技術では、被験者の眼球運動を有効に測定するために、カメラによって被験者の眼球の映像を正確に捉えることが必要である。また、近年では、テレビやパソコンなど、生活のなかで同時に複数のコンテンツを視聴することが一般的になってきている。このため、被験者が複数のコンテンツを視聴している場合には、被験者の眼球運動を測定することが難しくなり、コンテンツ視聴の評価における有効な応答データを精度よく取得することができない。このことにより、提示したコンテンツに対する視聴評価や解析も困難になってしまう。従って、特許文献1で開示された技術を用いることができる実用範囲は、非常に狭い範囲に限定されてしまうことになる。   However, in the technique disclosed in Patent Document 1, it is necessary to accurately capture the image of the eyeball of the subject with a camera in order to effectively measure the eyeball movement of the subject. In recent years, it has become common to view a plurality of contents at the same time in daily life, such as televisions and personal computers. For this reason, when the subject is viewing a plurality of contents, it is difficult to measure the eye movement of the subject, and effective response data in the evaluation of content viewing cannot be obtained with high accuracy. This makes it difficult to evaluate and analyze the presented content. Therefore, the practical range in which the technique disclosed in Patent Document 1 can be used is limited to a very narrow range.

本発明は、上記の課題認識に基づいてなされたものであり、被験者に意識させずに、コンテンツを視聴(閲覧)している被験者の反応を評価するための情報を、より精度よく取得することができるコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムを提供することを目的としている。   The present invention has been made based on the above problem recognition, and more accurately obtains information for evaluating the reaction of a subject who is viewing (browsing) content without making the subject aware of it. An object of the present invention is to provide a content evaluation data generation system, a content evaluation data generation method, and a program.

上記の課題を解決するため、本発明のコンテンツ評価データ生成システムは、コンテンツを表示する表示部と、前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、前記撮影画像に基づいて前記被験者の生体情報を検出する検出部と、前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、を備えることを特徴とする。   In order to solve the above problem, the content evaluation data generation system of the present invention photographs a subject viewing the content displayed on the display unit and the display unit displaying the content, and the photographed subject An imaging unit that outputs the captured image, a detection unit that detects biological information of the subject based on the captured image, data of biological information detected by the detection unit, and the biological information detected when the biological information is detected A recording unit that records the content being viewed by the subject or the data indicating the content in association with each other.

また、本発明のコンテンツ評価データ生成方法は、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の生体情報を検出させる検出ステップと、記憶部に前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、を含むことを特徴とする。   In the content evaluation data generation method of the present invention, the display step of displaying the content on the display unit, and the subject viewing the content displayed on the display unit are photographed by the photographing unit, and the photographing is performed. A photographing step for outputting a photographed image of the subject, a detecting step for causing the detection unit to detect the biological information of the subject based on the photographed image, data of biological information detected by the detection unit in the storage unit, and the biological body And a recording step of associating and recording the content that the subject was browsing when the information was detected or data indicating the content.

また、本発明のプログラムは、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の生体情報を検出させる検出ステップと、記憶部に前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、をコンピュータに実行させることを特徴とする。   Further, the program of the present invention includes a display step of displaying content on a display unit, and a subject who is browsing the content displayed on the display unit is photographed by a photographing unit, and the photographed image of the subject that is photographed A detection step for detecting the biological information of the subject based on the captured image; a biological information data detected by the detection unit; and a detection unit for detecting the biological information. A recording step of causing the computer to execute a recording step of associating and recording the content that has been browsed by the subject or the data indicating the content is sometimes performed.

本発明によれば、被験者に意識させずに、コンテンツを視聴(閲覧)している被験者の反応を評価するための情報を、より精度よく取得することができるコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムを提供することができるという効果が得られる。   ADVANTAGE OF THE INVENTION According to this invention, the content evaluation data generation system and content evaluation data which can acquire more accurately the information for evaluating the reaction of the subject who is viewing (browsing) the content without making the subject aware of it. An effect that a generation method and a program can be provided is obtained.

本発明の第1の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 1st Embodiment of this invention. 本第1の実施形態のコンテンツ評価データ生成システムに備えた心拍検出部における心拍検出処理の処理手順を示したフローチャートである。It is the flowchart which showed the process sequence of the heart rate detection process in the heart rate detection part with which the content evaluation data generation system of the 1st embodiment was equipped. 本発明の第2の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 2nd Embodiment of this invention. 本発明の第3の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 3rd Embodiment of this invention. 本発明の第4の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 4th Embodiment of this invention. 本発明の第5の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 5th Embodiment of this invention. 本発明の第5の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。It is the block diagram which showed an example of schematic structure of the content evaluation data generation system in the 5th Embodiment of this invention.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本第1の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図1には、本発明のコンテンツ評価データ生成システムにおける基本的な構成の一例を示している。図1に示したコンテンツ評価データ生成システム1は、撮影部10と、表示部20と、心拍検出部30と、記録部40とから構成されるシステムである。なお、図1には、コンテンツ評価データ生成システム1における被験者Hも併せて示しているが、被験者Hは、本第1の実施形態のコンテンツ評価データ生成システム1を構成する要素ではない。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of a schematic configuration of a content evaluation data generation system according to the first embodiment. FIG. 1 shows an example of a basic configuration in the content evaluation data generation system of the present invention. The content evaluation data generation system 1 illustrated in FIG. 1 is a system that includes an imaging unit 10, a display unit 20, a heartbeat detection unit 30, and a recording unit 40. FIG. 1 also shows the subject H in the content evaluation data generation system 1, but the subject H is not an element constituting the content evaluation data generation system 1 of the first embodiment.

表示部20は、コンテンツを表示する、例えば、LCD(Liquid Crystal Display)などの表示装置を備え、記録部40に記録されたコンテンツを表示することによって、コンテンツを被験者Hに提示する。表示部20は、不図示の制御部によってコンテンツ表示を開始するタイミングが制御される。表示部20は、制御部によってコンテンツ表示の開始が指示されると、表示するコンテンツのデータを記録部40から読み出して表示する。   The display unit 20 includes a display device such as an LCD (Liquid Crystal Display) that displays content, and presents the content to the subject H by displaying the content recorded in the recording unit 40. In the display unit 20, the timing at which content display is started is controlled by a control unit (not shown). When the start of content display is instructed by the control unit, the display unit 20 reads content data to be displayed from the recording unit 40 and displays it.

撮影部10は、被写体の光学像を光電変換する固体撮像素子を備え、被写体の動画を撮影する。撮影部10は、不図示の制御部によって動画撮影を開始するタイミングが制御される。撮影部10は、制御部によって動画撮影の開始が指示されると、表示部20に表示されたコンテンツを視聴(閲覧)している被験者Hの顔の領域の動画像(例えば、30フレーム/秒の画像)を撮影し、撮影した被験者Hの撮影画像であるそれぞれのフレームの画像データ(RAWデータ)を、撮影した動画のフレーム毎に心拍検出部30に出力する。   The imaging unit 10 includes a solid-state imaging device that photoelectrically converts an optical image of a subject, and captures a moving image of the subject. In the photographing unit 10, the timing for starting moving image photographing is controlled by a control unit (not shown). When the start of moving image shooting is instructed by the control unit, the shooting unit 10 is a moving image (for example, 30 frames / second) of the face area of the subject H who is viewing (browsing) the content displayed on the display unit 20. And the image data (RAW data) of each frame, which is a captured image of the subject H, is output to the heartbeat detecting unit 30 for each frame of the captured moving image.

心拍検出部30は、撮影部10から入力されたRAWデータに対して、被験者Hの心拍を検出するための画像処理(以下、「心拍検出処理」という)を行う。心拍検出部30は、不図示の制御部によって心拍検出処理を開始するタイミングが制御される。心拍検出部30は、制御部によって心拍検出処理の開始が指示されると、撮影部10から入力されたRAWデータを用いて心拍検出処理を行い、被験者Hの心拍を一定間隔毎に検出する。なお、心拍検出部30における心拍検出処理に関する詳細な説明は、後述する。   The heartbeat detection unit 30 performs image processing (hereinafter referred to as “heartbeat detection processing”) for detecting the heartbeat of the subject H on the RAW data input from the imaging unit 10. In the heart rate detection unit 30, the timing at which the heart rate detection process is started is controlled by a control unit (not shown). When the start of the heart rate detection process is instructed by the control unit, the heart rate detection unit 30 performs the heart rate detection process using the RAW data input from the imaging unit 10 and detects the heart rate of the subject H at regular intervals. A detailed description of the heartbeat detection process in the heartbeat detection unit 30 will be described later.

また、心拍検出部30は、心拍検出処理が開始すると、表示部20にコンテンツを表示しているタイミングと同期して、コンテンツのデータを記録部40から読み出す。そして、心拍検出部30は、読み出したコンテンツのデータに、検出した被験者Hの心拍の情報(以下、「生体情報」ともいう)を関連付けた応答データを、記録部40に出力し記録させる。   Further, when the heartbeat detection process starts, the heartbeat detection unit 30 reads content data from the recording unit 40 in synchronization with the timing at which the content is displayed on the display unit 20. Then, the heartbeat detection unit 30 outputs and records response data in which the detected information about the heartbeat of the subject H (hereinafter also referred to as “biological information”) is associated with the read content data.

例えば、表示部20に、映画やドラマなどの動画コンテンツを表示している場合には、動画コンテンツにおけるそれぞれのフレームの動画データに同期したタイミングで、動画データに含まれるタグ情報の空き領域などに、フレーム毎に検出した被験者Hの生体情報を追加する。そして、被験者Hの生体情報を順次追加した動画コンテンツを、応答データとして記録部40に記録させる。これにより、動画コンテンツを視聴しているときの被験者Hの心拍の変化を、動画コンテンツに対応付けて評価することができる。例えば、動画コンテンツの提供者が動画コンテンツの視聴率を集計する際に、それぞれの被験者が視聴した応答データから、それぞれのフレームのタグ情報に追加された心拍の情報を時間順に順次抽出することによって、それぞれの被験者の心拍の変化を評価することができる。このことにより、動画コンテンツを再生しているだけではなく、実際に動画コンテンツを視聴していると考えられる有効な応答データを集計することができる。   For example, when moving image content such as a movie or a drama is displayed on the display unit 20, the free space of the tag information included in the moving image data is synchronized with the moving image data of each frame in the moving image content. The biological information of the subject H detected for each frame is added. Then, the moving image content in which the biological information of the subject H is sequentially added is recorded in the recording unit 40 as response data. Thereby, the change in the heartbeat of the subject H when viewing the moving image content can be evaluated in association with the moving image content. For example, when the video content provider counts the audience rating of the video content, it extracts the heart rate information added to the tag information of each frame sequentially from the response data viewed by each subject, in order of time. The change in heart rate of each subject can be evaluated. In this way, it is possible not only to reproduce the moving image content but also to collect effective response data that is considered to be actually viewing the moving image content.

また、例えば、表示部20に、アンケートなどの設問コンテンツを表示している場合には、被験者Hがアンケートの設問に回答したタイミング、すなわち、マウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて被験者Hが回答のデータを入力したタイミングで、設問番号と回答のデータとを記録した応答データに、検出した被験者Hの生体情報を追加して記録部40に記録させる。これにより、設問コンテンツのそれぞれの設問に対して被験者Hが回答しているときの被験者Hの心拍の状態や変化を、設問コンテンツに対する応答データに対応付けて評価することができる。例えば、アンケートの実施者がアンケートの回答を集計する際に、それぞれの被験者が回答した応答データに追加された心拍の情報を設問毎に抽出することによって、それぞれの被験者が各設問に回答する際の心拍の状態や、設問の進行に伴う心拍の変化を評価することができる。このことにより、設問の内容に関心を持たずに安易に入力した回答ではなく、設問の内容に関心を持って入力した回答であると考えられる有効な応答データを集計することができる。   Further, for example, when question content such as a questionnaire is displayed on the display unit 20, the timing at which the subject H answers the questionnaire question, that is, using a pointing device such as a mouse or an input device such as a keyboard. At the timing when the test subject H inputs the answer data, the biometric information of the detected test subject H is added to the response data in which the question number and the answer data are recorded, and recorded in the recording unit 40. As a result, the state and change of the heartbeat of the subject H when the subject H answers each question of the question content can be evaluated in association with the response data for the question content. For example, when the survey organizer sums up the responses to the questionnaire, each subject answers each question by extracting the heart rate information added to the response data answered by each subject for each question. It is possible to evaluate the state of heartbeat and the change of heartbeat with the progress of questions. As a result, it is possible to aggregate effective response data that is considered to be answers that are input with interest in the contents of the questions, rather than answers that are input easily without being interested in the contents of the questions.

記録部40は、表示部20に表示するためのコンテンツのデータを記録する。また、記録部40は、心拍検出部30によって被験者Hの生体情報が関連付けられた応答データを記録する。   The recording unit 40 records content data to be displayed on the display unit 20. The recording unit 40 records response data in which the biological information of the subject H is associated by the heartbeat detecting unit 30.

このような構成によって、コンテンツ評価データ生成システム1では、表示部20にコンテンツを表示しているタイミングに同期した被験者Hの生体情報を、応答データに記録する。これにより、コンテンツ評価データ生成システム1では、被験者Hの反応を評価するために有効な応答データを取得することができる。   With this configuration, the content evaluation data generation system 1 records the biological information of the subject H synchronized with the timing at which the content is displayed on the display unit 20 in the response data. Thereby, in the content evaluation data generation system 1, it is possible to acquire effective response data for evaluating the reaction of the subject H.

次に、コンテンツ評価データ生成システム1に備えた心拍検出部30による心拍検出処理について説明する。心拍検出部30による心拍検出処理では、撮影部10が撮影した動画像における被験者Hの位置合わせの処理、すなわち、ブレ補正処理と、ブレ補正した後の動画像に基づいた被験者Hの心拍数の算出処理とを並行して行う。図2は、本第1の実施形態のコンテンツ評価データ生成システム1に備えた心拍検出部30における心拍検出処理の処理手順を示したフローチャートである。   Next, a heartbeat detection process by the heartbeat detection unit 30 provided in the content evaluation data generation system 1 will be described. In the heart rate detection process by the heart rate detection unit 30, the subject H's position adjustment process in the moving image captured by the imaging unit 10, that is, the shake correction process and the heart rate of the subject H based on the moving image after the shake correction are performed. The calculation process is performed in parallel. FIG. 2 is a flowchart showing a processing procedure of a heartbeat detection process in the heartbeat detection unit 30 provided in the content evaluation data generation system 1 of the first embodiment.

心拍検出部30は、制御部からの指示に応じて心拍検出処理を開始すると、まず、ブレ補正処理を開始する。ブレ補正処理では、ステップS1において、心拍検出部30は、撮影部10から入力されたRAWデータに対して画像処理を行い、動画像に含まれる被験者Hのブレを検出するためのブレ検出対象画像を作成する。ステップS1におけるブレ検出対象画像の作成では、フレームのRAWデータからビットマップデータを作成する。なお、心拍検出部30は、撮影部10からRAWデータが入力される毎、すなわち、撮影部10が撮影した動画のそれぞれのフレームの画像毎に、ブレ検出対象画像を作成する。   When the heartbeat detection unit 30 starts the heartbeat detection process in response to an instruction from the control unit, the heartbeat detection unit 30 first starts a shake correction process. In the shake correction process, in step S1, the heartbeat detection unit 30 performs image processing on the RAW data input from the imaging unit 10, and detects a shake detection target image for detecting the shake of the subject H included in the moving image. Create In creating the blur detection target image in step S1, bitmap data is created from the RAW data of the frame. The heartbeat detection unit 30 creates a shake detection target image every time RAW data is input from the imaging unit 10, that is, for each frame image of the moving image captured by the imaging unit 10.

続いて、ステップS2において、心拍検出部30は、作成した1つ目のフレームのブレ検出対象画像を基準とし、以降のフレームのブレ検出対象画像との間における被験者Hの位置の差から、被験者Hのブレを検出する。より具体的には、1つ目のフレームのブレ検出対象画像とn(n=2以上の自然数)個目のフレームのブレ検出対象画像とに基づいて、撮影部10が撮影した動画のフレームが、1つ目のフレームからn個目のフレームに変わったときのブレ量を検出する。なお、心拍検出部30によるブレ検出の処理方法は、例えば、デジタルビデオカメラなどにおいて一般的に用いられている、公知のブレ検出の技術を用いて行うことができるため、詳細な説明は省略する。   Subsequently, in step S2, the heartbeat detection unit 30 uses the created blur detection target image of the first frame as a reference, and determines the subject's position from the difference in the position of the subject H with respect to the blur detection target image of the subsequent frames. H blur is detected. More specifically, based on the blur detection target image of the first frame and the blur detection target image of the nth (n = 2 or more natural number) frame, the frame of the moving image shot by the shooting unit 10 is obtained. The amount of blur when the first frame is changed to the nth frame is detected. The blur detection processing method by the heartbeat detection unit 30 can be performed by using a known blur detection technique that is generally used in, for example, a digital video camera. .

続いて、ステップS3において、心拍検出部30は、ステップS2において検出したブレ量に基づいて、撮影部10から入力されたそれぞれのフレームのRAWデータに含まれる各画素のデータの位置合わせを行って、ブレを補正する。例えば、RAWデータに含まれるR、G、およびBの各色成分の画素のブレを、逆アフィン変換によって補正する。なお、心拍検出部30によるブレ補正の処理方法は、例えば、デジタルビデオカメラなどにおいて一般的に用いられている、公知のブレ補正の技術を用いて行うことができるため、詳細な説明は省略する。   Subsequently, in step S3, the heartbeat detection unit 30 aligns the data of each pixel included in the RAW data of each frame input from the imaging unit 10 based on the shake amount detected in step S2. Correct the blur. For example, blurring of pixels of R, G, and B color components included in the RAW data is corrected by inverse affine transformation. Note that the blur correction processing method by the heartbeat detection unit 30 can be performed by using a known blur correction technique that is generally used in, for example, a digital video camera, and thus detailed description thereof is omitted. .

ここまでの処理が、ブレ補正処理である。以降、心拍検出部30は、ステップS1〜ステップS3までのブレ補正処理を、撮影部10からそれぞれのフレームのRAWデータが入力される毎に、順次繰り返す。   The process so far is the blur correction process. Thereafter, the heartbeat detection unit 30 sequentially repeats the blur correction processing from step S1 to step S3 every time RAW data of each frame is input from the imaging unit 10.

そして、心拍検出部30は、1つ目のフレームのRAWデータに対するブレ補正処理が完了すると、続いて、心拍数の算出処理を開始する。心拍数の算出処理では、ステップS4において、心拍検出部30は、RAWデータデータから解析を行う領域(解析領域)ROIを設定(限定)する。ここでは、被験者Hの顔の領域を解析領域ROIに設定する。そして、心拍検出部30は、ブレ補正された1つ目のフレームのRAWデータに含まれる各画素のデータに基づいて、解析領域ROI、すなわち、被験者Hの顔領域の輝度信号を抽出する。ステップS4における輝度信号の抽出では、RAWデータの解析領域ROI内に含まれるR、G、およびBのそれぞれの色成分毎に、輝度信号の平均値を求める。   Then, when the blur correction process for the RAW data of the first frame is completed, the heart rate detection unit 30 subsequently starts a heart rate calculation process. In the heart rate calculation process, in step S4, the heart rate detection unit 30 sets (limits) an area (analysis area) ROI to be analyzed from the RAW data data. Here, the face area of the subject H is set as the analysis area ROI. Then, the heartbeat detecting unit 30 extracts the luminance signal of the analysis region ROI, that is, the face region of the subject H, based on the data of each pixel included in the RAW data of the first frame subjected to the shake correction. In the extraction of the luminance signal in step S4, the average value of the luminance signal is obtained for each of the R, G, and B color components included in the RAW data analysis region ROI.

これにより、撮影部10が撮影した動画のフレーム数分の長さの輝度信号の平均値を、それぞれの色成分毎に抽出することができる。ここで、解析領域ROIにおけるR、G、およびBのそれぞれの色成分毎の輝度信号の平均値を時間順に示すと、x1(t)、x2(t)、およびx3(t)とする。なお、tは撮影部10が撮影した動画のフレーム番号である。   Thereby, the average value of the luminance signal having a length corresponding to the number of frames of the moving image photographed by the photographing unit 10 can be extracted for each color component. Here, when the average values of the luminance signals for the respective color components of R, G, and B in the analysis region ROI are shown in time order, they are x1 (t), x2 (t), and x3 (t). Note that t is a frame number of a moving image shot by the shooting unit 10.

続いて、ステップS5において、心拍検出部30は、ステップS4において抽出したR、G、およびBのそれぞれの色成分毎の輝度信号の平均値を、正規化する。このとき、心拍検出部30は、R、G、およびBの輝度信号の平均値が0で分散が1となるな、正式化した後の輝度信号x’i(t)を、下式(1)を用いて正規化する。   Subsequently, in step S5, the heartbeat detecting unit 30 normalizes the average value of the luminance signal for each of the R, G, and B color components extracted in step S4. At this time, the heartbeat detection unit 30 calculates the normalized luminance signal x′i (t) with the following formula (1) so that the average value of the luminance signals of R, G, and B is 0 and the variance is 1. ) To normalize.

Figure 2014006639
Figure 2014006639

上式(1)において、iはそれぞれの色成分R、G、およびBを表し、1がR、2がG、3がBを表す。従って、xi(t)は各フレームのそれぞれの色成分毎の輝度信号の平均値を表す。また、μiは輝度信号の平均値xi(t)の全てのフレームの平均値を表し、σiは輝度信号の平均値xi(t)の全てのフレームの標準偏差を表す。   In the above formula (1), i represents each of the color components R, G, and B, 1 represents R, 2 represents G, and 3 represents B. Therefore, xi (t) represents the average value of the luminance signal for each color component of each frame. Μi represents the average value of all the frames of the average value xi (t) of the luminance signal, and σi represents the standard deviation of all the frames of the average value xi (t) of the luminance signal.

続いて、ステップS6において、心拍検出部30は、独立成分分析法を用いて、ステップS5において正式化した後のR、G、およびBの各輝度信号を、それぞれ独立成分に分解する。このとき、心拍検出部30は、輝度信号x’1(t)、x’2(t)、およびx’3(t)を、3つの独立成分s1(t)、s2(t)、およびs3(t)に分解する。   Subsequently, in step S6, the heartbeat detection unit 30 uses the independent component analysis method to decompose the R, G, and B luminance signals after formalization in step S5 into independent components. At this time, the heartbeat detection unit 30 converts the luminance signals x′1 (t), x′2 (t), and x′3 (t) into three independent components s1 (t), s2 (t), and s3. Decompose into (t).

ステップS6における独立成分分析では、心拍検出部30は、まず、下式(2)となる仮説を立てる。   In the independent component analysis in step S6, the heartbeat detection unit 30 first makes a hypothesis that is expressed by the following equation (2).

Figure 2014006639
Figure 2014006639

上式(2)において、Aは3×3のマトリクスを表し、Aのそれぞれの要素は、aij(i=1,2,3 j=1,2,3)である。また、x’(t)は全ての色成分の輝度信号を、s(t)は全ての色成分の独立成分を、それぞれ表し、下式(3)で表される。   In the above equation (2), A represents a 3 × 3 matrix, and each element of A is aij (i = 1, 2, 3 j = 1, 2, 3). Further, x ′ (t) represents luminance signals of all color components, and s (t) represents independent components of all color components, and is represented by the following expression (3).

Figure 2014006639
Figure 2014006639

しかし、上式(2)がそのまま成り立つマトリクスAは存在しない。そこで、心拍検出部30は、独立成分s(t)の評価値に近い評価値をs’(t)とし、マトリクスAの逆行列に近いマトリクスWを、独立成分分析法によって算出する。   However, there is no matrix A in which the above equation (2) holds as it is. Therefore, the heartbeat detecting unit 30 calculates an evaluation value close to the evaluation value of the independent component s (t) as s ′ (t) and calculates a matrix W close to the inverse matrix of the matrix A by the independent component analysis method.

Figure 2014006639
Figure 2014006639

続いて、ステップS7において、心拍検出部30は、ステップS6において算出した評価値s’(t)を、それぞれの色成分毎に高速フーリエ変換する。このとき、心拍検出部30は、R、G、およびBのそれぞれの色成分毎の評価値s’1(t)、s’2(t)、およびs’3(t)に対して高速フーリエ変換を行い、それぞれの色成分毎の周波数領域表現F(S1)、F(S2)、およびF(S3)を算出する。   Subsequently, in step S7, the heartbeat detection unit 30 performs a fast Fourier transform on the evaluation value s' (t) calculated in step S6 for each color component. At this time, the heartbeat detection unit 30 performs fast Fourier transform on the evaluation values s′1 (t), s′2 (t), and s′3 (t) for each of R, G, and B color components. Conversion is performed to calculate frequency domain representations F (S1), F (S2), and F (S3) for each color component.

続いて、ステップS8において、心拍検出部30は、ステップS7において算出した周波数領域表現FにおけるパワースペクトルPを求める。このとき、心拍検出部30は、R、G、およびBのそれぞれの色成分毎の周波数領域表現F(S1)、F(S2)、およびF(S3)におけるパワースペクトルP(S1)、P(S2)、およびP(S3)をそれぞれ求める。   Subsequently, in step S8, the heartbeat detecting unit 30 obtains the power spectrum P in the frequency domain expression F calculated in step S7. At this time, the heartbeat detecting unit 30 performs power spectrum P (S1), P (P S2) and P (S3) are obtained respectively.

続いて、ステップS9において、心拍検出部30は、ステップS8において求めたパワースペクトルPから、心拍の特徴がよく現れているパワースペクトルPを選択する。例えば、パワースペクトルP(S2)を選択する。   Subsequently, in step S9, the heartbeat detection unit 30 selects a power spectrum P in which the characteristics of the heartbeat often appear from the power spectrum P obtained in step S8. For example, the power spectrum P (S2) is selected.

続いて、ステップS10において、心拍検出部30は、ステップS9において選択したパワースペクトルPから心拍を表す周波数を抽出し、さらに、抽出した周波数に基づいて、心拍数を算出する。例えば、撮影部10の撮影フレームレートが60フレーム/秒の場合において、パワースペクトが0.75〜4の間の心拍周波数を抽出した場合には、45bpm〜240bpmの間の値を心拍数として算出する。   Subsequently, in step S10, the heartbeat detection unit 30 extracts a frequency representing the heartbeat from the power spectrum P selected in step S9, and further calculates a heart rate based on the extracted frequency. For example, when the imaging frame rate of the imaging unit 10 is 60 frames / second and a heart rate frequency with a power spectrum between 0.75 and 4 is extracted, a value between 45 bpm and 240 bpm is calculated as the heart rate. To do.

ここまでの処理が、心拍数の算出処理である。以降、心拍検出部30は、ステップS4〜ステップS10までの心拍数の算出処理を、撮影部10から入力されたフレームのRAWデータに対するブレ補正処理が完了する毎に、順次繰り返す。   The process so far is the heart rate calculation process. Thereafter, the heart rate detection unit 30 sequentially repeats the heart rate calculation process from step S4 to step S10 every time the blur correction process for the RAW data of the frame input from the imaging unit 10 is completed.

このように、コンテンツ評価データ生成システム1では、心拍検出部30が、撮影部10から入力されたフレームのRAWデータ毎に心拍検出処理を行って、被験者Hの心拍数をフレーム毎に検出する。これにより、コンテンツ評価データ生成システム1では、被験者Hに意識させることなく、コンテンツを視聴しているときの被験者Hの心拍数を検出することができる。このとき、コンテンツ評価データ生成システム1では、従来の技術のように、被験者Hの眼球の映像を正確に捉える必要がなく、すなわち、被験者Hがほぼ正面を向いている必要がなく、被験者Hの顔の領域を撮影部10が撮影することができれば、被験者Hがいずれの方向を向いている場合でも、被験者Hの心拍数を精度よく検出することができる。   As described above, in the content evaluation data generation system 1, the heartbeat detection unit 30 performs the heartbeat detection process for each RAW data of the frame input from the imaging unit 10, and detects the heart rate of the subject H for each frame. Thereby, the content evaluation data generation system 1 can detect the heart rate of the subject H when viewing the content without making the subject H aware of it. At this time, in the content evaluation data generation system 1, it is not necessary to accurately capture the image of the eyeball of the subject H as in the conventional technique, that is, the subject H does not have to face almost in front. If the photographing unit 10 can photograph the face area, the heart rate of the subject H can be detected with high accuracy regardless of the direction of the subject H.

また、コンテンツ評価データ生成システム1では、心拍検出部30が、検出した被験者Hの心拍数を生体情報として表示部20がコンテンツに関連付けた応答データを、コンテンツを表示しているタイミングに同期させて記録部40に記録させる。これにより、コンテンツ評価データ生成システム1では、被験者Hの反応を評価するための情報を含めた応答データを記録することができ、記録した応答データを集計すると、被験者Hの反応を反映したデータを集計することができる。   In the content evaluation data generation system 1, the heart rate detection unit 30 synchronizes the response data associated with the content by the display unit 20 using the detected heart rate of the subject H as biometric information in synchronization with the timing at which the content is displayed. Recording is performed by the recording unit 40. Thereby, in the content evaluation data generation system 1, the response data including the information for evaluating the response of the subject H can be recorded. When the recorded response data is aggregated, the data reflecting the response of the subject H is recorded. Can be aggregated.

なお、コンテンツ評価データ生成システム1において撮影部10は、被験者Hを撮影したそれぞれのフレームのRAWデータを心拍検出部30に出力する場合について説明した。しかし、例えば、撮影部10が何らかのガンマ補正を施した画像データを心拍検出部30に出力する場合もある。この場合には、図2に示したステップS4において、解析領域ROIを設定する前に、心拍検出部30が画像データに対して逆ガンマの補正を施すことによって、以降の心拍数の算出処理を、同様に行うことができる。   Note that, in the content evaluation data generation system 1, the case where the imaging unit 10 outputs RAW data of each frame obtained by imaging the subject H to the heart rate detection unit 30 has been described. However, for example, the image capturing unit 10 may output image data subjected to some gamma correction to the heartbeat detecting unit 30. In this case, in step S4 shown in FIG. 2, before setting the analysis region ROI, the heart rate detection unit 30 performs inverse gamma correction on the image data, thereby performing subsequent heart rate calculation processing. Can be done as well.

また、コンテンツ評価データ生成システム1では、記録部40に記録されたコンテンツのデータ、すなわち、同じデータを、表示部20と心拍検出部30とがそれぞれ読み出す場合について説明した。しかし、心拍検出部30に読み出されるコンテンツのデータは、表示部20に読み出されるコンテンツのデータと同じデータに限定されるものではなく、表示部20にコンテンツを表示しているタイミングを、心拍検出部30が認識することができるデータであれば、いかなるデータであってもよい。すなわち、心拍検出部30に読み出されるコンテンツのデータは、表示部20にコンテンツを表示しているタイミングと、心拍検出部30が被験者Hの心拍数を検出したタイミングとを同期させるためのデータであればよい。例えば、表示部20に動画コンテンツを表示する場合には、表示部20に表示している動画コンテンツの経過時間(表示時間)を、心拍検出部30が認識することができる時間のデータのみであってもよい。また、例えば、表示部20に設問コンテンツを表示する場合には、表示部20に表示している設問コンテンツの設問を、心拍検出部30が認識することができる設問番号のデータのみであってもよい。   In the content evaluation data generation system 1, the case where the display unit 20 and the heart rate detection unit 30 read the content data recorded in the recording unit 40, that is, the same data has been described. However, the content data read to the heart rate detection unit 30 is not limited to the same data as the content data read to the display unit 20, and the timing at which the content is displayed on the display unit 20 Any data may be used as long as the data can be recognized by 30. That is, the content data read to the heartbeat detection unit 30 is data for synchronizing the timing at which the content is displayed on the display unit 20 and the timing at which the heartbeat detection unit 30 detects the heart rate of the subject H. That's fine. For example, when moving image content is displayed on the display unit 20, only the time data that the heartbeat detection unit 30 can recognize the elapsed time (display time) of the moving image content displayed on the display unit 20. May be. Further, for example, when displaying the question content on the display unit 20, only the question number data that can be recognized by the heartbeat detection unit 30 can be the question of the question content displayed on the display unit 20. Good.

<第2の実施形態>
次に、第2の実施形態のコンテンツ評価データ生成システムについて説明する。図3は、本第2の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図3に示したコンテンツ評価データ生成システム2は、撮影部10と、表示部20と、心拍検出部30と、記録部40とから構成されるシステムである。なお、図3には、コンテンツ評価データ生成システム2における被験者Hも併せて示しているが、被験者Hは、本第2の実施形態のコンテンツ評価データ生成システム2を構成する要素ではない。
<Second Embodiment>
Next, a content evaluation data generation system according to the second embodiment will be described. FIG. 3 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the second embodiment. The content evaluation data generation system 2 illustrated in FIG. 3 is a system that includes an imaging unit 10, a display unit 20, a heartbeat detection unit 30, and a recording unit 40. In FIG. 3, the subject H in the content evaluation data generation system 2 is also shown, but the subject H is not an element constituting the content evaluation data generation system 2 of the second embodiment.

本第2の実施形態のコンテンツ評価データ生成システム2の構成要素は、第1の実施形態のコンテンツ評価データ生成システム1の構成要素と同様の構成要素である。ただし、本第2の実施形態のコンテンツ評価データ生成システム2においては、図3に示したように、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。従って、以下の説明においては、第1の実施形態のコンテンツ評価データ生成システム1と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素について説明する。なお、以下の説明においては、コンテンツが動画コンテンツである場合を例として説明する。   The components of the content evaluation data generation system 2 of the second embodiment are the same as the components of the content evaluation data generation system 1 of the first embodiment. However, in the content evaluation data generation system 2 of the second exemplary embodiment, as illustrated in FIG. 3, the recording unit 40 includes a data recording unit 41, a content storage unit 42, and a content server 100. The content storage unit 42 and the content server 100 are connected via the Internet 200. Accordingly, in the following description, the same components as those in the content evaluation data generation system 1 of the first embodiment are denoted by the same reference numerals and detailed description thereof is omitted, and different components are described. In the following description, the case where the content is moving image content will be described as an example.

コンテンツサーバ100は、ネットTV用コンテンツ、スマートフォン用コンテンツ、PC用コンテンツ、ネットゲーム用コンテンツなど、様々なコンテンツが収められているサーバであり、インターネット200を介して要求されたコンテンツを提供する。コンテンツ評価データ生成システム2においては、コンテンツサーバ100に、表示部20に表示する動画コンテンツにおけるそれぞれのフレームの動画データと、表示部20に表示している動画データの経過時間(表示時間)を心拍検出部30が認識するための時間のデータ(以下、「時間データ」という)とが収められている。そして、コンテンツサーバ100は、動画コンテンツのデータの読み出し要求に応じて、動画データおよび時間データを、コンテンツ記憶部42に出力する。   The content server 100 is a server that stores various content such as content for Internet TV, content for smartphone, content for PC, content for net game, and provides content requested via the Internet 200. In the content evaluation data generation system 2, the content server 100 uses the moving image data of each frame in the moving image content displayed on the display unit 20 and the elapsed time (display time) of the moving image data displayed on the display unit 20 as a heart rate. Time data (hereinafter referred to as “time data”) for the detection unit 30 to recognize is stored. Then, the content server 100 outputs the moving image data and the time data to the content storage unit 42 in response to a read request for moving image content data.

コンテンツ記憶部42は、不図示の制御部による制御に応じて、インターネット200を介してコンテンツサーバ100から取得したコンテンツのデータを、一時的に記憶する。コンテンツ評価データ生成システム2においては、コンテンツ記憶部42は、動画データと時間データとを、それぞれコンテンツサーバ100から取得して一時記憶する。そして、コンテンツ記憶部42は、表示部20から動画コンテンツのデータが読み出されると、一時記憶している動画データを出力する。また、コンテンツ記憶部42は、心拍検出部30から動画コンテンツのデータが読み出されると、一時記憶している時間データを出力する。   The content storage unit 42 temporarily stores content data acquired from the content server 100 via the Internet 200 in accordance with control by a control unit (not shown). In the content evaluation data generation system 2, the content storage unit 42 acquires moving image data and time data from the content server 100 and temporarily stores them. Then, when the moving image content data is read from the display unit 20, the content storage unit 42 outputs the temporarily stored moving image data. In addition, when the moving image content data is read from the heartbeat detection unit 30, the content storage unit 42 outputs temporally stored time data.

データ記録部41は、心拍検出部30によって、被験者Hの生体情報が関連付けられた時間データを、応答データとして記録する。   The data recording unit 41 records time data associated with the biological information of the subject H as response data by the heartbeat detection unit 30.

このような構成によって、コンテンツ評価データ生成システム2は、コンテンツサーバ100が被験者Hと離れた場所に配置されている場合でも、インターネット200を介して提供された動画コンテンツの動画データを表示部20に表示することができる。そして、コンテンツ評価データ生成システム2は、表示部20に動画データを表示しているタイミングを表す時間データに、被験者Hの生体情報を関連付けた応答データを記録する、すなわち、表示部20に動画データを表示しているタイミングに同期した被験者Hの心拍数を生体情報として応答データに記録することによって、被験者Hの反応を評価するために有効な応答データを取得することができる。   With such a configuration, the content evaluation data generation system 2 can display video data of video content provided via the Internet 200 on the display unit 20 even when the content server 100 is located at a location away from the subject H. Can be displayed. Then, the content evaluation data generation system 2 records the response data in which the biological information of the subject H is associated with the time data indicating the timing at which the moving image data is displayed on the display unit 20, that is, the moving image data is displayed on the display unit 20. By recording the heart rate of the subject H synchronized with the timing of displaying the response data as the biometric information in the response data, it is possible to acquire response data effective for evaluating the response of the subject H.

このように、コンテンツ評価データ生成システム2でも、第1の実施形態のコンテンツ評価データ生成システム1と同様に、心拍検出部30が心拍検出処理を行って検出した被験者Hの心拍数を、コンテンツを表示しているタイミングに同期させて記録部40(データ記録部41)に記録させる。これにより、コンテンツ評価データ生成システム2でも、被験者Hの反応を評価するために有効な応答データを取得することができる。   As described above, in the content evaluation data generation system 2 as well, as in the content evaluation data generation system 1 of the first embodiment, the heart rate of the subject H detected by the heart rate detection unit 30 performing the heart rate detection process is used as the content. The data is recorded in the recording unit 40 (data recording unit 41) in synchronization with the displayed timing. Thereby, the content evaluation data generation system 2 can also acquire response data effective for evaluating the reaction of the subject H.

なお、コンテンツ評価データ生成システム2においては、インターネット200を介してコンテンツサーバ100から取得した動画データと時間データとをコンテンツ記憶部42に一時記憶し、コンテンツ記憶部42から表示部20および心拍検出部30に動画データまたは時間データを出力する場合について説明した。しかし、表示部20および心拍検出部30に動画データまたは時間データを出力する方法は、上述した例に限定されるものではない。例えば、表示部20が、動画データをコンテンツサーバ100からインターネット200を介して直接取得する構成であってもよい。この場合、コンテンツ記憶部42は、インターネット200を介してコンテンツサーバ100から取得した時間データのみを一時的に記憶して、心拍検出部30に出力する構成になる。   In the content evaluation data generation system 2, the moving image data and time data acquired from the content server 100 via the Internet 200 are temporarily stored in the content storage unit 42, and the display unit 20 and the heart rate detection unit are transferred from the content storage unit 42. The case where moving image data or time data is output to 30 has been described. However, the method of outputting moving image data or time data to the display unit 20 and the heart rate detection unit 30 is not limited to the above-described example. For example, the display unit 20 may directly acquire moving image data from the content server 100 via the Internet 200. In this case, the content storage unit 42 is configured to temporarily store only the time data acquired from the content server 100 via the Internet 200 and output it to the heartbeat detection unit 30.

また、コンテンツ評価データ生成システム2においては、心拍検出部30が、被験者Hの心拍数が関連付けられた時間データを、応答データとしてデータ記録部41に記録する場合について説明した。しかし、被験者Hの心拍数が関連付けられた応答データをデータ記録部41に記録する方法は、上述した例に限定されるものではない。例えば、心拍検出部30が、検出した被験者Hの心拍数のみをデータ記録部41に出力する構成であってもよい。この場合、コンテンツ記憶部42は、一時記憶している時間データをデータ記録部41に出力し、データ記録部41は、不図示の制御部による制御に応じて、心拍検出部30から入力された被験者Hの心拍数と、コンテンツ記憶部42から入力された時間データとを関連付けて、応答データとして記録する構成になる。   In the content evaluation data generation system 2, the case has been described in which the heart rate detection unit 30 records time data associated with the heart rate of the subject H in the data recording unit 41 as response data. However, the method of recording the response data associated with the heart rate of the subject H in the data recording unit 41 is not limited to the above-described example. For example, the configuration may be such that the heart rate detection unit 30 outputs only the detected heart rate of the subject H to the data recording unit 41. In this case, the content storage unit 42 outputs the temporarily stored time data to the data recording unit 41, and the data recording unit 41 is input from the heartbeat detection unit 30 in accordance with control by a control unit (not shown). The heart rate of the subject H and the time data input from the content storage unit 42 are associated and recorded as response data.

また、コンテンツ評価データ生成システム2では、時間データに検出した被験者Hの心拍数を関連付けた応答データを記録部40(データ記録部41)に記録する場合について説明した。しかし、記録部40に記録する応答データに関連付けるデータは、被験者Hの心拍数のみに限定されるものではなく、被験者Hの反応を評価するために有効な情報であれば、いかなる情報であってもよい。例えば、表示部20に表示するコンテンツに対して事前に評価を行い、評価結果から想定される被験者の反応を表した心拍数の指標を予めコンテンツに記録しておき、この指標と検出した被験者Hの心拍数と比較することによって、応答データに関連付けられている被験者Hの心拍の情報の有効性を評価した結果を応答データに関連付けて記録してもよい。   In the content evaluation data generation system 2, the case has been described where response data in which the heart rate of the subject H detected in the time data is associated is recorded in the recording unit 40 (data recording unit 41). However, the data associated with the response data recorded in the recording unit 40 is not limited to the heart rate of the subject H, and any information that is effective for evaluating the response of the subject H is any information. Also good. For example, the content displayed on the display unit 20 is evaluated in advance, and a heart rate index representing the response of the subject assumed from the evaluation result is recorded in the content in advance, and this index and the detected subject H The result of evaluating the validity of the heart rate information of the subject H associated with the response data by comparing with the heart rate may be recorded in association with the response data.

<第3の実施形態>
次に、第3の実施形態のコンテンツ評価データ生成システムについて説明する。図4は、本第3の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図4には、検出した生体情報の有効性を評価した結果を応答データに関連付けて記録するコンテンツ評価データ生成システムにおける基本的な構成の一例を示している。図4に示したコンテンツ評価データ生成システム3は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、評価部50とから構成されるシステムである。なお、図4には、コンテンツ評価データ生成システム3における被験者Hも併せて示しているが、被験者Hは、本第3の実施形態のコンテンツ評価データ生成システム3を構成する要素ではない。
<Third Embodiment>
Next, a content evaluation data generation system according to the third embodiment will be described. FIG. 4 is a block diagram showing an example of a schematic configuration of the content evaluation data generation system in the third embodiment. FIG. 4 shows an example of a basic configuration in a content evaluation data generation system that records the result of evaluating the effectiveness of detected biological information in association with response data. The content evaluation data generation system 3 shown in FIG. 4 is a system that includes an imaging unit 10, a display unit 20, a heartbeat detection unit 30, a recording unit 40, and an evaluation unit 50. In FIG. 4, the subject H in the content evaluation data generation system 3 is also shown, but the subject H is not an element constituting the content evaluation data generation system 3 of the third embodiment.

本第3の実施形態のコンテンツ評価データ生成システム3は、第1の実施形態のコンテンツ評価データ生成システム1に、評価部50が追加された構成である。その他の構成要素は、第1の実施形態のコンテンツ評価データ生成システム1の構成要素と同様である。従って、以下の説明においては、第1の実施形態のコンテンツ評価データ生成システム1と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。なお、以下の説明においては、コンテンツが設問コンテンツである場合を例として説明する。   The content evaluation data generation system 3 according to the third embodiment has a configuration in which an evaluation unit 50 is added to the content evaluation data generation system 1 according to the first embodiment. Other components are the same as the components of the content evaluation data generation system 1 of the first embodiment. Accordingly, in the following description, the same components as those in the content evaluation data generation system 1 of the first embodiment are denoted by the same reference numerals and detailed description thereof is omitted, and different components and operations will be described. . In the following description, a case where the content is question content will be described as an example.

表示部20は、不図示の制御部による制御に応じて設問コンテンツの表示を開始すると、設問コンテンツの設問のデータ(以下、「設問データ」)を、1問ずつ記録部40から読み出して、順次表示する。   When the display unit 20 starts displaying the question content in response to control by a control unit (not shown), the question content data (hereinafter, “question data”) is read from the recording unit 40 one by one and sequentially. indicate.

撮影部10は、不図示の制御部による制御に応じて、表示部20に表示された設問コンテンツの設問に回答する回答者である被験者Hの顔の領域の動画像を撮影し、撮影した被験者Hのそれぞれのフレームの画像データ(RAWデータ)を、心拍検出部30に順次出力する。   The imaging unit 10 shoots a moving image of the face area of the subject H who is an answerer who answers the question of the question content displayed on the display unit 20 according to control by a control unit (not shown). The image data (RAW data) of each frame of H is sequentially output to the heartbeat detecting unit 30.

心拍検出部30は、不図示の制御部による制御に応じて心拍検出処理を開始すると、表示部20に表示している設問データの設問番号を認識するためのデータ(以下、「設問番号データ」)を、記録部40から読み出す。そして、心拍検出部30は、被験者Hが不図示のマウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて設問に対する回答のデータを入力したタイミングで検出した被験者Hの心拍数を、読み出した設問番号データに関連付けて、評価部50に出力する。   When the heartbeat detection unit 30 starts heartbeat detection processing in accordance with control by a control unit (not shown), data for recognizing the question number of the question data displayed on the display unit 20 (hereinafter referred to as “question number data”). ) Is read from the recording unit 40. Then, the heart rate detecting unit 30 reads out the heart rate of the subject H detected at the timing when the subject H inputs the answer data to the question using a pointing device such as a mouse (not shown) or an input device such as a keyboard. The data is output to the evaluation unit 50 in association with the number data.

記録部40は、設問データおよび設問番号データが記録されている。また、記録部40には、設問コンテンツの提供者がそれぞれの設問毎に事前に想定した被験者の心拍数が、指標データとして記録されている。   The recording unit 40 records question data and question number data. In addition, in the recording unit 40, the heart rate of the subject assumed in advance for each question by the question content provider is recorded as index data.

評価部50は、不図示の制御部による制御に応じて、心拍検出部30が検出した被験者Hの心拍数の有効性を評価する。評価部50による有効性の評価は、心拍検出部30から入力された被験者Hの心拍数が関連付けられた設問番号データと、記録部40から読み出した指標データとを比較することによって行われる。そして、評価部50は、心拍検出部30から入力された設問番号データに、有効性を評価した結果を反映した新たな設問番号データを、応答データとして、記録部40に出力し記録させる。   The evaluation unit 50 evaluates the effectiveness of the heart rate of the subject H detected by the heart rate detection unit 30 according to control by a control unit (not shown). The evaluation of the effectiveness by the evaluation unit 50 is performed by comparing the question number data associated with the heart rate of the subject H input from the heart rate detection unit 30 with the index data read from the recording unit 40. And the evaluation part 50 outputs the new question number data which reflected the result of having evaluated effectiveness to the question number data input from the heartbeat detection part 30, and outputs it to the recording part 40 as response data, and records it.

より具体的には、指標データには、設問コンテンツの提供者によって予め設定された、被験者が設問に回答する際に想定される心拍数の値が含まれている。評価部50は、心拍検出部30から入力された設問番号データに含まれるそれぞれの設問を回答したときの心拍数の値と、指標データに含まれる対応する設問において想定される心拍数の値とを比較する。そして、評価部50は、設問番号データに含まれる心拍数の値と、指標データに含まれる心拍数の値との差が、予め定めた範囲内であるときに、この設問に関して検出した被験者Hの心拍数が有効であると判定する。逆に、それぞれの心拍数の値の差が予め定めた範囲外であるとき、この設問に関して検出した被験者Hの心拍数が無効であると判定する。その後、評価部50は、心拍数が有効であるか否かを表す情報、つまり、検出した被験者Hの心拍の情報の有効性を評価した結果を、被験者Hの心拍数が関連付けられた設問番号データに追加し、応答データとして記録部40に出力する。なお、評価部50は、有効性の評価結果として、例えば、関連付けられている心拍数が有効であるか否かを表すフラグを、設問毎に追加する。   More specifically, the index data includes a heart rate value assumed when the subject answers the question, which is preset by the question content provider. The evaluation unit 50 has a heart rate value when each question included in the question number data input from the heart rate detection unit 30 is answered, and a heart rate value assumed in the corresponding question included in the index data. Compare Then, the evaluation unit 50 detects the subject H detected for the question when the difference between the heart rate value included in the question number data and the heart rate value included in the index data is within a predetermined range. Determine that your heart rate is valid. Conversely, when the difference between the values of the respective heart rates is outside the predetermined range, it is determined that the heart rate of the subject H detected with respect to this question is invalid. Thereafter, the evaluation unit 50 evaluates the validity of the information indicating whether or not the heart rate is valid, that is, the detected heart rate information of the subject H, and the question number associated with the heart rate of the subject H. It adds to data and outputs to the recording part 40 as response data. In addition, the evaluation part 50 adds the flag showing whether the associated heart rate is effective as an evaluation result of effectiveness for every question, for example.

記録部40は、評価部50によって被験者Hの心拍の情報の有効性を評価した結果が追加された応答データを記録する。   The recording unit 40 records the response data to which the result of evaluating the validity of the heart rate information of the subject H by the evaluation unit 50 is added.

このような構成によって、コンテンツ評価データ生成システム3では、第1の実施形態のコンテンツ評価データ生成システム1、および第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20に表示しているコンテンツに対応した被験者Hの心拍数を検出する。そして、コンテンツ評価データ生成システム3では、表示部20に表示しているコンテンツに対して予め想定された指標に基づいて、検出した被験者Hの心拍数の有効性を評価し、その評価結果を応答データに記録する。これにより、コンテンツ評価データ生成システム3では、被験者Hの反応を評価するための応答データを補正して、さらに有効な応答データを取得することができる。このことにより、例えば、アンケートの実施者がアンケートの回答を集計する際に、被験者Hが入力したそれぞれの設問に対する回答の内、設問の内容に関心を持って入力した回答であると考えられる有効な応答データのみを集計することができる。   With such a configuration, the content evaluation data generation system 3 displays the content evaluation data on the display unit 20 in the same manner as the content evaluation data generation system 1 of the first embodiment and the content evaluation data generation system 2 of the second embodiment. The heart rate of the subject H corresponding to the content being read is detected. Then, the content evaluation data generation system 3 evaluates the effectiveness of the detected heart rate of the subject H based on an index assumed in advance for the content displayed on the display unit 20, and returns the evaluation result as a response. Record in data. Thereby, in the content evaluation data generation system 3, the response data for evaluating the reaction of the subject H can be corrected, and more effective response data can be acquired. Thus, for example, when the questionnaire implementer sums up the answers to the questionnaire, among the answers to each question entered by the subject H, it is effective that the answer is entered with an interest in the contents of the question. Only response data can be aggregated.

なお、コンテンツ評価データ生成システム3においては、検出した生体情報の有効性を評価する評価部50を追加した構成のコンテンツ評価データ生成システムにおける基本的な構成について説明したが、評価部50は、様々な構成のコンテンツ評価データ生成システムにおいて、同様に検出した生体情報の有効性を評価することができる。   In the content evaluation data generation system 3, the basic configuration in the content evaluation data generation system having the configuration in which the evaluation unit 50 that evaluates the effectiveness of the detected biological information is added has been described. In the content evaluation data generation system having a simple configuration, the effectiveness of the detected biological information can be evaluated in the same manner.

<第4の実施形態>
次に、第4の実施形態のコンテンツ評価データ生成システムについて説明する。図5は、本第4の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図5に示したコンテンツ評価データ生成システム4は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、評価部50とから構成されるシステムである。なお、図5には、コンテンツ評価データ生成システム4における被験者Hも併せて示しているが、被験者Hは、本第4の実施形態のコンテンツ評価データ生成システム4を構成する要素ではない。
<Fourth Embodiment>
Next, a content evaluation data generation system according to the fourth embodiment will be described. FIG. 5 is a block diagram showing an example of a schematic configuration of a content evaluation data generation system according to the fourth embodiment. The content evaluation data generation system 4 illustrated in FIG. 5 is a system including an imaging unit 10, a display unit 20, a heartbeat detection unit 30, a recording unit 40, and an evaluation unit 50. In FIG. 5, the subject H in the content evaluation data generation system 4 is also shown, but the subject H is not an element constituting the content evaluation data generation system 4 of the fourth embodiment.

本第4の実施形態のコンテンツ評価データ生成システム4の構成要素は、第3の実施形態のコンテンツ評価データ生成システム3の構成要素と同様の構成要素である。また、本第4の実施形態のコンテンツ評価データ生成システム4においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。従って、以下の説明においては、第3の実施形態のコンテンツ評価データ生成システム3、および第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。なお、以下の説明においては、コンテンツが動画コンテンツである場合を例として説明する。   The components of the content evaluation data generation system 4 of the fourth embodiment are the same as the components of the content evaluation data generation system 3 of the third embodiment. In the content evaluation data generation system 4 of the fourth embodiment, the recording unit 40 includes a data recording unit 41 and the content evaluation data generation system 2 of the second embodiment shown in FIG. The content storage unit 42 and the content server 100 are configured such that the content storage unit 42 and the content server 100 are connected via the Internet 200. Therefore, in the following description, the same components as those in the content evaluation data generation system 3 of the third embodiment and the content evaluation data generation system 2 of the second embodiment are denoted by the same reference numerals and detailed. Detailed description will be omitted, and different components and operations will be described. In the following description, the case where the content is moving image content will be described as an example.

コンテンツサーバ100には、動画データと時間データとに加えて、指標データが記録されている。この指標データは、動画コンテンツの提供者が動画データのシーンに対する被験者の反応を事前に評価し、その評価結果に基づいて想定した被験者の心拍数が、動画データの経過時間(表示時間)に対応して記録されたデータである。コンテンツサーバ100は、動画コンテンツのデータの読み出し要求に応じて、動画データ、時間データ、および指標データを、インターネット200を介してコンテンツ記憶部42に出力する。   In the content server 100, index data is recorded in addition to moving image data and time data. In this index data, the video content provider evaluates the subject's reaction to the scene of the video data in advance, and the heart rate of the subject assumed based on the evaluation result corresponds to the elapsed time (display time) of the video data The data recorded as The content server 100 outputs moving image data, time data, and index data to the content storage unit 42 via the Internet 200 in response to a read request for moving image content data.

コンテンツ記憶部42は、不図示の制御部による制御に応じて、動画データ、時間データ、および指標データのそれぞれを、インターネット200を介してコンテンツサーバ100から取得して一時記憶する。そして、コンテンツ記憶部42は、表示部20からの動画コンテンツの読み出しに応じて、一時記憶している動画データを出力し、心拍検出部30からの動画コンテンツの読み出しに応じて、一時記憶している時間データを心拍検出部30に、指標データをデータ記録部41に、それぞれ出力する。   The content storage unit 42 obtains each of the moving image data, the time data, and the index data from the content server 100 via the Internet 200 and temporarily stores them according to control by a control unit (not shown). Then, the content storage unit 42 outputs the temporarily stored moving image data according to the reading of the moving image content from the display unit 20, and temporarily stores it according to the reading of the moving image content from the heartbeat detection unit 30. Time data is output to the heartbeat detection unit 30 and index data is output to the data recording unit 41.

心拍検出部30は、不図示の制御部による制御に応じて心拍検出処理を開始すると、表示部20に表示している動画データに同期したタイミングで検出した被験者Hの心拍数を、コンテンツ記憶部42から読み出した時間データに関連付けて、データ記録部41に出力し記録させる。   When the heart rate detection unit 30 starts the heart rate detection process in response to control by a control unit (not shown), the heart rate of the subject H detected at a timing synchronized with the moving image data displayed on the display unit 20 is stored in the content storage unit. In association with the time data read from 42, the data is recorded and output to the data recording unit 41.

データ記録部41は、心拍検出部30によって、被験者Hの心拍の情報が関連付けられた時間データを記録する。また、データ記録部41は、コンテンツ記憶部42から出力された指標データを記録する。   The data recording unit 41 records time data associated with the heart rate information of the subject H by the heart rate detecting unit 30. The data recording unit 41 records the index data output from the content storage unit 42.

評価部50は、不図示の制御部による制御に応じて、データ記録部41に記憶されている心拍検出部30によって被験者Hの心拍数が関連付けられた時間データと、指標データとを比較することによって心拍検出部30が検出した被験者Hの心拍数の有効性を評価する。そして、評価部50は、データ記録部41から読み出したら時間データに、有効性を評価した結果を反映した新たな時間データを、応答データとして再びデータ記録部41に出力し記録させる。   The evaluation unit 50 compares the time data associated with the heart rate of the subject H with the heart rate detection unit 30 stored in the data recording unit 41 and the index data in accordance with control by a control unit (not shown). The effectiveness of the heart rate of the subject H detected by the heart rate detection unit 30 is evaluated. Then, when the data is read from the data recording unit 41, the evaluation unit 50 outputs new time data reflecting the result of evaluating the validity to the time data as response data to the data recording unit 41 for recording again.

なお、評価部50における被験者Hの心拍数の有効性の評価方法は、第3の実施形態のコンテンツ評価データ生成システム3における評価部50における被験者Hの心拍数の有効性の評価方法と同様に考えることができるため、詳細な説明は省略する。   In addition, the evaluation method of the effectiveness of the heart rate of the subject H in the evaluation unit 50 is the same as the evaluation method of the effectiveness of the heart rate of the subject H in the evaluation unit 50 in the content evaluation data generation system 3 of the third embodiment. Detailed explanation is omitted because it can be considered.

データ記録部41は、評価部50によって被験者Hの心拍の情報の有効性を評価した結果が追加された応答データを記録する。   The data recording unit 41 records the response data to which the result obtained by evaluating the effectiveness of the heart rate information of the subject H by the evaluation unit 50 is added.

このような構成によって、コンテンツ評価データ生成システム4では、第3の実施形態のコンテンツ評価データ生成システム3と同様に、表示部20に表示しているコンテンツに対応して検出した被験者Hの心拍数と、その心拍数の有効性を評価した評価結果とを応答データに記録する。これにより、コンテンツ評価データ生成システム4でも、第3の実施形態のコンテンツ評価データ生成システム3と同様に、被験者Hの反応を評価するための応答データを補正して、さらに有効な応答データを取得することができる。このことにより、例えば、動画コンテンツの提供者が動画コンテンツの視聴率を集計する際に、それぞれの被験者の心拍の変化において、実際に動画コンテンツを視聴していると考えられる有効な期間の応答データのみを集計することができる。より具体的には、例えば、動画コンテンツが刺激的なコンテンツである期間は、指標データの心拍数が高い値になっているが、応答データに関連付けられている被験者の心拍の変化が全くなかったり、変化の割合が少なかったりする場合には、被験者が動画コンテンツを再生しているだけで視聴していないと判断することができる。なお、この判断をする場合には、対象の期間において指標データの心拍数が最も高い値になっている期間から、予め定めた期間内で被験者の心拍の変化のズレを考慮して判断することが望ましい。そして、この期間の評価を視聴率の集計に含めないようにすることによって、より正確な視聴率の集計結果を得ることができる。   With such a configuration, in the content evaluation data generation system 4, the heart rate of the subject H detected corresponding to the content displayed on the display unit 20, as in the content evaluation data generation system 3 of the third embodiment. And the evaluation result of evaluating the effectiveness of the heart rate are recorded in the response data. Thereby, also in the content evaluation data generation system 4, as in the content evaluation data generation system 3 of the third embodiment, the response data for evaluating the response of the subject H is corrected and more effective response data is acquired. can do. Thus, for example, when the provider of the video content aggregates the audience rating of the video content, response data for an effective period in which it is considered that the video content is actually viewed in each subject's heart rate change Can only be counted. More specifically, for example, during the period when the moving image content is stimulating content, the heart rate of the index data is high, but there is no change in the heart rate of the subject associated with the response data. When the rate of change is small, it can be determined that the subject is only playing the video content and is not viewing it. When making this determination, it should be determined from the period in which the heart rate of the index data is the highest value in the target period, taking into account the deviation of the subject's heart rate change within a predetermined period. Is desirable. Then, by not including the evaluation of this period in the audience rating tabulation, a more accurate audience rating tabulation result can be obtained.

なお、コンテンツ評価データ生成システム4においては、第2の実施形態のコンテンツ評価データ生成システム2と同様に、インターネット200を介してコンテンツサーバ100から取得した動画データと、時間データと、指標データとをコンテンツ記憶部42に一時記憶し、コンテンツ記憶部42から表示部20、心拍検出部30、およびデータ記録部41に動画データ、時間データ、または指標データを出力する場合について説明した。しかし、第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20、心拍検出部30、およびデータ記録部41にそれぞれのデータを出力する方法は、上述した例に限定されるものではない。例えば、第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20が、動画データをコンテンツサーバ100からインターネット200を介して直接取得する構成であってもよい。   Note that, in the content evaluation data generation system 4, as in the content evaluation data generation system 2 of the second embodiment, moving image data, time data, and index data acquired from the content server 100 via the Internet 200 are used. A case has been described in which the content data is temporarily stored in the content storage unit 42 and moving image data, time data, or index data is output from the content storage unit 42 to the display unit 20, the heart rate detection unit 30, and the data recording unit 41. However, as with the content evaluation data generation system 2 of the second embodiment, the method for outputting the respective data to the display unit 20, the heartbeat detection unit 30, and the data recording unit 41 is limited to the above-described example. is not. For example, as in the content evaluation data generation system 2 of the second embodiment, the display unit 20 may directly acquire moving image data from the content server 100 via the Internet 200.

また、コンテンツ評価データ生成システム4においては、被験者Hの心拍数を関連付けた時間データと、指標データとをデータ記録部41に記録し、評価部50が、データ記録部41に記録されている時間データと指標データとに基づいて被験者Hの心拍数の有効性を評価する場合について説明した。しかし、評価部50が被験者Hの心拍数の有効性を評価するためのそれぞれのデータを取得する方法は、上述した例に限定されるものではない。例えば、心拍検出部30が被験者Hの心拍数を関連付けた時間データを直接評価部50に出力し、さらに、評価部50が指標データをコンテンツサーバ100からインターネット200を介して直接取得して、被験者Hの心拍数の有効性を評価する構成であってもよい。また、例えば、評価部50が、インターネット200を介して直接、コンテンツサーバ100などに応答データを出力する構成であってもよい。   In the content evaluation data generation system 4, the time data associated with the heart rate of the subject H and the index data are recorded in the data recording unit 41, and the time when the evaluation unit 50 is recorded in the data recording unit 41. The case where the effectiveness of the heart rate of the subject H is evaluated based on the data and the index data has been described. However, the method by which the evaluation unit 50 acquires each data for evaluating the effectiveness of the heart rate of the subject H is not limited to the above-described example. For example, the heart rate detection unit 30 directly outputs time data associated with the heart rate of the subject H to the evaluation unit 50, and the evaluation unit 50 directly acquires index data from the content server 100 via the Internet 200, The structure which evaluates the effectiveness of the heart rate of H may be sufficient. Further, for example, the evaluation unit 50 may output response data directly to the content server 100 or the like via the Internet 200.

<第5の実施形態>
次に、第5の実施形態のコンテンツ評価データ生成システムについて説明する。図6は、本第5の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図6に示したコンテンツ評価データ生成システム5は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、被験者状態検出部60とから構成されるシステムである。また、本第5の実施形態のコンテンツ評価データ生成システム5においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。なお、図6には、コンテンツ評価データ生成システム5における被験者Hも併せて示しているが、被験者Hは、本第5の実施形態のコンテンツ評価データ生成システム5を構成する要素ではない。
<Fifth Embodiment>
Next, a content evaluation data generation system according to a fifth embodiment will be described. FIG. 6 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the fifth embodiment. The content evaluation data generation system 5 illustrated in FIG. 6 is a system including a photographing unit 10, a display unit 20, a heartbeat detection unit 30, a recording unit 40, and a subject state detection unit 60. In the content evaluation data generation system 5 of the fifth embodiment, the recording unit 40 includes a data recording unit 41 and the content evaluation data generation system 2 of the second embodiment shown in FIG. The content storage unit 42 and the content server 100 are configured such that the content storage unit 42 and the content server 100 are connected via the Internet 200. FIG. 6 also shows the subject H in the content evaluation data generation system 5, but the subject H is not an element constituting the content evaluation data generation system 5 of the fifth embodiment.

本第5の実施形態のコンテンツ評価データ生成システム5は、図3に示した第2の実施形態のコンテンツ評価データ生成システム2に、被験者状態検出部60が追加された構成である。その他の構成要素は、第2の実施形態のコンテンツ評価データ生成システム2の構成要素と同様である。従って、以下の説明においては、第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。   The content evaluation data generation system 5 of the fifth embodiment has a configuration in which a subject state detection unit 60 is added to the content evaluation data generation system 2 of the second embodiment shown in FIG. Other components are the same as those of the content evaluation data generation system 2 of the second embodiment. Accordingly, in the following description, the same components as those in the content evaluation data generation system 2 of the second embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and different components and operations will be described. .

被験者状態検出部60は、撮影部10から出力されたRAWデータに対して画像処理を行い、動画像に含まれる被験者Hの顔の向きを検出する。そして、被験者状態検出部60は、検出した被験者Hの顔の向きの情報を、心拍検出部30に出力する。なお、被験者状態検出部60による被験者Hの顔の向きの検出方法は、例えば、デジタルスチルカメラやデジタルビデオカメラなどにおいて一般的に用いられている、公知の顔検出の技術を用いて行うことができるため、詳細な説明は省略する。   The subject state detection unit 60 performs image processing on the RAW data output from the imaging unit 10 to detect the orientation of the face of the subject H included in the moving image. Then, the subject state detection unit 60 outputs information on the detected face orientation of the subject H to the heartbeat detection unit 30. Note that the method of detecting the orientation of the face of the subject H by the subject state detection unit 60 is performed using a known face detection technique that is generally used in, for example, a digital still camera or a digital video camera. Since it can do, detailed description is abbreviate | omitted.

心拍検出部30は、被験者状態検出部60から入力された被験者Hの顔の向きの情報に応じて、心拍検出処理を行う際に解析を行うRAWデータデータの領域を変更する。より具体的には、心拍検出部30は、図2に示した心拍検出処理のフローチャートのステップS4において解析領域ROIを設定する際に、被験者状態検出部60から入力された被験者Hの顔の向きの情報に基づいて設定する。例えば、被験者状態検出部60から入力された被験者Hの顔の向きの情報が、撮影部10に対して正面を向いていることを表している場合には、被験者Hの顔の領域内の「額」を含む部分を解析領域ROIとする。また、例えば、被験者状態検出部60から入力された被験者Hの顔の向きの情報が、撮影部10に対して横方向を向いている、すなわち、撮影部10が撮影した被験者Hの顔が側面であることを表している場合には、被験者Hの顔の領域内の「こめかみ」を含む部分を解析領域ROIとする。   The heartbeat detection unit 30 changes the region of the RAW data data to be analyzed when performing the heartbeat detection process according to the information on the face orientation of the subject H input from the subject state detection unit 60. More specifically, the heartbeat detection unit 30 determines the orientation of the face of the subject H input from the subject state detection unit 60 when setting the analysis region ROI in step S4 of the flowchart of the heartbeat detection process shown in FIG. Set based on the information. For example, when the information on the orientation of the face of the subject H input from the subject state detection unit 60 indicates that the face of the subject H is facing the front with respect to the imaging unit 10, “ A portion including “Forehead” is set as an analysis region ROI. Further, for example, the information on the face orientation of the subject H input from the subject state detection unit 60 is in the lateral direction with respect to the photographing unit 10, that is, the face of the subject H photographed by the photographing unit 10 is the side surface. In this case, the part including “Komekami” in the face area of the subject H is set as the analysis area ROI.

このような構成によって、コンテンツ評価データ生成システム5では、被験者Hが表示部20に表示しているコンテンツを視聴しているときの顔の向きを考慮して、被験者Hの心拍数を算出する。これにより、コンテンツ評価データ生成システム5では、より高い精度で被験者Hの心拍の情報を検出、すなわち、心拍数を算出することができる。つまり、コンテンツ評価データ生成システム5では、撮影部10が撮影したRAWデータに被験者Hの顔の領域が含まれていれば、従来の技術において被験者Hの眼球の映像を正確に捉えるために、被験者Hがほぼ正面を向いている必要がなく、被験者Hがいずれの方向を向いている場合でも、被験者Hの心拍数を精度よく検出することができる。   With such a configuration, the content evaluation data generation system 5 calculates the heart rate of the subject H in consideration of the orientation of the face when the subject H is viewing the content displayed on the display unit 20. Thereby, the content evaluation data generation system 5 can detect the heart rate information of the subject H with higher accuracy, that is, calculate the heart rate. That is, in the content evaluation data generation system 5, if the RAW data captured by the imaging unit 10 includes the face area of the subject H, the subject can accurately capture the image of the eyeball of the subject H in the conventional technique. It is not necessary for H to be substantially facing the front, and the heart rate of the subject H can be detected with high accuracy even when the subject H is facing in any direction.

なお、コンテンツ評価データ生成システム5においては、被験者状態検出部60が検出した被験者Hの顔の向きの情報を心拍検出部30に出力し、心拍検出部30が解析領域ROIを設定する場合について説明した。しかし、解析領域ROIを設定する方法は、上述した例に限定されるものではない。例えば、被験者状態検出部60が、検出した被験者Hの顔の向きに基づいて解析領域ROIを決定し、決定した解析領域ROIを心拍検出部30に設定する構成であってもよい。この場合、心拍検出部30は、設定された解析領域ROIで心拍検出処理を行うことになる。   Note that the content evaluation data generation system 5 outputs information about the face orientation of the subject H detected by the subject state detection unit 60 to the heartbeat detection unit 30 and the heartbeat detection unit 30 sets the analysis region ROI. did. However, the method for setting the analysis region ROI is not limited to the above-described example. For example, the subject state detection unit 60 may determine the analysis region ROI based on the detected face orientation of the subject H, and set the determined analysis region ROI in the heartbeat detection unit 30. In this case, the heartbeat detection unit 30 performs the heartbeat detection process with the set analysis region ROI.

<第6の実施形態>
次に、第6の実施形態のコンテンツ評価データ生成システムについて説明する。図7は、本第6の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図7に示したコンテンツ評価データ生成システム6は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、照明状態取得部70とから構成されるシステムである。また、本第6の実施形態のコンテンツ評価データ生成システム6においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。なお、図7には、コンテンツ評価データ生成システム6における被験者Hも併せて示しているが、被験者Hは、本第6の実施形態のコンテンツ評価データ生成システム6を構成する要素ではない。
<Sixth Embodiment>
Next, a content evaluation data generation system according to the sixth embodiment will be described. FIG. 7 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the sixth embodiment. The content evaluation data generation system 6 illustrated in FIG. 7 is a system including an imaging unit 10, a display unit 20, a heartbeat detection unit 30, a recording unit 40, and an illumination state acquisition unit 70. Further, in the content evaluation data generation system 6 of the sixth embodiment, as in the content evaluation data generation system 2 of the second embodiment shown in FIG. The content storage unit 42 and the content server 100 are configured such that the content storage unit 42 and the content server 100 are connected via the Internet 200. FIG. 7 also shows the subject H in the content evaluation data generation system 6, but the subject H is not an element constituting the content evaluation data generation system 6 of the sixth embodiment.

本第6の実施形態のコンテンツ評価データ生成システム6は、図3に示した第2の実施形態のコンテンツ評価データ生成システム2に、照明状態取得部70が追加された構成である。その他の構成要素は、第2の実施形態のコンテンツ評価データ生成システム2の構成要素と同様である。従って、以下の説明においては、第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。   The content evaluation data generation system 6 of the sixth embodiment has a configuration in which an illumination state acquisition unit 70 is added to the content evaluation data generation system 2 of the second embodiment shown in FIG. Other components are the same as those of the content evaluation data generation system 2 of the second embodiment. Accordingly, in the following description, the same components as those in the content evaluation data generation system 2 of the second embodiment are denoted by the same reference numerals, detailed description thereof is omitted, and different components and operations will be described. .

照明状態取得部70は、被験者Hがコンテンツを視聴している環境の明るさと、表示部20に表示するコンテンツの明るさや色を検出する。そして、照明状態取得部70は、検出した環境の明るさの情報およびコンテンツの明るさや色の情報を、心拍検出部30に出力する。より具体的には、照明状態取得部70は、不図示の制御部による制御に応じて、被験者Hがコンテンツを視聴する環境の明るさを逐次検出する。また、照明状態取得部70は、不図示の制御部による制御に応じて、表示部20に表示するコンテンツのデータを、インターネット200を介してコンテンツサーバ100から取得し、現在の環境(明るさ)でコンテンツを視聴した際に、被験者Hの顔に反射する表示部20に表示されたコンテンツの明るさや色、または明るさや色の変化を逐次検出する。そして、照明状態取得部70は、検出したコンテンツの明るさや色の情報と、環境の明るさの情報とを、心拍検出部30に逐次出力する。   The illumination state acquisition unit 70 detects the brightness of the environment where the subject H is viewing the content, and the brightness and color of the content displayed on the display unit 20. Then, the illumination state acquisition unit 70 outputs the detected information on the brightness of the environment and the information on the brightness and color of the content to the heartbeat detection unit 30. More specifically, the illumination state acquisition unit 70 sequentially detects the brightness of the environment where the subject H views the content in accordance with control by a control unit (not shown). In addition, the illumination state acquisition unit 70 acquires content data to be displayed on the display unit 20 from the content server 100 via the Internet 200 in accordance with control by a control unit (not shown), and the current environment (brightness). When the content is viewed, the brightness and color of the content displayed on the display unit 20 reflected on the face of the subject H, or changes in brightness and color are sequentially detected. Then, the illumination state acquisition unit 70 sequentially outputs the detected content brightness and color information and environmental brightness information to the heartbeat detection unit 30.

心拍検出部30は、照明状態取得部70から入力されたコンテンツの明るさや色の情報と環境の明るさの情報とに応じて、撮影部10から入力されたそれぞれのフレームのRAWデータを補正する。より具体的には、心拍検出部30は、コンテンツの明るさや色を抑制(低減)するように、それぞれのフレームのRAWデータを逐次補正する。これにより、例えば、夜など、コンテンツを視聴している周辺の照明環境が暗い場合に、被験者Hの顔に当たる照明が表示部20に表示しているコンテンツの明るさや色の変化によって大きく影響された、心拍検出処理の妨げとなるRAWデータ内の各画素の成分を、事前に抑制することができる。そして、心拍検出部30は、補正した後のRAWデータに基づいて心拍検出処理を行う。   The heartbeat detection unit 30 corrects the RAW data of each frame input from the imaging unit 10 according to the brightness and color information of the content input from the illumination state acquisition unit 70 and the brightness information of the environment. . More specifically, the heartbeat detection unit 30 sequentially corrects the RAW data of each frame so as to suppress (reduce) the brightness and color of the content. Thereby, for example, when the surrounding lighting environment where the content is viewed is dark, such as at night, the illumination that hits the face of the subject H is greatly influenced by changes in the brightness and color of the content displayed on the display unit 20. The component of each pixel in the RAW data that hinders heartbeat detection processing can be suppressed in advance. Then, the heartbeat detection unit 30 performs a heartbeat detection process based on the corrected RAW data.

このような構成によって、コンテンツ評価データ生成システム6では、被験者Hが表示部20に表示しているコンテンツを視聴しているときに顔に反射しているコンテンツの明るさや色を抑制した状態で、被験者Hの心拍数を算出する。これにより、コンテンツ評価データ生成システム6では、より高い精度で被験者Hの心拍の情報を検出、すなわち、心拍数を算出することができる。   With such a configuration, the content evaluation data generation system 6 suppresses the brightness and color of the content reflected on the face when the subject H is viewing the content displayed on the display unit 20. The heart rate of subject H is calculated. Thereby, the content evaluation data generation system 6 can detect the heart rate information of the subject H with higher accuracy, that is, calculate the heart rate.

なお、コンテンツ評価データ生成システム6においては、照明状態取得部70が、表示部20に表示するコンテンツのデータ、すなわち、同じデータから、コンテンツの明るさや色を検出する場合について説明した。しかし、照明状態取得部70がコンテンツの明るさや色を検出するデータは、表示部20に表示するコンテンツのデータと同じデータに限定されるものではなく、表示部20にコンテンツを表示するコンテンツの明るさや色を認識することができるデータであれば、いかなるデータであってもよい。例えば、表示部20に表示するコンテンツのデータとは別に準備されたコンテンツの明るさや色を表すデータであってもよい。   In the content evaluation data generation system 6, the case where the illumination state acquisition unit 70 detects the brightness and color of content from the content data displayed on the display unit 20, that is, the same data has been described. However, the data that the illumination state acquisition unit 70 detects the brightness and color of the content is not limited to the same data as the content data displayed on the display unit 20, and the brightness of the content that displays the content on the display unit 20. Any data may be used as long as it can recognize the sheath color. For example, data representing the brightness and color of content prepared separately from the content data displayed on the display unit 20 may be used.

また、コンテンツ評価データ生成システム6においては、照明状態取得部70が、表示部20に表示するコンテンツのデータを、インターネット200を介してコンテンツサーバ100から直接取得する場合について説明した。しかし、照明状態取得部70がコンテンツのデータを取得する方法は、上述した例に限定されるものではない。例えば、コンテンツ記憶部42に一時記憶しているコンテンツのデータを、照明状態取得部70が読み出す構成であってもよい。   In the content evaluation data generation system 6, the case has been described in which the illumination state acquisition unit 70 directly acquires content data to be displayed on the display unit 20 from the content server 100 via the Internet 200. However, the method by which the illumination state acquisition unit 70 acquires content data is not limited to the above-described example. For example, the illumination state acquisition unit 70 may read the content data temporarily stored in the content storage unit 42.

上記に述べたとおり、本発明を実施するための形態によれば、心拍検出部30が、撮影部10から入力されたフレーム毎のRAWデータに基づいて、表示部20にコンテンツを表示しているタイミングに同期した被験者Hの生体情報(心拍の情報:心拍数)を検出する。そして、検出した生体情報を、コンテンツに関連付けて応答データに記録する。これにより、本発明を実施するための形態では、コンテンツを視聴している被験者Hの反応を評価するために有効な応答データを、被験者Hに意識させずに、より精度よく取得することができる。そして、応答データに関連付けられている被験者Hの生体情報(心拍の情報:心拍数)の変化を評価することによって、被験者Hの反応をより正確に評価することができる。また、本発明を実施するための形態では、生体情報(心拍の情報:心拍数)を検出する際に、従来の技術のような被験者Hの顔の向きに関する制約がなく、コンテンツ評価データ生成システムを用いることができる実用範囲が広い。   As described above, according to the embodiment for carrying out the present invention, the heartbeat detection unit 30 displays content on the display unit 20 based on the RAW data for each frame input from the imaging unit 10. The biological information (heart rate information: heart rate) of the subject H synchronized with the timing is detected. The detected biological information is recorded in response data in association with the content. Thereby, in the form for implementing this invention, the response data effective in evaluating the reaction of the test subject H who is viewing the content can be acquired more accurately without making the test subject H aware of it. . Then, by evaluating the change in the biological information (heart rate information: heart rate) of the subject H associated with the response data, the response of the subject H can be more accurately evaluated. Moreover, in the form for implementing this invention, when detecting biometric information (heart rate information: heart rate), there is no restriction regarding the orientation of the face of the subject H as in the prior art, and the content evaluation data generation system Can be used in a wide range of practical use.

なお、本実施形態においては、それぞれのコンテンツのデータ(実施形態においては、動画コンテンツにおける動画データや、設問コンテンツにおける設問データ)と、それに付随するデータ(実施形態においては、動画コンテンツにおける時間データや、設問コンテンツにおける設問番号データや、指標データ)がそれぞれ別のデータである場合について説明した。しかし、それぞれのデータの形式は、本発明を実施するための形態に限定されるものではなく、コンテンツのデータに付随するデータを含んだ形式であってもよい。   In the present embodiment, data of each content (in the embodiment, moving image data in the moving image content and question data in the question content) and accompanying data (in the embodiment, time data in the moving image content, In the above description, the question number data and the index data in the question content are different data. However, the format of each data is not limited to the mode for carrying out the present invention, and may be a format including data accompanying the content data.

また、本実施形態においては、撮影部10、表示部20、および心拍検出部30と、記録部40の全てまたは一部とが、被験者Hがコンテンツを視聴している位置に配置された場合について説明した。しかし、コンテンツ評価データ生成システム内の各構成要素の配置は、本発明を実施するための形態に限定されるものではない。例えば、撮影部10、表示部20、および心拍検出部30のみが被験者Hがコンテンツを視聴している位置に配置され、記録部40の全てが異なる位置に配置されて、インターネット200を介して接続される構成であってもよい。また、例えば、撮影部10および表示部20以外の全ての構成要素が、インターネット200を介して接続される別の位置に配置される構成であってもよい。   Moreover, in this embodiment, about the case where the imaging | photography part 10, the display part 20, the heart rate detection part 30, and all or one part of the recording part 40 are arrange | positioned in the position where the test subject H is viewing the content. explained. However, the arrangement of each component in the content evaluation data generation system is not limited to the form for carrying out the present invention. For example, only the photographing unit 10, the display unit 20, and the heart rate detection unit 30 are arranged at a position where the subject H is viewing content, and all of the recording units 40 are arranged at different positions and connected via the Internet 200. It may be configured. In addition, for example, a configuration in which all the components other than the imaging unit 10 and the display unit 20 are arranged at other positions connected via the Internet 200 may be employed.

また、本実施形態においては、評価部50、被験者状態検出部60、または照明状態取得部70のいずれか1つの構成要素をコンテンツ評価データ生成システムに備えた構成について説明した。コンテンツ評価データ生成システム内に備える構成要素は、本発明を実施するための形態に限定されるものではない。例えば、評価部50、被験者状態検出部60、および照明状態取得部70のいずれか1つの構成要素、または全ての構成要素をコンテンツ評価データ生成システムに備えた構成にすることもできる。   Moreover, in this embodiment, the structure provided with any one component of the evaluation part 50, the test subject state detection part 60, or the illumination state acquisition part 70 in the content evaluation data generation system was demonstrated. The components provided in the content evaluation data generation system are not limited to the mode for carrying out the present invention. For example, the content evaluation data generation system may be configured to include any one component or all the components of the evaluation unit 50, the subject state detection unit 60, and the illumination state acquisition unit 70.

また、本実施形態においては、心拍検出部30がハードウェアで構成されているように説明したが、心拍検出部30の機能を実現する手段は、本発明を実施するための形態に限定されるものではない。例えば、心拍検出部30の機能を、コンピュータプログラムなどによってソフトウェア的に実現することもできる。この場合、心拍検出部30は、ハードウェア的には、コンピュータのCPUやメモリをはじめとする素子で実現することが考えられる。   Moreover, in this embodiment, although demonstrated that the heart-rate detection part 30 was comprised with the hardware, the means to implement | achieve the function of the heart-rate detection part 30 is limited to the form for implementing this invention. It is not a thing. For example, the function of the heartbeat detecting unit 30 can be realized by software by a computer program or the like. In this case, it is conceivable that the heartbeat detection unit 30 is realized by hardware such as a CPU and a memory of a computer.

その際には、心拍検出部30やコンテンツ評価データ生成システムによる処理を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体(記録デバイス)に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、心拍検出部30やコンテンツ評価データ生成システムに係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   In that case, a program for realizing processing by the heartbeat detection unit 30 or the content evaluation data generation system is recorded on a computer-readable recording medium (recording device), and the program recorded on the recording medium is recorded on the computer. The above-described various processes related to the heartbeat detection unit 30 and the content evaluation data generation system may be performed by being read and executed by the system. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。   The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.

1,2,3,4,5,6・・・コンテンツ評価データ生成システム
10・・・撮影部
20・・・表示部
30・・・心拍検出部(検出部)
40・・・記録部
41・・・データ記録部(記録部)
42・・・コンテンツ記憶部(記録部)
50・・・評価部
60・・・被験者状態検出部(状態検出部)
70・・・照明状態取得部(状態取得部)
100・・・コンテンツサーバ(記録部)
200・・・インターネット
1, 2, 3, 4, 5, 6 ... content evaluation data generation system 10 ... photographing unit 20 ... display unit 30 ... heart rate detection unit (detection unit)
40: Recording unit 41: Data recording unit (recording unit)
42 ... Content storage unit (recording unit)
50: Evaluation unit 60: Subject state detection unit (state detection unit)
70: Illumination state acquisition unit (state acquisition unit)
100: Content server (recording unit)
200 ... Internet

Claims (11)

コンテンツを表示する表示部と、
前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、
前記撮影画像に基づいて前記被験者の生体情報を検出する検出部と、
前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、
を備えることを特徴とするコンテンツ評価データ生成システム。
A display for displaying content;
An imaging unit that images a subject who is browsing the content displayed on the display unit, and outputs a captured image of the imaged subject.
A detection unit that detects biological information of the subject based on the captured image;
A recording unit that records the biometric information data detected by the detection unit in association with the content that the subject was browsing when the biometric information was detected, or data indicating the content;
A content evaluation data generation system comprising:
前記検出部は、
前記撮影画像に基づいて、前記被験者の心拍を検出する領域を限定し、該限定された領域の前記撮影画像から前記被験者の心拍を、前記生体情報として検出する、
ことを特徴とする請求項1に記載のコンテンツ評価データ生成システム。
The detector is
Based on the captured image, the region for detecting the heartbeat of the subject is limited, and the heartbeat of the subject is detected as the biological information from the captured image in the limited region.
The content evaluation data generation system according to claim 1, wherein:
前記撮影画像に基づいて前記被験者の状態を検出する状態検出部、
をさらに備え、
前記検出部は、
前記状態検出部によって検出された前記被験者の状態に基づいて、前記心拍を検出する領域を限定する、
ことを特徴とする請求項2に記載のコンテンツ評価データ生成システム。
A state detector that detects the state of the subject based on the captured image;
Further comprising
The detector is
Based on the state of the subject detected by the state detection unit, the region for detecting the heartbeat is limited.
The content evaluation data generation system according to claim 2, wherein:
前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得する状態取得部、
をさらに備え、
前記検出部は、
前記状態取得部が取得した前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、
ことを特徴とする請求項2または請求項3に記載のコンテンツ評価データ生成システム。
A state acquisition unit for acquiring a display state of the display unit when the subject is browsing the content;
Further comprising
The detector is
Correcting the captured image based on the display change of the display acquired by the state acquisition unit, and detecting the heartbeat of the subject based on the corrected captured image;
The content evaluation data generation system according to claim 2 or claim 3, wherein
前記検出部は、
前記撮影画像に現れた前記表示部の表示の変化を抑制するように、前記撮影画像を補正する
ことを特徴とする請求項4に記載のコンテンツ評価データ生成システム。
The detector is
The content evaluation data generation system according to claim 4, wherein the captured image is corrected so as to suppress a change in display of the display unit that has appeared in the captured image.
前記検出部が、前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価する評価部、
をさらに備える、
ことを特徴とする請求項2から請求項5のいずれか1の項に記載のコンテンツ評価データ生成システム。
The detection unit evaluates the effectiveness of the subject's heartbeat detected by the detection unit based on the content viewed by the subject when the heartbeat of the subject is detected or data indicating the content. Evaluation department,
Further comprising
The content evaluation data generation system according to any one of claims 2 to 5, wherein the content evaluation data generation system according to any one of claims 2 to 5 is provided.
前記記録部は、
前記評価部が前記被験者の心拍の有効性を評価した結果を表す情報を、前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータと対応付けて記録する、
ことを特徴とする請求項6に記載のコンテンツ評価データ生成システム。
The recording unit is
The evaluation unit records information indicating the result of evaluating the effectiveness of the heartbeat of the subject in association with the content that the subject was browsing, or data indicating the content,
The content evaluation data generation system according to claim 6.
前記検出部は、
前記被験者の心拍を検出する領域を、前記被験者の顔の領域に限定する、
ことを特徴とする請求項2から請求項7のいずれか1の項に記載のコンテンツ評価データ生成システム。
The detector is
Limiting the region for detecting the heartbeat of the subject to the region of the subject's face,
The content evaluation data generation system according to any one of claims 2 to 7, wherein the content evaluation data generation system according to any one of claims 2 to 7 is provided.
前記状態検出部は、
前記被験者の状態として、前記被験者の顔の向きを検出する、
ことを特徴とする請求項3から請求項8のいずれか1の項に記載のコンテンツ評価データ生成システム。
The state detection unit
Detecting the orientation of the subject's face as the state of the subject;
The content evaluation data generation system according to any one of claims 3 to 8, wherein the content evaluation data generation system according to any one of claims 3 to 8 is provided.
表示部にコンテンツを表示させる表示ステップと、
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、
検出部に前記撮影画像に基づいて前記被験者の生体情報を検出させる検出ステップと、
記憶部に前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、
を含むことを特徴とするコンテンツ評価データ生成方法。
A display step of displaying content on the display unit;
A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
A detection step of causing the detection unit to detect biological information of the subject based on the captured image;
A recording step of causing the storage unit to record the biometric data detected by the detection unit in association with the content that the subject was browsing when the biometric information was detected, or data indicating the content; ,
The content evaluation data generation method characterized by including.
表示部にコンテンツを表示させる表示ステップと、
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、
検出部に前記撮影画像に基づいて前記被験者の生体情報を検出させる検出ステップと、
記憶部に前記検出部によって検出された生体情報のデータと、前記生体情報を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A display step of displaying content on the display unit;
A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
A detection step of causing the detection unit to detect biological information of the subject based on the captured image;
A recording step of causing the storage unit to record the biometric data detected by the detection unit in association with the content that the subject was browsing when the biometric information was detected, or data indicating the content; ,
A program that causes a computer to execute.
JP2012140797A 2012-06-22 2012-06-22 Content evaluation data generation system, content evaluation data generation method, and program Expired - Fee Related JP5941764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012140797A JP5941764B2 (en) 2012-06-22 2012-06-22 Content evaluation data generation system, content evaluation data generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012140797A JP5941764B2 (en) 2012-06-22 2012-06-22 Content evaluation data generation system, content evaluation data generation method, and program

Publications (2)

Publication Number Publication Date
JP2014006639A true JP2014006639A (en) 2014-01-16
JP5941764B2 JP5941764B2 (en) 2016-06-29

Family

ID=50104314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012140797A Expired - Fee Related JP5941764B2 (en) 2012-06-22 2012-06-22 Content evaluation data generation system, content evaluation data generation method, and program

Country Status (1)

Country Link
JP (1) JP5941764B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067055A (en) * 2017-09-29 2019-04-25 日本電気株式会社 Terminal device, retrieval device, analyzer, estimation device, system, and operation method and program of terminal device
KR20220118767A (en) * 2021-02-19 2022-08-26 상명대학교산학협력단 Method and system for evaluation of advertising effect based on similarity of micro movement
WO2023188698A1 (en) * 2022-03-31 2023-10-05 株式会社島津製作所 Evaluation method, evaluation device, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016095A (en) * 2001-06-28 2003-01-17 Sony Corp Apparatus for information processing, method therefor, network system, recording medium and program
JP2005218507A (en) * 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
WO2007135796A1 (en) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. Control device for evaluating user response to content
JP2011130996A (en) * 2009-12-25 2011-07-07 Denso Corp Biological activity measuring apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003016095A (en) * 2001-06-28 2003-01-17 Sony Corp Apparatus for information processing, method therefor, network system, recording medium and program
JP2005218507A (en) * 2004-02-03 2005-08-18 Tama Tlo Kk Method and apparatus for measuring vital sign
WO2007135796A1 (en) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. Control device for evaluating user response to content
JP2011130996A (en) * 2009-12-25 2011-07-07 Denso Corp Biological activity measuring apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067055A (en) * 2017-09-29 2019-04-25 日本電気株式会社 Terminal device, retrieval device, analyzer, estimation device, system, and operation method and program of terminal device
KR20220118767A (en) * 2021-02-19 2022-08-26 상명대학교산학협력단 Method and system for evaluation of advertising effect based on similarity of micro movement
US11798026B2 (en) 2021-02-19 2023-10-24 Sangmyung University Industry-Academy Cooperation Foundation Method for evaluating advertising effects of video content and system for applying the same
KR102595838B1 (en) * 2021-02-19 2023-10-30 상명대학교산학협력단 Method and system for evaluation of advertising effect based on similarity of micro movement
WO2023188698A1 (en) * 2022-03-31 2023-10-05 株式会社島津製作所 Evaluation method, evaluation device, and program

Also Published As

Publication number Publication date
JP5941764B2 (en) 2016-06-29

Similar Documents

Publication Publication Date Title
CN105453133B (en) Image processing apparatus and method, eye fundus image processing unit, image capturing method and eye fundus image filming apparatus and method
JP2007265125A (en) Content display
AU2015315156A1 (en) Systems and methods for liveness analysis
US8009204B2 (en) Image capturing apparatus, image capturing method, image processing apparatus, image processing method and computer-readable medium
WO2018219293A1 (en) Information terminal
JP2006319870A (en) Photographic device, method and program
KR20090088325A (en) Image processing apparatus, image processing method and imaging apparatus
KR20190088478A (en) Engagement measurement system
WO2014169655A1 (en) Shooting method and apparatus
US20180242898A1 (en) Viewing state detection device, viewing state detection system and viewing state detection method
CN113691721B (en) Method, device, computer equipment and medium for synthesizing time-lapse photographic video
JP2014221172A (en) Pulse wave detection device, pulse wave detection program, pulse wave detection method and content evaluation system
CN111639702A (en) Multimedia data analysis method, equipment, server and readable storage medium
CN106973285A (en) Camera device and flicker detection method
Nemoto et al. Ultra-Eye: UHD and HD images eye tracking dataset
JP5941764B2 (en) Content evaluation data generation system, content evaluation data generation method, and program
WO2019193781A1 (en) Emotion inference device, emotion inference method, and program
Lévêque et al. CUID: A new study of perceived image quality and its subjective assessment
CN103039068A (en) Image processing device and image processing program
JP2009089126A5 (en)
CN111382646B (en) Living body identification method, storage medium and terminal equipment
JP5272797B2 (en) Digital camera
Siivonen et al. Open framework for error-compensated gaze data collection with eye tracking glasses
JP2013118574A (en) Imaging apparatus
Egorova et al. Methodology of Researching Perception Identity of Regions of Users' Interests While Viewing Streaming Video Containing Various Content and Compression Artefacts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R151 Written notification of patent or utility model registration

Ref document number: 5941764

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees