JP5941764B2 - Content evaluation data generation system, content evaluation data generation method, and program - Google Patents
Content evaluation data generation system, content evaluation data generation method, and program Download PDFInfo
- Publication number
- JP5941764B2 JP5941764B2 JP2012140797A JP2012140797A JP5941764B2 JP 5941764 B2 JP5941764 B2 JP 5941764B2 JP 2012140797 A JP2012140797 A JP 2012140797A JP 2012140797 A JP2012140797 A JP 2012140797A JP 5941764 B2 JP5941764 B2 JP 5941764B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- subject
- unit
- heartbeat
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011156 evaluation Methods 0.000 title claims description 207
- 238000000034 method Methods 0.000 title claims description 67
- 238000001514 detection method Methods 0.000 claims description 184
- 238000003384 imaging method Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 description 76
- 238000005286 illumination Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 13
- 238000012937 correction Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000001228 spectrum Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000001360 synchronised effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000012880 independent component analysis Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000006461 physiological response Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、アンケートに対する被験者の回答や、コンテンツに対する被験者の応答を評価し補正するための情報を取得するコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムに関し、より詳細には、アンケートに答えている被験者の状況、またはコンテンツを視聴している被験者の状況をカメラで撮影し、映像に基づいて測定した被験者の生理反応の測定結果と被験者の状況とを関連づけた、被験者による回答や応答を補正するための情報を取得する技術に関する。 The present invention relates to a content evaluation data generation system, a content evaluation data generation method, and a program for acquiring information for evaluating and correcting a subject's response to a questionnaire and a subject's response to content. Subject's answer or response by correlating the measurement result of the subject's physiological response with the subject's situation measured by the camera by shooting the situation of the subject who is answering or watching the content. The present invention relates to a technique for acquiring information for correcting the error.
近年、インターネットに接続されているパソコン、TV、またはタブレットを利用したオンラインアンケート調査や、コンテンツ視聴における効果の測定が広く普及している。このような調査や効果の測定は、インターネットに接続される機器の増加に伴って、ますます多用されていくものと考えられる。 In recent years, online questionnaire surveys using personal computers, TVs, or tablets connected to the Internet, and measurement of effects on content viewing have become widespread. Such surveys and measurement of effects are considered to be increasingly used as the number of devices connected to the Internet increases.
従来、アンケート調査、テスト問題、またはゲームなどにおける対話型システムでは、マウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて被験者が入力したデータを、被験者の応答データとして取得していた。しかし、被験者が、提示されたアンケートやコンテンツの内容に関心を持たずに安易に入力したデータが取得した応答データに含まれていると、提示したアンケートやコンテンツに対する被験者の応答を集計した全体の結果の信頼性を下げてしまうことになる。 Conventionally, in interactive systems such as questionnaire surveys, test questions, or games, data input by a subject using a pointing device such as a mouse or an input device such as a keyboard is obtained as response data of the subject. However, if the data included in the response data that the subject entered easily without being interested in the content of the presented questionnaire or content is included in the acquired response data, This will reduce the reliability of the results.
このため、取得した応答データから、安易に入力したデータを選別することが必要となるが、被験者が入力したデータを選別する手段はなく、被験者が安易に入力したデータと信用できるデータとを選別すること、すなわち、有効な応答データのみを抽出することは非常に困難である。仮に、応答データを選別したとしても、選別した応答データが有効なデータであるか否かの最終的な判断は、心理学の専門家などによる精細な評価が必要である。 For this reason, it is necessary to select easily input data from the acquired response data, but there is no means for selecting the data input by the subject, and the data easily input by the subject and the reliable data are selected. That is, it is very difficult to extract only valid response data. Even if the response data is selected, the final judgment as to whether the selected response data is valid data requires a detailed evaluation by a psychological expert or the like.
また、従来から、有効な応答データのみを抽出した評価を行うために、被験者にセンサやマーカなどを装着し、被験者の生理反応を測定する方法が用いられている。しかし、この方法の場合、測定する環境の雰囲気や被験者の状況が通常と異なるため、緊張感などの特定の意識を被験者に抱かせてしまう。このため、逆に取得した応答データの信頼性が損なわれたり、被験者に測定への参加を拒否されたりするおそれがある。これでは、通常の被験者の状況を反映した応答データを取得しているとは言い難い。 Conventionally, in order to perform evaluation by extracting only valid response data, a method in which a subject is equipped with a sensor, a marker, or the like and the physiological reaction of the subject is measured has been used. However, in this method, since the atmosphere of the environment to be measured and the situation of the subject are different from usual, the subject is given specific consciousness such as tension. For this reason, the reliability of the acquired response data may be impaired, or the subject may be refused to participate in the measurement. In this case, it is difficult to say that response data reflecting the condition of a normal subject is acquired.
このような問題を解決するための技術として、例えば、特許文献1のように、コンテンツに対する被験者の応答を測定する際に、応答データと連動して被験者の眼球運動を測定して解析する技術が開示されている。特許文献1で開示された技術を用いることによって、通常の被験者の状況を反映したコンテンツ視聴の評価を行うことができ、被験者の応答データの有効性を判定することができる。
As a technique for solving such a problem, for example, as in
しかしながら、特許文献1で開示された技術では、被験者の眼球運動を有効に測定するために、カメラによって被験者の眼球の映像を正確に捉えることが必要である。また、近年では、テレビやパソコンなど、生活のなかで同時に複数のコンテンツを視聴することが一般的になってきている。このため、被験者が複数のコンテンツを視聴している場合には、被験者の眼球運動を測定することが難しくなり、コンテンツ視聴の評価における有効な応答データを精度よく取得することができない。このことにより、提示したコンテンツに対する視聴評価や解析も困難になってしまう。従って、特許文献1で開示された技術を用いることができる実用範囲は、非常に狭い範囲に限定されてしまうことになる。
However, in the technique disclosed in
本発明は、上記の課題認識に基づいてなされたものであり、被験者に意識させずに、コンテンツを視聴(閲覧)している被験者の反応を評価するための情報を、より精度よく取得することができるコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムを提供することを目的としている。 The present invention has been made based on the above problem recognition, and more accurately obtains information for evaluating the reaction of a subject who is viewing (browsing) content without making the subject aware of it. An object of the present invention is to provide a content evaluation data generation system, a content evaluation data generation method, and a program.
上記の課題を解決するため、本発明のコンテンツ評価データ生成システムは、コンテンツを表示する表示部と、前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、前記撮影画像に基づいて前記被験者の心拍を検出する検出部と、前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得する状態取得部と、を備え、前記検出部は、前記状態取得部が取得した前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、ことを特徴とする。
また、本発明のコンテンツ評価データ生成システムは、コンテンツを表示する表示部と、前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、前記撮影画像に基づいて前記被験者の心拍を検出する検出部と、前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、前記検出部が、前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価する評価部と、を備えることを特徴とする。
In order to solve the above problem, the content evaluation data generation system of the present invention photographs a subject viewing the content displayed on the display unit and the display unit displaying the content, and the photographed subject an imaging unit for outputting a captured image, a detection unit for detecting a heartbeat of the subject based on the captured image, and heart data detected by the detecting unit, wherein the subject is viewed upon detecting the heartbeat The content that has been recorded, or data indicating the content, and a state acquisition unit that acquires a display state of the display unit when the subject is browsing the content; wherein the detection unit, the captured image is corrected based on the change in display of the display unit in which the state acquisition unit has acquired, based on the corrected captured image Detecting the heartbeat of the subject, and wherein the.
Moreover, the content evaluation data generation system of this invention image | photographs the test subject who is browsing the said content displayed on the display part and the said display part which display a content, and outputs the picked-up image of the said test subject An imaging unit, a detection unit that detects the heartbeat of the subject based on the captured image, heartbeat data detected by the detection unit, and the content that the subject was browsing when the heartbeat was detected, Or a recording unit that records data indicating the content in association with each other, and the detection unit is based on the content viewed by the subject when the subject's heartbeat is detected, or data indicating the content And an evaluation unit that evaluates the effectiveness of the heartbeat of the subject detected by the detection unit.
また、本発明のコンテンツ評価データ生成方法は、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、状態取得部に前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得させる状態取得ステップと、を含み、前記検出ステップは、前記状態取得ステップにおいて前記状態取得部に取得させた前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、ことを特徴とする。
また、本発明のコンテンツ評価データ生成方法は、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、評価部に、前記検出部が前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価させる評価ステップと、を含むことを特徴とする。
In the content evaluation data generation method of the present invention, the display step of displaying the content on the display unit, and the subject viewing the content displayed on the display unit are photographed by the photographing unit, and the photographing is performed. A photographing step for outputting a photographed image of the subject, a detecting step for causing the detection unit to detect the heartbeat of the subject based on the photographed image, a heartbeat data detected by the detection unit in the storage unit, and the heartbeat detected The recording step of associating and recording the content that the subject has been browsing or the data indicating the content, and the display unit when the subject is browsing the content in the state acquisition unit viewed contains a status acquisition step of acquiring the state of the display, wherein the detection step, the state in the state acquisition step The captured image is corrected based on the change in display of the display unit is acquired to obtain unit, detects heart of the subject based on the corrected captured image, characterized in that.
In the content evaluation data generation method of the present invention, the display step of displaying the content on the display unit, and the subject viewing the content displayed on the display unit are photographed by the photographing unit, and the photographing is performed. A photographing step for outputting a photographed image of the subject, a detecting step for causing the detection unit to detect the heartbeat of the subject based on the photographed image, a heartbeat data detected by the detection unit in the storage unit, and the heartbeat detected When the detection unit detects the heartbeat of the subject, the recording step of associating and recording the content that the subject was browsing or the data indicating the content when the detection unit detects the heartbeat of the subject. Based on the content being browsed or data indicating the content, the heart rate of the subject detected by the detection unit An evaluation step of evaluating the effectiveness, to include the features.
また、本発明のプログラムは、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、状態取得部に前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得させる状態取得ステップと、を含み、前記検出ステップは、前記状態取得ステップにおいて前記状態取得部に取得させた前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する処理、をコンピュータに実行させることを特徴とする。
また、本発明のプログラムは、表示部にコンテンツを表示させる表示ステップと、撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、評価部に、前記検出部が前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価させる評価ステップと、をコンピュータに実行させることを特徴とする。
Further, the program of the present invention includes a display step of displaying content on a display unit, and a subject who is browsing the content displayed on the display unit is photographed by a photographing unit, and the photographed image of the subject that is photographed An imaging step for outputting a signal, a detection step for detecting a heartbeat of the subject based on the captured image, a heartbeat data detected by the detection unit in a storage unit, and the heartbeat when the heartbeat is detected A recording step for associating and recording the content that the subject was browsing, or data indicating the content, and a display state of the display unit when the subject is browsing the content in a state acquisition unit A state acquisition step of acquiring, and the detection step is acquired by the state acquisition unit in the state acquisition step The captured image is corrected based on the change in display in the serial display unit, characterized in that to execute processing for detecting the heart rate of the subject based on the corrected captured image to the computer.
Further, the program of the present invention includes a display step of displaying content on a display unit, and a subject who is browsing the content displayed on the display unit is photographed by a photographing unit, and the photographed image of the subject that is photographed An imaging step for outputting a signal, a detection step for detecting a heartbeat of the subject based on the captured image, a heartbeat data detected by the detection unit in a storage unit, and the heartbeat when the heartbeat is detected The subject that the subject was browsing when the detection unit detected the heartbeat of the subject and the recording step that records the content that the subject was browsing or data indicating the content in association with each other Based on the content or data indicating the content, the effectiveness of the heartbeat of the subject detected by the detection unit is evaluated. Characterized in that to execute a valence step, to the computer.
本発明によれば、被験者に意識させずに、コンテンツを視聴(閲覧)している被験者の反応を評価するための情報を、より精度よく取得することができるコンテンツ評価データ生成システム、コンテンツ評価データ生成方法、およびプログラムを提供することができるという効果が得られる。 ADVANTAGE OF THE INVENTION According to this invention, the content evaluation data generation system and content evaluation data which can acquire more accurately the information for evaluating the reaction of the subject who is viewing (browsing) the content without making the subject aware of it. An effect that a generation method and a program can be provided is obtained.
<第1の実施形態>
以下、本発明の実施形態について、図面を参照して説明する。図1は、本第1の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図1には、本発明のコンテンツ評価データ生成システムにおける基本的な構成の一例を示している。図1に示したコンテンツ評価データ生成システム1は、撮影部10と、表示部20と、心拍検出部30と、記録部40とから構成されるシステムである。なお、図1には、コンテンツ評価データ生成システム1における被験者Hも併せて示しているが、被験者Hは、本第1の実施形態のコンテンツ評価データ生成システム1を構成する要素ではない。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of a schematic configuration of a content evaluation data generation system according to the first embodiment. FIG. 1 shows an example of a basic configuration in the content evaluation data generation system of the present invention. The content evaluation
表示部20は、コンテンツを表示する、例えば、LCD(Liquid Crystal Display)などの表示装置を備え、記録部40に記録されたコンテンツを表示することによって、コンテンツを被験者Hに提示する。表示部20は、不図示の制御部によってコンテンツ表示を開始するタイミングが制御される。表示部20は、制御部によってコンテンツ表示の開始が指示されると、表示するコンテンツのデータを記録部40から読み出して表示する。
The
撮影部10は、被写体の光学像を光電変換する固体撮像素子を備え、被写体の動画を撮影する。撮影部10は、不図示の制御部によって動画撮影を開始するタイミングが制御される。撮影部10は、制御部によって動画撮影の開始が指示されると、表示部20に表示されたコンテンツを視聴(閲覧)している被験者Hの顔の領域の動画像(例えば、30フレーム/秒の画像)を撮影し、撮影した被験者Hの撮影画像であるそれぞれのフレームの画像データ(RAWデータ)を、撮影した動画のフレーム毎に心拍検出部30に出力する。
The
心拍検出部30は、撮影部10から入力されたRAWデータに対して、被験者Hの心拍を検出するための画像処理(以下、「心拍検出処理」という)を行う。心拍検出部30は、不図示の制御部によって心拍検出処理を開始するタイミングが制御される。心拍検出部30は、制御部によって心拍検出処理の開始が指示されると、撮影部10から入力されたRAWデータを用いて心拍検出処理を行い、被験者Hの心拍を一定間隔毎に検出する。なお、心拍検出部30における心拍検出処理に関する詳細な説明は、後述する。
The
また、心拍検出部30は、心拍検出処理が開始すると、表示部20にコンテンツを表示しているタイミングと同期して、コンテンツのデータを記録部40から読み出す。そして、心拍検出部30は、読み出したコンテンツのデータに、検出した被験者Hの心拍の情報(以下、「生体情報」ともいう)を関連付けた応答データを、記録部40に出力し記録させる。
Further, when the heartbeat detection process starts, the
例えば、表示部20に、映画やドラマなどの動画コンテンツを表示している場合には、動画コンテンツにおけるそれぞれのフレームの動画データに同期したタイミングで、動画データに含まれるタグ情報の空き領域などに、フレーム毎に検出した被験者Hの生体情報を追加する。そして、被験者Hの生体情報を順次追加した動画コンテンツを、応答データとして記録部40に記録させる。これにより、動画コンテンツを視聴しているときの被験者Hの心拍の変化を、動画コンテンツに対応付けて評価することができる。例えば、動画コンテンツの提供者が動画コンテンツの視聴率を集計する際に、それぞれの被験者が視聴した応答データから、それぞれのフレームのタグ情報に追加された心拍の情報を時間順に順次抽出することによって、それぞれの被験者の心拍の変化を評価することができる。このことにより、動画コンテンツを再生しているだけではなく、実際に動画コンテンツを視聴していると考えられる有効な応答データを集計することができる。
For example, when moving image content such as a movie or a drama is displayed on the
また、例えば、表示部20に、アンケートなどの設問コンテンツを表示している場合には、被験者Hがアンケートの設問に回答したタイミング、すなわち、マウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて被験者Hが回答のデータを入力したタイミングで、設問番号と回答のデータとを記録した応答データに、検出した被験者Hの生体情報を追加して記録部40に記録させる。これにより、設問コンテンツのそれぞれの設問に対して被験者Hが回答しているときの被験者Hの心拍の状態や変化を、設問コンテンツに対する応答データに対応付けて評価することができる。例えば、アンケートの実施者がアンケートの回答を集計する際に、それぞれの被験者が回答した応答データに追加された心拍の情報を設問毎に抽出することによって、それぞれの被験者が各設問に回答する際の心拍の状態や、設問の進行に伴う心拍の変化を評価することができる。このことにより、設問の内容に関心を持たずに安易に入力した回答ではなく、設問の内容に関心を持って入力した回答であると考えられる有効な応答データを集計することができる。
Further, for example, when question content such as a questionnaire is displayed on the
記録部40は、表示部20に表示するためのコンテンツのデータを記録する。また、記録部40は、心拍検出部30によって被験者Hの生体情報が関連付けられた応答データを記録する。
The
このような構成によって、コンテンツ評価データ生成システム1では、表示部20にコンテンツを表示しているタイミングに同期した被験者Hの生体情報を、応答データに記録する。これにより、コンテンツ評価データ生成システム1では、被験者Hの反応を評価するために有効な応答データを取得することができる。
With this configuration, the content evaluation
次に、コンテンツ評価データ生成システム1に備えた心拍検出部30による心拍検出処理について説明する。心拍検出部30による心拍検出処理では、撮影部10が撮影した動画像における被験者Hの位置合わせの処理、すなわち、ブレ補正処理と、ブレ補正した後の動画像に基づいた被験者Hの心拍数の算出処理とを並行して行う。図2は、本第1の実施形態のコンテンツ評価データ生成システム1に備えた心拍検出部30における心拍検出処理の処理手順を示したフローチャートである。
Next, a heartbeat detection process by the
心拍検出部30は、制御部からの指示に応じて心拍検出処理を開始すると、まず、ブレ補正処理を開始する。ブレ補正処理では、ステップS1において、心拍検出部30は、撮影部10から入力されたRAWデータに対して画像処理を行い、動画像に含まれる被験者Hのブレを検出するためのブレ検出対象画像を作成する。ステップS1におけるブレ検出対象画像の作成では、フレームのRAWデータからビットマップデータを作成する。なお、心拍検出部30は、撮影部10からRAWデータが入力される毎、すなわち、撮影部10が撮影した動画のそれぞれのフレームの画像毎に、ブレ検出対象画像を作成する。
When the
続いて、ステップS2において、心拍検出部30は、作成した1つ目のフレームのブレ検出対象画像を基準とし、以降のフレームのブレ検出対象画像との間における被験者Hの位置の差から、被験者Hのブレを検出する。より具体的には、1つ目のフレームのブレ検出対象画像とn(n=2以上の自然数)個目のフレームのブレ検出対象画像とに基づいて、撮影部10が撮影した動画のフレームが、1つ目のフレームからn個目のフレームに変わったときのブレ量を検出する。なお、心拍検出部30によるブレ検出の処理方法は、例えば、デジタルビデオカメラなどにおいて一般的に用いられている、公知のブレ検出の技術を用いて行うことができるため、詳細な説明は省略する。
Subsequently, in step S2, the
続いて、ステップS3において、心拍検出部30は、ステップS2において検出したブレ量に基づいて、撮影部10から入力されたそれぞれのフレームのRAWデータに含まれる各画素のデータの位置合わせを行って、ブレを補正する。例えば、RAWデータに含まれるR、G、およびBの各色成分の画素のブレを、逆アフィン変換によって補正する。なお、心拍検出部30によるブレ補正の処理方法は、例えば、デジタルビデオカメラなどにおいて一般的に用いられている、公知のブレ補正の技術を用いて行うことができるため、詳細な説明は省略する。
Subsequently, in step S3, the
ここまでの処理が、ブレ補正処理である。以降、心拍検出部30は、ステップS1〜ステップS3までのブレ補正処理を、撮影部10からそれぞれのフレームのRAWデータが入力される毎に、順次繰り返す。
The process so far is the blur correction process. Thereafter, the
そして、心拍検出部30は、1つ目のフレームのRAWデータに対するブレ補正処理が完了すると、続いて、心拍数の算出処理を開始する。心拍数の算出処理では、ステップS4において、心拍検出部30は、RAWデータデータから解析を行う領域(解析領域)ROIを設定(限定)する。ここでは、被験者Hの顔の領域を解析領域ROIに設定する。そして、心拍検出部30は、ブレ補正された1つ目のフレームのRAWデータに含まれる各画素のデータに基づいて、解析領域ROI、すなわち、被験者Hの顔領域の輝度信号を抽出する。ステップS4における輝度信号の抽出では、RAWデータの解析領域ROI内に含まれるR、G、およびBのそれぞれの色成分毎に、輝度信号の平均値を求める。
Then, when the blur correction process for the RAW data of the first frame is completed, the heart
これにより、撮影部10が撮影した動画のフレーム数分の長さの輝度信号の平均値を、それぞれの色成分毎に抽出することができる。ここで、解析領域ROIにおけるR、G、およびBのそれぞれの色成分毎の輝度信号の平均値を時間順に示すと、x1(t)、x2(t)、およびx3(t)とする。なお、tは撮影部10が撮影した動画のフレーム番号である。
Thereby, the average value of the luminance signal having a length corresponding to the number of frames of the moving image photographed by the photographing
続いて、ステップS5において、心拍検出部30は、ステップS4において抽出したR、G、およびBのそれぞれの色成分毎の輝度信号の平均値を、正規化する。このとき、心拍検出部30は、R、G、およびBの輝度信号の平均値が0で分散が1となるな、正式化した後の輝度信号x’i(t)を、下式(1)を用いて正規化する。
Subsequently, in step S5, the
上式(1)において、iはそれぞれの色成分R、G、およびBを表し、1がR、2がG、3がBを表す。従って、xi(t)は各フレームのそれぞれの色成分毎の輝度信号の平均値を表す。また、μiは輝度信号の平均値xi(t)の全てのフレームの平均値を表し、σiは輝度信号の平均値xi(t)の全てのフレームの標準偏差を表す。 In the above formula (1), i represents each of the color components R, G, and B, 1 represents R, 2 represents G, and 3 represents B. Therefore, xi (t) represents the average value of the luminance signal for each color component of each frame. Μi represents the average value of all the frames of the average value xi (t) of the luminance signal, and σi represents the standard deviation of all the frames of the average value xi (t) of the luminance signal.
続いて、ステップS6において、心拍検出部30は、独立成分分析法を用いて、ステップS5において正式化した後のR、G、およびBの各輝度信号を、それぞれ独立成分に分解する。このとき、心拍検出部30は、輝度信号x’1(t)、x’2(t)、およびx’3(t)を、3つの独立成分s1(t)、s2(t)、およびs3(t)に分解する。
Subsequently, in step S6, the
ステップS6における独立成分分析では、心拍検出部30は、まず、下式(2)となる仮説を立てる。
In the independent component analysis in step S6, the
上式(2)において、Aは3×3のマトリクスを表し、Aのそれぞれの要素は、aij(i=1,2,3 j=1,2,3)である。また、x’(t)は全ての色成分の輝度信号を、s(t)は全ての色成分の独立成分を、それぞれ表し、下式(3)で表される。 In the above equation (2), A represents a 3 × 3 matrix, and each element of A is aij (i = 1, 2, 3 j = 1, 2, 3). Further, x ′ (t) represents luminance signals of all color components, and s (t) represents independent components of all color components, and is represented by the following expression (3).
しかし、上式(2)がそのまま成り立つマトリクスAは存在しない。そこで、心拍検出部30は、独立成分s(t)の評価値に近い評価値をs’(t)とし、マトリクスAの逆行列に近いマトリクスWを、独立成分分析法によって算出する。
However, there is no matrix A in which the above equation (2) holds as it is. Therefore, the
続いて、ステップS7において、心拍検出部30は、ステップS6において算出した評価値s’(t)を、それぞれの色成分毎に高速フーリエ変換する。このとき、心拍検出部30は、R、G、およびBのそれぞれの色成分毎の評価値s’1(t)、s’2(t)、およびs’3(t)に対して高速フーリエ変換を行い、それぞれの色成分毎の周波数領域表現F(S1)、F(S2)、およびF(S3)を算出する。
Subsequently, in step S7, the
続いて、ステップS8において、心拍検出部30は、ステップS7において算出した周波数領域表現FにおけるパワースペクトルPを求める。このとき、心拍検出部30は、R、G、およびBのそれぞれの色成分毎の周波数領域表現F(S1)、F(S2)、およびF(S3)におけるパワースペクトルP(S1)、P(S2)、およびP(S3)をそれぞれ求める。
Subsequently, in step S8, the
続いて、ステップS9において、心拍検出部30は、ステップS8において求めたパワースペクトルPから、心拍の特徴がよく現れているパワースペクトルPを選択する。例えば、パワースペクトルP(S2)を選択する。
Subsequently, in step S9, the
続いて、ステップS10において、心拍検出部30は、ステップS9において選択したパワースペクトルPから心拍を表す周波数を抽出し、さらに、抽出した周波数に基づいて、心拍数を算出する。例えば、撮影部10の撮影フレームレートが60フレーム/秒の場合において、パワースペクトが0.75〜4の間の心拍周波数を抽出した場合には、45bpm〜240bpmの間の値を心拍数として算出する。
Subsequently, in step S10, the
ここまでの処理が、心拍数の算出処理である。以降、心拍検出部30は、ステップS4〜ステップS10までの心拍数の算出処理を、撮影部10から入力されたフレームのRAWデータに対するブレ補正処理が完了する毎に、順次繰り返す。
The process so far is the heart rate calculation process. Thereafter, the heart
このように、コンテンツ評価データ生成システム1では、心拍検出部30が、撮影部10から入力されたフレームのRAWデータ毎に心拍検出処理を行って、被験者Hの心拍数をフレーム毎に検出する。これにより、コンテンツ評価データ生成システム1では、被験者Hに意識させることなく、コンテンツを視聴しているときの被験者Hの心拍数を検出することができる。このとき、コンテンツ評価データ生成システム1では、従来の技術のように、被験者Hの眼球の映像を正確に捉える必要がなく、すなわち、被験者Hがほぼ正面を向いている必要がなく、被験者Hの顔の領域を撮影部10が撮影することができれば、被験者Hがいずれの方向を向いている場合でも、被験者Hの心拍数を精度よく検出することができる。
As described above, in the content evaluation
また、コンテンツ評価データ生成システム1では、心拍検出部30が、検出した被験者Hの心拍数を生体情報として表示部20がコンテンツに関連付けた応答データを、コンテンツを表示しているタイミングに同期させて記録部40に記録させる。これにより、コンテンツ評価データ生成システム1では、被験者Hの反応を評価するための情報を含めた応答データを記録することができ、記録した応答データを集計すると、被験者Hの反応を反映したデータを集計することができる。
In the content evaluation
なお、コンテンツ評価データ生成システム1において撮影部10は、被験者Hを撮影したそれぞれのフレームのRAWデータを心拍検出部30に出力する場合について説明した。しかし、例えば、撮影部10が何らかのガンマ補正を施した画像データを心拍検出部30に出力する場合もある。この場合には、図2に示したステップS4において、解析領域ROIを設定する前に、心拍検出部30が画像データに対して逆ガンマの補正を施すことによって、以降の心拍数の算出処理を、同様に行うことができる。
Note that, in the content evaluation
また、コンテンツ評価データ生成システム1では、記録部40に記録されたコンテンツのデータ、すなわち、同じデータを、表示部20と心拍検出部30とがそれぞれ読み出す場合について説明した。しかし、心拍検出部30に読み出されるコンテンツのデータは、表示部20に読み出されるコンテンツのデータと同じデータに限定されるものではなく、表示部20にコンテンツを表示しているタイミングを、心拍検出部30が認識することができるデータであれば、いかなるデータであってもよい。すなわち、心拍検出部30に読み出されるコンテンツのデータは、表示部20にコンテンツを表示しているタイミングと、心拍検出部30が被験者Hの心拍数を検出したタイミングとを同期させるためのデータであればよい。例えば、表示部20に動画コンテンツを表示する場合には、表示部20に表示している動画コンテンツの経過時間(表示時間)を、心拍検出部30が認識することができる時間のデータのみであってもよい。また、例えば、表示部20に設問コンテンツを表示する場合には、表示部20に表示している設問コンテンツの設問を、心拍検出部30が認識することができる設問番号のデータのみであってもよい。
In the content evaluation
<第2の実施形態>
次に、第2の実施形態のコンテンツ評価データ生成システムについて説明する。図3は、本第2の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図3に示したコンテンツ評価データ生成システム2は、撮影部10と、表示部20と、心拍検出部30と、記録部40とから構成されるシステムである。なお、図3には、コンテンツ評価データ生成システム2における被験者Hも併せて示しているが、被験者Hは、本第2の実施形態のコンテンツ評価データ生成システム2を構成する要素ではない。
<Second Embodiment>
Next, a content evaluation data generation system according to the second embodiment will be described. FIG. 3 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the second embodiment. The content evaluation
本第2の実施形態のコンテンツ評価データ生成システム2の構成要素は、第1の実施形態のコンテンツ評価データ生成システム1の構成要素と同様の構成要素である。ただし、本第2の実施形態のコンテンツ評価データ生成システム2においては、図3に示したように、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。従って、以下の説明においては、第1の実施形態のコンテンツ評価データ生成システム1と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素について説明する。なお、以下の説明においては、コンテンツが動画コンテンツである場合を例として説明する。
The components of the content evaluation
コンテンツサーバ100は、ネットTV用コンテンツ、スマートフォン用コンテンツ、PC用コンテンツ、ネットゲーム用コンテンツなど、様々なコンテンツが収められているサーバであり、インターネット200を介して要求されたコンテンツを提供する。コンテンツ評価データ生成システム2においては、コンテンツサーバ100に、表示部20に表示する動画コンテンツにおけるそれぞれのフレームの動画データと、表示部20に表示している動画データの経過時間(表示時間)を心拍検出部30が認識するための時間のデータ(以下、「時間データ」という)とが収められている。そして、コンテンツサーバ100は、動画コンテンツのデータの読み出し要求に応じて、動画データおよび時間データを、コンテンツ記憶部42に出力する。
The
コンテンツ記憶部42は、不図示の制御部による制御に応じて、インターネット200を介してコンテンツサーバ100から取得したコンテンツのデータを、一時的に記憶する。コンテンツ評価データ生成システム2においては、コンテンツ記憶部42は、動画データと時間データとを、それぞれコンテンツサーバ100から取得して一時記憶する。そして、コンテンツ記憶部42は、表示部20から動画コンテンツのデータが読み出されると、一時記憶している動画データを出力する。また、コンテンツ記憶部42は、心拍検出部30から動画コンテンツのデータが読み出されると、一時記憶している時間データを出力する。
The
データ記録部41は、心拍検出部30によって、被験者Hの生体情報が関連付けられた時間データを、応答データとして記録する。
The
このような構成によって、コンテンツ評価データ生成システム2は、コンテンツサーバ100が被験者Hと離れた場所に配置されている場合でも、インターネット200を介して提供された動画コンテンツの動画データを表示部20に表示することができる。そして、コンテンツ評価データ生成システム2は、表示部20に動画データを表示しているタイミングを表す時間データに、被験者Hの生体情報を関連付けた応答データを記録する、すなわち、表示部20に動画データを表示しているタイミングに同期した被験者Hの心拍数を生体情報として応答データに記録することによって、被験者Hの反応を評価するために有効な応答データを取得することができる。
With such a configuration, the content evaluation
このように、コンテンツ評価データ生成システム2でも、第1の実施形態のコンテンツ評価データ生成システム1と同様に、心拍検出部30が心拍検出処理を行って検出した被験者Hの心拍数を、コンテンツを表示しているタイミングに同期させて記録部40(データ記録部41)に記録させる。これにより、コンテンツ評価データ生成システム2でも、被験者Hの反応を評価するために有効な応答データを取得することができる。
As described above, in the content evaluation
なお、コンテンツ評価データ生成システム2においては、インターネット200を介してコンテンツサーバ100から取得した動画データと時間データとをコンテンツ記憶部42に一時記憶し、コンテンツ記憶部42から表示部20および心拍検出部30に動画データまたは時間データを出力する場合について説明した。しかし、表示部20および心拍検出部30に動画データまたは時間データを出力する方法は、上述した例に限定されるものではない。例えば、表示部20が、動画データをコンテンツサーバ100からインターネット200を介して直接取得する構成であってもよい。この場合、コンテンツ記憶部42は、インターネット200を介してコンテンツサーバ100から取得した時間データのみを一時的に記憶して、心拍検出部30に出力する構成になる。
In the content evaluation
また、コンテンツ評価データ生成システム2においては、心拍検出部30が、被験者Hの心拍数が関連付けられた時間データを、応答データとしてデータ記録部41に記録する場合について説明した。しかし、被験者Hの心拍数が関連付けられた応答データをデータ記録部41に記録する方法は、上述した例に限定されるものではない。例えば、心拍検出部30が、検出した被験者Hの心拍数のみをデータ記録部41に出力する構成であってもよい。この場合、コンテンツ記憶部42は、一時記憶している時間データをデータ記録部41に出力し、データ記録部41は、不図示の制御部による制御に応じて、心拍検出部30から入力された被験者Hの心拍数と、コンテンツ記憶部42から入力された時間データとを関連付けて、応答データとして記録する構成になる。
In the content evaluation
また、コンテンツ評価データ生成システム2では、時間データに検出した被験者Hの心拍数を関連付けた応答データを記録部40(データ記録部41)に記録する場合について説明した。しかし、記録部40に記録する応答データに関連付けるデータは、被験者Hの心拍数のみに限定されるものではなく、被験者Hの反応を評価するために有効な情報であれば、いかなる情報であってもよい。例えば、表示部20に表示するコンテンツに対して事前に評価を行い、評価結果から想定される被験者の反応を表した心拍数の指標を予めコンテンツに記録しておき、この指標と検出した被験者Hの心拍数と比較することによって、応答データに関連付けられている被験者Hの心拍の情報の有効性を評価した結果を応答データに関連付けて記録してもよい。
In the content evaluation
<第3の実施形態>
次に、第3の実施形態のコンテンツ評価データ生成システムについて説明する。図4は、本第3の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図4には、検出した生体情報の有効性を評価した結果を応答データに関連付けて記録するコンテンツ評価データ生成システムにおける基本的な構成の一例を示している。図4に示したコンテンツ評価データ生成システム3は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、評価部50とから構成されるシステムである。なお、図4には、コンテンツ評価データ生成システム3における被験者Hも併せて示しているが、被験者Hは、本第3の実施形態のコンテンツ評価データ生成システム3を構成する要素ではない。
<Third Embodiment>
Next, a content evaluation data generation system according to the third embodiment will be described. FIG. 4 is a block diagram showing an example of a schematic configuration of the content evaluation data generation system in the third embodiment. FIG. 4 shows an example of a basic configuration in a content evaluation data generation system that records the result of evaluating the effectiveness of detected biological information in association with response data. The content evaluation
本第3の実施形態のコンテンツ評価データ生成システム3は、第1の実施形態のコンテンツ評価データ生成システム1に、評価部50が追加された構成である。その他の構成要素は、第1の実施形態のコンテンツ評価データ生成システム1の構成要素と同様である。従って、以下の説明においては、第1の実施形態のコンテンツ評価データ生成システム1と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。なお、以下の説明においては、コンテンツが設問コンテンツである場合を例として説明する。
The content evaluation
表示部20は、不図示の制御部による制御に応じて設問コンテンツの表示を開始すると、設問コンテンツの設問のデータ(以下、「設問データ」)を、1問ずつ記録部40から読み出して、順次表示する。
When the
撮影部10は、不図示の制御部による制御に応じて、表示部20に表示された設問コンテンツの設問に回答する回答者である被験者Hの顔の領域の動画像を撮影し、撮影した被験者Hのそれぞれのフレームの画像データ(RAWデータ)を、心拍検出部30に順次出力する。
The
心拍検出部30は、不図示の制御部による制御に応じて心拍検出処理を開始すると、表示部20に表示している設問データの設問番号を認識するためのデータ(以下、「設問番号データ」)を、記録部40から読み出す。そして、心拍検出部30は、被験者Hが不図示のマウスなどのポインティングデバイスやキーボードなどの入力デバイスを用いて設問に対する回答のデータを入力したタイミングで検出した被験者Hの心拍数を、読み出した設問番号データに関連付けて、評価部50に出力する。
When the
記録部40は、設問データおよび設問番号データが記録されている。また、記録部40には、設問コンテンツの提供者がそれぞれの設問毎に事前に想定した被験者の心拍数が、指標データとして記録されている。
The
評価部50は、不図示の制御部による制御に応じて、心拍検出部30が検出した被験者Hの心拍数の有効性を評価する。評価部50による有効性の評価は、心拍検出部30から入力された被験者Hの心拍数が関連付けられた設問番号データと、記録部40から読み出した指標データとを比較することによって行われる。そして、評価部50は、心拍検出部30から入力された設問番号データに、有効性を評価した結果を反映した新たな設問番号データを、応答データとして、記録部40に出力し記録させる。
The
より具体的には、指標データには、設問コンテンツの提供者によって予め設定された、被験者が設問に回答する際に想定される心拍数の値が含まれている。評価部50は、心拍検出部30から入力された設問番号データに含まれるそれぞれの設問を回答したときの心拍数の値と、指標データに含まれる対応する設問において想定される心拍数の値とを比較する。そして、評価部50は、設問番号データに含まれる心拍数の値と、指標データに含まれる心拍数の値との差が、予め定めた範囲内であるときに、この設問に関して検出した被験者Hの心拍数が有効であると判定する。逆に、それぞれの心拍数の値の差が予め定めた範囲外であるとき、この設問に関して検出した被験者Hの心拍数が無効であると判定する。その後、評価部50は、心拍数が有効であるか否かを表す情報、つまり、検出した被験者Hの心拍の情報の有効性を評価した結果を、被験者Hの心拍数が関連付けられた設問番号データに追加し、応答データとして記録部40に出力する。なお、評価部50は、有効性の評価結果として、例えば、関連付けられている心拍数が有効であるか否かを表すフラグを、設問毎に追加する。
More specifically, the index data includes a heart rate value assumed when the subject answers the question, which is preset by the question content provider. The
記録部40は、評価部50によって被験者Hの心拍の情報の有効性を評価した結果が追加された応答データを記録する。
The
このような構成によって、コンテンツ評価データ生成システム3では、第1の実施形態のコンテンツ評価データ生成システム1、および第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20に表示しているコンテンツに対応した被験者Hの心拍数を検出する。そして、コンテンツ評価データ生成システム3では、表示部20に表示しているコンテンツに対して予め想定された指標に基づいて、検出した被験者Hの心拍数の有効性を評価し、その評価結果を応答データに記録する。これにより、コンテンツ評価データ生成システム3では、被験者Hの反応を評価するための応答データを補正して、さらに有効な応答データを取得することができる。このことにより、例えば、アンケートの実施者がアンケートの回答を集計する際に、被験者Hが入力したそれぞれの設問に対する回答の内、設問の内容に関心を持って入力した回答であると考えられる有効な応答データのみを集計することができる。
With such a configuration, the content evaluation
なお、コンテンツ評価データ生成システム3においては、検出した生体情報の有効性を評価する評価部50を追加した構成のコンテンツ評価データ生成システムにおける基本的な構成について説明したが、評価部50は、様々な構成のコンテンツ評価データ生成システムにおいて、同様に検出した生体情報の有効性を評価することができる。
In the content evaluation
<第4の実施形態>
次に、第4の実施形態のコンテンツ評価データ生成システムについて説明する。図5は、本第4の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図5に示したコンテンツ評価データ生成システム4は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、評価部50とから構成されるシステムである。なお、図5には、コンテンツ評価データ生成システム4における被験者Hも併せて示しているが、被験者Hは、本第4の実施形態のコンテンツ評価データ生成システム4を構成する要素ではない。
<Fourth Embodiment>
Next, a content evaluation data generation system according to the fourth embodiment will be described. FIG. 5 is a block diagram showing an example of a schematic configuration of a content evaluation data generation system according to the fourth embodiment. The content evaluation data generation system 4 illustrated in FIG. 5 is a system including an
本第4の実施形態のコンテンツ評価データ生成システム4の構成要素は、第3の実施形態のコンテンツ評価データ生成システム3の構成要素と同様の構成要素である。また、本第4の実施形態のコンテンツ評価データ生成システム4においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。従って、以下の説明においては、第3の実施形態のコンテンツ評価データ生成システム3、および第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。なお、以下の説明においては、コンテンツが動画コンテンツである場合を例として説明する。
The components of the content evaluation data generation system 4 of the fourth embodiment are the same as the components of the content evaluation
コンテンツサーバ100には、動画データと時間データとに加えて、指標データが記録されている。この指標データは、動画コンテンツの提供者が動画データのシーンに対する被験者の反応を事前に評価し、その評価結果に基づいて想定した被験者の心拍数が、動画データの経過時間(表示時間)に対応して記録されたデータである。コンテンツサーバ100は、動画コンテンツのデータの読み出し要求に応じて、動画データ、時間データ、および指標データを、インターネット200を介してコンテンツ記憶部42に出力する。
In the
コンテンツ記憶部42は、不図示の制御部による制御に応じて、動画データ、時間データ、および指標データのそれぞれを、インターネット200を介してコンテンツサーバ100から取得して一時記憶する。そして、コンテンツ記憶部42は、表示部20からの動画コンテンツの読み出しに応じて、一時記憶している動画データを出力し、心拍検出部30からの動画コンテンツの読み出しに応じて、一時記憶している時間データを心拍検出部30に、指標データをデータ記録部41に、それぞれ出力する。
The
心拍検出部30は、不図示の制御部による制御に応じて心拍検出処理を開始すると、表示部20に表示している動画データに同期したタイミングで検出した被験者Hの心拍数を、コンテンツ記憶部42から読み出した時間データに関連付けて、データ記録部41に出力し記録させる。
When the heart
データ記録部41は、心拍検出部30によって、被験者Hの心拍の情報が関連付けられた時間データを記録する。また、データ記録部41は、コンテンツ記憶部42から出力された指標データを記録する。
The
評価部50は、不図示の制御部による制御に応じて、データ記録部41に記憶されている心拍検出部30によって被験者Hの心拍数が関連付けられた時間データと、指標データとを比較することによって心拍検出部30が検出した被験者Hの心拍数の有効性を評価する。そして、評価部50は、データ記録部41から読み出したら時間データに、有効性を評価した結果を反映した新たな時間データを、応答データとして再びデータ記録部41に出力し記録させる。
The
なお、評価部50における被験者Hの心拍数の有効性の評価方法は、第3の実施形態のコンテンツ評価データ生成システム3における評価部50における被験者Hの心拍数の有効性の評価方法と同様に考えることができるため、詳細な説明は省略する。
In addition, the evaluation method of the effectiveness of the heart rate of the subject H in the
データ記録部41は、評価部50によって被験者Hの心拍の情報の有効性を評価した結果が追加された応答データを記録する。
The
このような構成によって、コンテンツ評価データ生成システム4では、第3の実施形態のコンテンツ評価データ生成システム3と同様に、表示部20に表示しているコンテンツに対応して検出した被験者Hの心拍数と、その心拍数の有効性を評価した評価結果とを応答データに記録する。これにより、コンテンツ評価データ生成システム4でも、第3の実施形態のコンテンツ評価データ生成システム3と同様に、被験者Hの反応を評価するための応答データを補正して、さらに有効な応答データを取得することができる。このことにより、例えば、動画コンテンツの提供者が動画コンテンツの視聴率を集計する際に、それぞれの被験者の心拍の変化において、実際に動画コンテンツを視聴していると考えられる有効な期間の応答データのみを集計することができる。より具体的には、例えば、動画コンテンツが刺激的なコンテンツである期間は、指標データの心拍数が高い値になっているが、応答データに関連付けられている被験者の心拍の変化が全くなかったり、変化の割合が少なかったりする場合には、被験者が動画コンテンツを再生しているだけで視聴していないと判断することができる。なお、この判断をする場合には、対象の期間において指標データの心拍数が最も高い値になっている期間から、予め定めた期間内で被験者の心拍の変化のズレを考慮して判断することが望ましい。そして、この期間の評価を視聴率の集計に含めないようにすることによって、より正確な視聴率の集計結果を得ることができる。
With such a configuration, in the content evaluation data generation system 4, the heart rate of the subject H detected corresponding to the content displayed on the
なお、コンテンツ評価データ生成システム4においては、第2の実施形態のコンテンツ評価データ生成システム2と同様に、インターネット200を介してコンテンツサーバ100から取得した動画データと、時間データと、指標データとをコンテンツ記憶部42に一時記憶し、コンテンツ記憶部42から表示部20、心拍検出部30、およびデータ記録部41に動画データ、時間データ、または指標データを出力する場合について説明した。しかし、第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20、心拍検出部30、およびデータ記録部41にそれぞれのデータを出力する方法は、上述した例に限定されるものではない。例えば、第2の実施形態のコンテンツ評価データ生成システム2と同様に、表示部20が、動画データをコンテンツサーバ100からインターネット200を介して直接取得する構成であってもよい。
Note that, in the content evaluation data generation system 4, as in the content evaluation
また、コンテンツ評価データ生成システム4においては、被験者Hの心拍数を関連付けた時間データと、指標データとをデータ記録部41に記録し、評価部50が、データ記録部41に記録されている時間データと指標データとに基づいて被験者Hの心拍数の有効性を評価する場合について説明した。しかし、評価部50が被験者Hの心拍数の有効性を評価するためのそれぞれのデータを取得する方法は、上述した例に限定されるものではない。例えば、心拍検出部30が被験者Hの心拍数を関連付けた時間データを直接評価部50に出力し、さらに、評価部50が指標データをコンテンツサーバ100からインターネット200を介して直接取得して、被験者Hの心拍数の有効性を評価する構成であってもよい。また、例えば、評価部50が、インターネット200を介して直接、コンテンツサーバ100などに応答データを出力する構成であってもよい。
In the content evaluation data generation system 4, the time data associated with the heart rate of the subject H and the index data are recorded in the
<第5の実施形態>
次に、第5の実施形態のコンテンツ評価データ生成システムについて説明する。図6は、本第5の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図6に示したコンテンツ評価データ生成システム5は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、被験者状態検出部60とから構成されるシステムである。また、本第5の実施形態のコンテンツ評価データ生成システム5においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。なお、図6には、コンテンツ評価データ生成システム5における被験者Hも併せて示しているが、被験者Hは、本第5の実施形態のコンテンツ評価データ生成システム5を構成する要素ではない。
<Fifth Embodiment>
Next, a content evaluation data generation system according to a fifth embodiment will be described. FIG. 6 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the fifth embodiment. The content evaluation
本第5の実施形態のコンテンツ評価データ生成システム5は、図3に示した第2の実施形態のコンテンツ評価データ生成システム2に、被験者状態検出部60が追加された構成である。その他の構成要素は、第2の実施形態のコンテンツ評価データ生成システム2の構成要素と同様である。従って、以下の説明においては、第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。
The content evaluation
被験者状態検出部60は、撮影部10から出力されたRAWデータに対して画像処理を行い、動画像に含まれる被験者Hの顔の向きを検出する。そして、被験者状態検出部60は、検出した被験者Hの顔の向きの情報を、心拍検出部30に出力する。なお、被験者状態検出部60による被験者Hの顔の向きの検出方法は、例えば、デジタルスチルカメラやデジタルビデオカメラなどにおいて一般的に用いられている、公知の顔検出の技術を用いて行うことができるため、詳細な説明は省略する。
The subject
心拍検出部30は、被験者状態検出部60から入力された被験者Hの顔の向きの情報に応じて、心拍検出処理を行う際に解析を行うRAWデータデータの領域を変更する。より具体的には、心拍検出部30は、図2に示した心拍検出処理のフローチャートのステップS4において解析領域ROIを設定する際に、被験者状態検出部60から入力された被験者Hの顔の向きの情報に基づいて設定する。例えば、被験者状態検出部60から入力された被験者Hの顔の向きの情報が、撮影部10に対して正面を向いていることを表している場合には、被験者Hの顔の領域内の「額」を含む部分を解析領域ROIとする。また、例えば、被験者状態検出部60から入力された被験者Hの顔の向きの情報が、撮影部10に対して横方向を向いている、すなわち、撮影部10が撮影した被験者Hの顔が側面であることを表している場合には、被験者Hの顔の領域内の「こめかみ」を含む部分を解析領域ROIとする。
The
このような構成によって、コンテンツ評価データ生成システム5では、被験者Hが表示部20に表示しているコンテンツを視聴しているときの顔の向きを考慮して、被験者Hの心拍数を算出する。これにより、コンテンツ評価データ生成システム5では、より高い精度で被験者Hの心拍の情報を検出、すなわち、心拍数を算出することができる。つまり、コンテンツ評価データ生成システム5では、撮影部10が撮影したRAWデータに被験者Hの顔の領域が含まれていれば、従来の技術において被験者Hの眼球の映像を正確に捉えるために、被験者Hがほぼ正面を向いている必要がなく、被験者Hがいずれの方向を向いている場合でも、被験者Hの心拍数を精度よく検出することができる。
With such a configuration, the content evaluation
なお、コンテンツ評価データ生成システム5においては、被験者状態検出部60が検出した被験者Hの顔の向きの情報を心拍検出部30に出力し、心拍検出部30が解析領域ROIを設定する場合について説明した。しかし、解析領域ROIを設定する方法は、上述した例に限定されるものではない。例えば、被験者状態検出部60が、検出した被験者Hの顔の向きに基づいて解析領域ROIを決定し、決定した解析領域ROIを心拍検出部30に設定する構成であってもよい。この場合、心拍検出部30は、設定された解析領域ROIで心拍検出処理を行うことになる。
Note that the content evaluation
<第6の実施形態>
次に、第6の実施形態のコンテンツ評価データ生成システムについて説明する。図7は、本第6の実施形態におけるコンテンツ評価データ生成システムの概略構成の一例を示したブロック図である。図7に示したコンテンツ評価データ生成システム6は、撮影部10と、表示部20と、心拍検出部30と、記録部40と、照明状態取得部70とから構成されるシステムである。また、本第6の実施形態のコンテンツ評価データ生成システム6においては、図3に示した第2の実施形態のコンテンツ評価データ生成システム2と同様に、記録部40が、データ記録部41と、コンテンツ記憶部42と、コンテンツサーバ100とからなり、コンテンツ記憶部42とコンテンツサーバ100とがインターネット200を介して接続されている構成になっている。なお、図7には、コンテンツ評価データ生成システム6における被験者Hも併せて示しているが、被験者Hは、本第6の実施形態のコンテンツ評価データ生成システム6を構成する要素ではない。
<Sixth Embodiment>
Next, a content evaluation data generation system according to the sixth embodiment will be described. FIG. 7 is a block diagram illustrating an example of a schematic configuration of a content evaluation data generation system according to the sixth embodiment. The content evaluation
本第6の実施形態のコンテンツ評価データ生成システム6は、図3に示した第2の実施形態のコンテンツ評価データ生成システム2に、照明状態取得部70が追加された構成である。その他の構成要素は、第2の実施形態のコンテンツ評価データ生成システム2の構成要素と同様である。従って、以下の説明においては、第2の実施形態のコンテンツ評価データ生成システム2と同様の構成要素には、同一の符号を付与して詳細な説明は省略し、異なる構成要素および動作について説明する。
The content evaluation
照明状態取得部70は、被験者Hがコンテンツを視聴している環境の明るさと、表示部20に表示するコンテンツの明るさや色を検出する。そして、照明状態取得部70は、検出した環境の明るさの情報およびコンテンツの明るさや色の情報を、心拍検出部30に出力する。より具体的には、照明状態取得部70は、不図示の制御部による制御に応じて、被験者Hがコンテンツを視聴する環境の明るさを逐次検出する。また、照明状態取得部70は、不図示の制御部による制御に応じて、表示部20に表示するコンテンツのデータを、インターネット200を介してコンテンツサーバ100から取得し、現在の環境(明るさ)でコンテンツを視聴した際に、被験者Hの顔に反射する表示部20に表示されたコンテンツの明るさや色、または明るさや色の変化を逐次検出する。そして、照明状態取得部70は、検出したコンテンツの明るさや色の情報と、環境の明るさの情報とを、心拍検出部30に逐次出力する。
The illumination
心拍検出部30は、照明状態取得部70から入力されたコンテンツの明るさや色の情報と環境の明るさの情報とに応じて、撮影部10から入力されたそれぞれのフレームのRAWデータを補正する。より具体的には、心拍検出部30は、コンテンツの明るさや色を抑制(低減)するように、それぞれのフレームのRAWデータを逐次補正する。これにより、例えば、夜など、コンテンツを視聴している周辺の照明環境が暗い場合に、被験者Hの顔に当たる照明が表示部20に表示しているコンテンツの明るさや色の変化によって大きく影響された、心拍検出処理の妨げとなるRAWデータ内の各画素の成分を、事前に抑制することができる。そして、心拍検出部30は、補正した後のRAWデータに基づいて心拍検出処理を行う。
The
このような構成によって、コンテンツ評価データ生成システム6では、被験者Hが表示部20に表示しているコンテンツを視聴しているときに顔に反射しているコンテンツの明るさや色を抑制した状態で、被験者Hの心拍数を算出する。これにより、コンテンツ評価データ生成システム6では、より高い精度で被験者Hの心拍の情報を検出、すなわち、心拍数を算出することができる。
With such a configuration, the content evaluation
なお、コンテンツ評価データ生成システム6においては、照明状態取得部70が、表示部20に表示するコンテンツのデータ、すなわち、同じデータから、コンテンツの明るさや色を検出する場合について説明した。しかし、照明状態取得部70がコンテンツの明るさや色を検出するデータは、表示部20に表示するコンテンツのデータと同じデータに限定されるものではなく、表示部20にコンテンツを表示するコンテンツの明るさや色を認識することができるデータであれば、いかなるデータであってもよい。例えば、表示部20に表示するコンテンツのデータとは別に準備されたコンテンツの明るさや色を表すデータであってもよい。
In the content evaluation
また、コンテンツ評価データ生成システム6においては、照明状態取得部70が、表示部20に表示するコンテンツのデータを、インターネット200を介してコンテンツサーバ100から直接取得する場合について説明した。しかし、照明状態取得部70がコンテンツのデータを取得する方法は、上述した例に限定されるものではない。例えば、コンテンツ記憶部42に一時記憶しているコンテンツのデータを、照明状態取得部70が読み出す構成であってもよい。
In the content evaluation
上記に述べたとおり、本発明を実施するための形態によれば、心拍検出部30が、撮影部10から入力されたフレーム毎のRAWデータに基づいて、表示部20にコンテンツを表示しているタイミングに同期した被験者Hの生体情報(心拍の情報:心拍数)を検出する。そして、検出した生体情報を、コンテンツに関連付けて応答データに記録する。これにより、本発明を実施するための形態では、コンテンツを視聴している被験者Hの反応を評価するために有効な応答データを、被験者Hに意識させずに、より精度よく取得することができる。そして、応答データに関連付けられている被験者Hの生体情報(心拍の情報:心拍数)の変化を評価することによって、被験者Hの反応をより正確に評価することができる。また、本発明を実施するための形態では、生体情報(心拍の情報:心拍数)を検出する際に、従来の技術のような被験者Hの顔の向きに関する制約がなく、コンテンツ評価データ生成システムを用いることができる実用範囲が広い。
As described above, according to the embodiment for carrying out the present invention, the
なお、本実施形態においては、それぞれのコンテンツのデータ(実施形態においては、動画コンテンツにおける動画データや、設問コンテンツにおける設問データ)と、それに付随するデータ(実施形態においては、動画コンテンツにおける時間データや、設問コンテンツにおける設問番号データや、指標データ)がそれぞれ別のデータである場合について説明した。しかし、それぞれのデータの形式は、本発明を実施するための形態に限定されるものではなく、コンテンツのデータに付随するデータを含んだ形式であってもよい。 In the present embodiment, data of each content (in the embodiment, moving image data in the moving image content and question data in the question content) and accompanying data (in the embodiment, time data in the moving image content, In the above description, the question number data and the index data in the question content are different data. However, the format of each data is not limited to the mode for carrying out the present invention, and may be a format including data accompanying the content data.
また、本実施形態においては、撮影部10、表示部20、および心拍検出部30と、記録部40の全てまたは一部とが、被験者Hがコンテンツを視聴している位置に配置された場合について説明した。しかし、コンテンツ評価データ生成システム内の各構成要素の配置は、本発明を実施するための形態に限定されるものではない。例えば、撮影部10、表示部20、および心拍検出部30のみが被験者Hがコンテンツを視聴している位置に配置され、記録部40の全てが異なる位置に配置されて、インターネット200を介して接続される構成であってもよい。また、例えば、撮影部10および表示部20以外の全ての構成要素が、インターネット200を介して接続される別の位置に配置される構成であってもよい。
Moreover, in this embodiment, about the case where the imaging |
また、本実施形態においては、評価部50、被験者状態検出部60、または照明状態取得部70のいずれか1つの構成要素をコンテンツ評価データ生成システムに備えた構成について説明した。コンテンツ評価データ生成システム内に備える構成要素は、本発明を実施するための形態に限定されるものではない。例えば、評価部50、被験者状態検出部60、および照明状態取得部70のいずれか1つの構成要素、または全ての構成要素をコンテンツ評価データ生成システムに備えた構成にすることもできる。
Moreover, in this embodiment, the structure provided with any one component of the
また、本実施形態においては、心拍検出部30がハードウェアで構成されているように説明したが、心拍検出部30の機能を実現する手段は、本発明を実施するための形態に限定されるものではない。例えば、心拍検出部30の機能を、コンピュータプログラムなどによってソフトウェア的に実現することもできる。この場合、心拍検出部30は、ハードウェア的には、コンピュータのCPUやメモリをはじめとする素子で実現することが考えられる。
Moreover, in this embodiment, although demonstrated that the heart-
その際には、心拍検出部30やコンテンツ評価データ生成システムによる処理を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体(記録デバイス)に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、心拍検出部30やコンテンツ評価データ生成システムに係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In that case, a program for realizing processing by the
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the “computer-readable recording medium” refers to a volatile memory (for example, DRAM (Dynamic) in a computer system serving as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。 The embodiment of the present invention has been described above with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes various modifications within the scope of the present invention. It is.
1,2,3,4,5,6・・・コンテンツ評価データ生成システム
10・・・撮影部
20・・・表示部
30・・・心拍検出部(検出部)
40・・・記録部
41・・・データ記録部(記録部)
42・・・コンテンツ記憶部(記録部)
50・・・評価部
60・・・被験者状態検出部(状態検出部)
70・・・照明状態取得部(状態取得部)
100・・・コンテンツサーバ(記録部)
200・・・インターネット
1, 2, 3, 4, 5, 6 ... content evaluation
40: Recording unit 41: Data recording unit (recording unit)
42 ... Content storage unit (recording unit)
50: Evaluation unit 60: Subject state detection unit (state detection unit)
70: Illumination state acquisition unit (state acquisition unit)
100: Content server (recording unit)
200 ... Internet
Claims (22)
前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、
前記撮影画像に基づいて前記被験者の心拍を検出する検出部と、
前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、
前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得する状態取得部と、
を備え、
前記検出部は、
前記状態取得部が取得した前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、
ことを特徴とするコンテンツ評価データ生成システム。 A display for displaying content;
An imaging unit that images a subject who is browsing the content displayed on the display unit, and outputs a captured image of the imaged subject.
A detection unit for detecting a heartbeat of the subject based on the captured image;
A recording unit that records the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or data indicating the content in association with each other;
A state acquisition unit that acquires a display state of the display unit when the subject is browsing the content;
Equipped with a,
The detector is
Correcting the captured image based on the display change of the display acquired by the state acquisition unit, and detecting the heartbeat of the subject based on the corrected captured image;
A content evaluation data generation system characterized by that.
前記撮影画像に現れた前記表示部の表示の変化を抑制するように、前記撮影画像を補正する
ことを特徴とする請求項1に記載のコンテンツ評価データ生成システム。 The detector is
The imaging so as to suppress the change in display of the display unit appearing in the image, content evaluation data generation system according to claim 1, characterized in that to correct the captured image.
をさらに備える、
ことを特徴とする請求項1乃至請求項2に記載のコンテンツ評価データ生成システム。 The detection unit evaluates the effectiveness of the subject's heartbeat detected by the detection unit based on the content viewed by the subject when the heartbeat of the subject is detected or data indicating the content. Evaluation department,
Further comprising
Content evaluation data generation system according to claim 1 or claim 2, characterized in that.
前記評価部が前記被験者の心拍の有効性を評価した結果を表す情報を、前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータと対応付けて記録する、
ことを特徴とする請求項3に記載のコンテンツ評価データ生成システム。 The recording unit is
The evaluation unit records information indicating the result of evaluating the effectiveness of the heartbeat of the subject in association with the content that the subject was browsing, or data indicating the content,
The content evaluation data generation system according to claim 3 .
前記表示部に表示された前記コンテンツを閲覧している被験者を撮影し、該撮影した前記被験者の撮影画像を出力する撮影部と、An imaging unit that images a subject who is browsing the content displayed on the display unit, and outputs a captured image of the imaged subject.
前記撮影画像に基づいて前記被験者の心拍を検出する検出部と、A detection unit for detecting a heartbeat of the subject based on the captured image;
前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録する記録部と、A recording unit that records the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or data indicating the content in association with each other;
前記検出部が、前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価する評価部と、The detection unit evaluates the effectiveness of the subject's heartbeat detected by the detection unit based on the content viewed by the subject when the heartbeat of the subject is detected or data indicating the content. An evaluation unit;
を備えることを特徴とするコンテンツ評価データ生成システム。A content evaluation data generation system comprising:
前記評価部が前記被験者の心拍の有効性を評価した結果を表す情報を、前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータと対応付けて記録する、The evaluation unit records information indicating the result of evaluating the effectiveness of the heartbeat of the subject in association with the content that the subject was browsing, or data indicating the content,
ことを特徴とする請求項5に記載のコンテンツ評価データ生成システム。The content evaluation data generation system according to claim 5.
をさらに備え、Further comprising
前記検出部は、The detector is
前記状態取得部が取得した前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、Correcting the captured image based on the display change of the display acquired by the state acquisition unit, and detecting the heartbeat of the subject based on the corrected captured image;
ことを特徴とする請求項5乃至請求項6に記載のコンテンツ評価データ生成システム。The content evaluation data generation system according to any one of claims 5 to 6.
前記撮影画像に現れた前記表示部の表示の変化を抑制するように、前記撮影画像を補正するThe photographed image is corrected so as to suppress a change in display on the display unit that appears in the photographed image.
ことを特徴とする請求項7に記載のコンテンツ評価データ生成システム。The content evaluation data generation system according to claim 7.
前記撮影画像に基づいて、前記被験者の心拍を検出する領域を限定し、該限定された領域の前記撮影画像から前記被験者の心拍を、前記心拍のデータとして検出する、
ことを特徴とする請求項1乃至請求項8に記載のコンテンツ評価データ生成システム。 The detector is
Based on the captured image, a region for detecting the heartbeat of the subject is limited, and the heartbeat of the subject is detected as the heartbeat data from the captured image of the limited region.
9. The content evaluation data generation system according to claim 1 , wherein the content evaluation data generation system is a content evaluation data generation system.
をさらに備え、
前記検出部は、
前記状態検出部によって検出された前記被験者の状態に基づいて、前記心拍を検出する領域を限定する、
ことを特徴とする請求項9に記載のコンテンツ評価データ生成システム。 A state detector that detects the state of the subject based on the captured image;
Further comprising
The detector is
Based on the state of the subject detected by the state detection unit, the region for detecting the heartbeat is limited.
The content evaluation data generation system according to claim 9 .
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、
検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、
記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、
状態取得部に前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得させる状態取得ステップと、
を含み、
前記検出ステップは、
前記状態取得ステップにおいて前記状態取得部に取得させた前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する、
ことを特徴とするコンテンツ評価データ生成方法。 A display step of displaying content on the display unit;
A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
A detection step of causing the detection unit to detect the heartbeat of the subject based on the captured image;
A recording step of causing the storage unit to record the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or the data indicating the content in association with each other;
A state acquisition step of causing the state acquisition unit to acquire a display state of the display unit when the subject is browsing the content;
Only including,
The detecting step includes
Correcting the captured image based on the display change of the display unit acquired by the state acquisition unit in the state acquisition step, and detecting the heartbeat of the subject based on the corrected captured image;
A content evaluation data generation method characterized by the above.
前記撮影画像に現れた前記表示部の表示の変化を抑制するように、前記撮影画像を補正するThe photographed image is corrected so as to suppress a change in display on the display unit that appears in the photographed image.
ことを特徴とする請求項11に記載のコンテンツ評価データ生成方法。The content evaluation data generation method according to claim 11, wherein:
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、A detection step of causing the detection unit to detect the heartbeat of the subject based on the captured image;
記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、A recording step of causing the storage unit to record the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or the data indicating the content in association with each other;
評価部に、前記検出部が前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価させる評価ステップと、Based on the content viewed by the subject when the detection unit detects the heartbeat of the subject, or the data indicating the content, the evaluation unit evaluates the effectiveness of the subject's heartbeat detected by the detection unit An evaluation step that evaluates
を含むことを特徴とするコンテンツ評価データ生成方法。The content evaluation data generation method characterized by including.
前記評価ステップにおいて前記評価部が前記被験者の心拍の有効性を評価した結果を表す情報を、前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータと対応付けて記録させる、In the evaluation step, the evaluation unit records information indicating a result of evaluating the effectiveness of the heartbeat of the subject in association with the content that the subject was browsing, or data indicating the content,
ことを特徴とする請求項13に記載のコンテンツ評価データ生成方法。The content evaluation data generation method according to claim 13.
前記撮影画像に基づいて、前記被験者の心拍を検出する領域を限定し、該限定された領域の前記撮影画像から前記被験者の心拍を、前記心拍のデータとして検出する、Based on the captured image, a region for detecting the heartbeat of the subject is limited, and the heartbeat of the subject is detected as the heartbeat data from the captured image of the limited region.
ことを特徴とする請求項11乃至請求項14に記載のコンテンツ評価データ生成方法。15. The content evaluation data generating method according to claim 11, wherein the content evaluation data is generated.
をさらに含み、Further including
前記検出ステップは、The detecting step includes
前記状態検出ステップにおいて検出された前記被験者の状態に基づいて、前記心拍を検出する領域を限定する、Limiting the region for detecting the heartbeat based on the state of the subject detected in the state detection step,
ことを特徴とする請求項15に記載のコンテンツ評価データ生成方法。The content evaluation data generation method according to claim 15, wherein:
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、
検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、
記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、
状態取得部に前記コンテンツを前記被験者が閲覧しているときの前記表示部の表示の状態を取得させる状態取得ステップと、
を含み、
前記検出ステップは、
前記状態取得ステップにおいて前記状態取得部に取得させた前記表示部の表示の変化に基づいて前記撮影画像を補正し、該補正された撮影画像に基づいて前記被験者の心拍を検出する処理、
をコンピュータに実行させることを特徴とするプログラム。 A display step of displaying content on the display unit;
A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
A detection step of causing the detection unit to detect the heartbeat of the subject based on the captured image;
A recording step of causing the storage unit to record the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or the data indicating the content in association with each other;
A state acquisition step of causing the state acquisition unit to acquire a display state of the display unit when the subject is browsing the content;
Including
The detecting step includes
Processing for correcting the captured image based on the display change of the display unit acquired by the state acquisition unit in the state acquisition step, and detecting the heartbeat of the subject based on the corrected captured image;
A program that causes a computer to execute.
前記撮影画像に現れた前記表示部の表示の変化を抑制するように、前記撮影画像を補正する処理、A process of correcting the captured image so as to suppress a change in display of the display unit that has appeared in the captured image;
をコンピュータに実行させることを特徴とする請求項17に記載のプログラム。The program according to claim 17, wherein the program is executed by a computer.
撮影部に前記表示部に表示された前記コンテンツを閲覧している被験者を撮影させ、該撮影させた前記被験者の撮影画像を出力させる撮影ステップと、A photographing step of causing the photographing unit to photograph a subject who is browsing the content displayed on the display unit, and outputting a photographed image of the photographed subject.
検出部に前記撮影画像に基づいて前記被験者の心拍を検出させる検出ステップと、A detection step of causing the detection unit to detect the heartbeat of the subject based on the captured image;
記憶部に前記検出部によって検出された心拍のデータと、前記心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータとを対応付けて記録させる記録ステップと、A recording step of causing the storage unit to record the heartbeat data detected by the detection unit and the content that the subject was browsing when the heartbeat was detected, or the data indicating the content in association with each other;
評価部に、前記検出部が前記被験者の心拍を検出したときに前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータに基づいて、前記検出部が検出した前記被験者の心拍の有効性を評価させる評価ステップと、Based on the content viewed by the subject when the detection unit detects the heartbeat of the subject, or the data indicating the content, the evaluation unit evaluates the effectiveness of the subject's heartbeat detected by the detection unit An evaluation step that evaluates
をコンピュータに実行させることを特徴とするプログラム。A program that causes a computer to execute.
前記評価ステップにおいて前記評価部が前記被験者の心拍の有効性を評価した結果を表す情報を、前記被験者が閲覧していた前記コンテンツ、または前記コンテンツを示すデータと対応付けて記録させる処理、Processing in which the evaluation unit in the evaluation step records information indicating the result of evaluating the effectiveness of the subject's heartbeat in association with the content that the subject was browsing, or data indicating the content;
をコンピュータに実行させることを特徴とする請求項19に記載のプログラム。The program according to claim 19, wherein the program is executed by a computer.
前記撮影画像に基づいて、前記被験者の心拍を検出する領域を限定し、該限定された領域の前記撮影画像から前記被験者の心拍を、前記心拍のデータとして検出する処理、A process of limiting a region for detecting the heartbeat of the subject based on the captured image, and detecting the heartbeat of the subject as the heartbeat data from the captured image of the limited region;
をコンピュータに実行させることを特徴とする請求項17乃至請求項20に記載のプログラム。21. The program according to claim 17, wherein the program is executed by a computer.
をさらに含み、Further including
前記検出ステップは、The detecting step includes
前記状態検出ステップにおいて検出された前記被験者の状態に基づいて、前記心拍を検出する領域を限定する処理、A process for limiting a region for detecting the heartbeat based on the state of the subject detected in the state detection step;
をコンピュータに実行させることを特徴とする請求項21に記載のプログラム。The program according to claim 21, wherein the program is executed by a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012140797A JP5941764B2 (en) | 2012-06-22 | 2012-06-22 | Content evaluation data generation system, content evaluation data generation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012140797A JP5941764B2 (en) | 2012-06-22 | 2012-06-22 | Content evaluation data generation system, content evaluation data generation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014006639A JP2014006639A (en) | 2014-01-16 |
JP5941764B2 true JP5941764B2 (en) | 2016-06-29 |
Family
ID=50104314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012140797A Expired - Fee Related JP5941764B2 (en) | 2012-06-22 | 2012-06-22 | Content evaluation data generation system, content evaluation data generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5941764B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019067055A (en) * | 2017-09-29 | 2019-04-25 | 日本電気株式会社 | Terminal device, retrieval device, analyzer, estimation device, system, and operation method and program of terminal device |
KR102595838B1 (en) | 2021-02-19 | 2023-10-30 | 상명대학교산학협력단 | Method and system for evaluation of advertising effect based on similarity of micro movement |
WO2023188698A1 (en) * | 2022-03-31 | 2023-10-05 | 株式会社島津製作所 | Evaluation method, evaluation device, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003016095A (en) * | 2001-06-28 | 2003-01-17 | Sony Corp | Apparatus for information processing, method therefor, network system, recording medium and program |
JP2005218507A (en) * | 2004-02-03 | 2005-08-18 | Tama Tlo Kk | Method and apparatus for measuring vital sign |
WO2007135796A1 (en) * | 2006-05-18 | 2007-11-29 | Visual Interactive Sensitivity Research Institute Co., Ltd. | Control device for evaluating user response to content |
JP5195741B2 (en) * | 2009-12-25 | 2013-05-15 | 株式会社デンソー | Life activity measurement device |
-
2012
- 2012-06-22 JP JP2012140797A patent/JP5941764B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014006639A (en) | 2014-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4906034B2 (en) | Imaging apparatus, method, and program | |
US20120321131A1 (en) | Image-related handling support system, information processing apparatus, and image-related handling support method | |
US8009204B2 (en) | Image capturing apparatus, image capturing method, image processing apparatus, image processing method and computer-readable medium | |
JP2007265125A (en) | Content display | |
WO2014030439A1 (en) | Biological state-monitoring system, biological state-monitoring method, and program | |
TW201119365A (en) | Image selection device and method for selecting image | |
KR20090088325A (en) | Image processing apparatus, image processing method and imaging apparatus | |
CN113691721B (en) | Method, device, computer equipment and medium for synthesizing time-lapse photographic video | |
WO2014169655A1 (en) | Shooting method and apparatus | |
KR20190032994A (en) | Video distribution device, video distribution system, video distribution method and video distribution program | |
US20180242898A1 (en) | Viewing state detection device, viewing state detection system and viewing state detection method | |
CN106973285A (en) | Camera device and flicker detection method | |
JP6941800B2 (en) | Emotion estimation device, emotion estimation method and program | |
JP5941764B2 (en) | Content evaluation data generation system, content evaluation data generation method, and program | |
Lévêque et al. | CUID: A new study of perceived image quality and its subjective assessment | |
CN103039068A (en) | Image processing device and image processing program | |
JP2009089126A5 (en) | ||
WO2011108183A1 (en) | Image processing device, content delivery system, image processing method, and program | |
JP5272797B2 (en) | Digital camera | |
JP2013118574A (en) | Imaging apparatus | |
Siivonen et al. | Open framework for error-compensated gaze data collection with eye tracking glasses | |
CN113723155B (en) | Method and system for measuring user visual experience | |
Egorova et al. | Methodology of Researching Perception Identity of Regions of Users' Interests While Viewing Streaming Video Containing Various Content and Compression Artefacts | |
Geleijnse et al. | Edge Enhancement Optimization in Flexible Endoscopic Images to the Perception of Ear, Nose and Throat Professionals | |
JP2004274735A (en) | Imaging apparatus and image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150430 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160523 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5941764 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |