JP2012196279A - Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system - Google Patents
Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system Download PDFInfo
- Publication number
- JP2012196279A JP2012196279A JP2011061522A JP2011061522A JP2012196279A JP 2012196279 A JP2012196279 A JP 2012196279A JP 2011061522 A JP2011061522 A JP 2011061522A JP 2011061522 A JP2011061522 A JP 2011061522A JP 2012196279 A JP2012196279 A JP 2012196279A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- attention
- eye movement
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001747 pupil Anatomy 0.000 claims abstract description 52
- 230000004424 eye movement Effects 0.000 claims description 54
- 238000005259 measurement Methods 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 26
- 238000009826 distribution Methods 0.000 claims description 22
- 210000001508 eye Anatomy 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 15
- 238000013500 data storage Methods 0.000 claims description 12
- 230000002123 temporal effect Effects 0.000 claims description 12
- 241000287181 Sturnus vulgaris Species 0.000 claims 1
- 210000005252 bulbus oculi Anatomy 0.000 abstract description 6
- 238000009499 grossing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Abstract
Description
本発明は、注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムに係り、更に詳しくは、画像を見ている対象者が当該画像の所定部分を意識的に見ていたか否かについて、自動判定することのできる注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムに関する。 The present invention relates to an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system. More specifically, a subject who is viewing an image consciously recognizes a predetermined portion of the image. The present invention relates to an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system that can automatically determine whether or not the user is watching.
視聴者が表示画像のどの部分に注目しているかを特定するシステムとして、特許文献1のシステムが提案されている。このシステムは、所定の画像を表示する表示手段と、表示手段を見ている視聴者の自画像を撮影するインカメラと、インカメラで撮影された画像から、視聴者の視線の抽出を行って視聴者が表示画像のどこを見ているか検出する画像処理部とを備えている。 As a system for identifying which part of the display image the viewer is paying attention to, the system of Patent Document 1 has been proposed. This system includes a display unit that displays a predetermined image, an in-camera that captures a self-portrait of the viewer watching the display unit, and a viewer's line of sight extracted from the image captured by the in-camera. And an image processing unit for detecting where the person is looking in the display image.
現在、テレビやインターネット等によって様々な動画が配信されているが、当該動画内で視聴者の視線が注がれる部位である注視点の位置を特定する他に、当該注視点を視聴者が意識的に見ているか否かを特定することは、動画におけるコンテンツ作成効果の検証、或いは、視聴者への情報提供等に有用となる。しかしながら、前記特許文献1のシステムにあっては、表示手段で表示された画像を視聴者が見たときに、当該画像内の注視点の位置を把握できるものの、当該注視点を視聴者が意識的に見ていたのか、或いは、無意識的に漠然と見ていたのかを区別することができない。 Currently, various videos are distributed on TV, the Internet, etc. In addition to specifying the position of the point of interest, which is the part where the viewer's gaze is poured in the video, the viewer is aware of the point of interest. Specifying whether or not the user is watching is useful for verifying the content creation effect in the moving image or providing information to the viewer. However, in the system of Patent Document 1, when the viewer views the image displayed on the display unit, the viewer can recognize the position of the gazing point in the image, but the viewer is conscious of the gazing point. It is not possible to distinguish whether they were looking at the target or unconsciously and vaguely.
本発明は、このような課題に基づいて案出されたものであり、その目的は、対象者が画像を見ているときに、当該対象者が画像のどの部分を意識的に見ているかを自動的に特定することができる注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムを提供することにある。 The present invention has been devised based on such a problem, and its purpose is to determine which part of the image the subject is consciously viewing when the subject is viewing the image. An object of the present invention is to provide an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system that can be automatically specified.
前記目的を達成するため、本発明は、予め記憶された数式を用い、眼球運動データとして、対象者が見ている画像内の注視点の位置と、そのときの瞳孔径とを取得し、当該眼球運動データを取得した時刻から過去の時間における対象者の注視点及び瞳孔径に関する経時的変化に基づき、対象者が見ている画像内の注視点における注目度を特定させることが主たる特徴である。 In order to achieve the above object, the present invention obtains the position of the gazing point in the image viewed by the subject and the pupil diameter at that time as eye movement data using a mathematical formula stored in advance. The main feature is to specify the degree of attention at the gazing point in the image the subject is looking at based on the temporal changes in the gazing point and pupil diameter of the subject in the past time from the time when the eye movement data was acquired. .
本発明によれば、眼球運動データを取得した時刻から過去の時間における対象者の注視点及び瞳孔径に関する経時的変化に基づいて注目度が判定されるため、画像内の注視点の位置を特定できることはもとより、当該注視点について、対象者が凝視している状態か漠然と見ている状態かを眼球運動データを取得する度に正確に特定することができる。 According to the present invention, since the degree of attention is determined based on the temporal change in the subject's gaze point and pupil diameter in the past time from the time when the eye movement data was acquired, the position of the gaze point in the image is specified. In addition to what can be done, it is possible to accurately specify whether the subject is staring or vaguely for each gaze point each time eye movement data is acquired.
以下、本発明の実施形態について図面を参照しながら説明する。
(第1実施形態)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
図1には、第1実施形態に係る注目度検出システムの概略構成図が示されている。この図において、前記注目度検出システム10は、画像を表示可能な表示装置12と、表示装置12に表示された画像を見ている対象者の眼球運動データを取得する眼球運動計測装置13と、眼球運動計測装置13で取得した眼球運動データから、対象者が画像のどの部分を注目して見ているか否かについて判定する注目度判定装置14とを備えている。
FIG. 1 shows a schematic configuration diagram of an attention level detection system according to the first embodiment. In this figure, the attention level detection system 10 includes a
前記表示装置12は、テレビ電波やインターネット等によって配信された動画を表示可能な画面を備えたテレビ受信装置や端末装置、或いは、所定の記憶媒体に記録された動画を再生可能な画面を備えた再生装置等の公知の装置からなる。この表示装置12の構成は、本発明の本質部分でないため、詳細な説明を省略する。
The
前記眼球運動計測装置13は、眼球運動データとして、表示装置12に表示される画像の中で対象者の視線が注がれている部位となる注視点の位置と、画像を見ている対象者の瞳孔径とを少なくとも計測可能な公知の装置からなる。この眼球運動計測装置13では、表示装置12で表示された動画における所定時間毎の各フレームについて、当該フレーム内の注視点の位置を表す注視点座標と瞳孔径とがそれぞれ眼球運動データとして計測される。この眼球運動データは、当該データを得たときのフレームの画像データに対応させて注目度判定装置14に送信される。本実施形態の眼球運動計測装置13は、対象者の左右両眼の注視点座標及び瞳孔径を取得可能となる両眼タイプのものが適用されているが、本発明はこれに限らず、左右何れか一方の眼の注視点座標及び瞳孔径を取得可能な単眼タイプのものを適用することもできる。なお、眼球運動計測装置13の構成も、本発明の本質部分でないため、詳細な説明を省略する。
The eye
前記注目度判定装置14は、CPU等の演算処理装置、メモリ、ハードディスク等の記憶装置等からなるコンピュータを含んで構成され、当該コンピュータに以下の処理を実行させるためのプログラムがインストールされている。
The attention
すなわち、この注目度判定装置14は、眼球運動計測装置13で計測された眼球運動データ及び当該眼球運動データに対応する画像データを逐次受信して記憶するデータ記憶部16と、予め記憶された数式を用いた演算により、データ記憶部16からの眼球運動データに基づいて、対象者が各フレームの注視点を意識的に見ているか否かを判定する演算判定部17とを備えている。
That is, the attention
前記演算判定部17では、次のようにして、所定時間毎の各フレームについて、そのときの眼球運動データから、対象者の注視点について、意識的に見ているか否か、すなわち、注目度が高いか否かを自動的に判定するようになっている。
In the
先ず、注視点の経時的変化に着目した指標値を求める注視点演算処理が以下の手順で行われる。 First, a gaze point calculation process for obtaining an index value focusing on a temporal change of a gaze point is performed according to the following procedure.
すなわち、先ず、時刻t=iのフレームにおける対象者の左眼の注視点座標(xi L,yi L)と同右眼の注視点座標(xi R,yi R)とから、時刻t=iにおける左右両眼の注視点間距離δiが、次式によって求められる。
ここで、得られた注視点間距離δiに対し、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、サンプル数が予め設定されたN個となるように、現時刻t=iから順に過去に遡った各時刻、すなわち、時刻t=i−1、時刻t=i−2、時刻t=i−3、・・・、時刻t=i−(N−2)、時刻t=i−(N−1)の各時刻における左右両眼の注視点間距離δiの時間移動平均δi Nが、次式で求められる。
この時間移動平均δi Nは、注視点座標の測定開始からN個のサンプルが得られた後、注視点座標が測定された時刻毎に求められ、データ記憶部16に記憶される。
The time moving average δ i N is obtained every time when the gazing point coordinates are measured after N samples are obtained from the start of the gazing point coordinates measurement, and is stored in the
なお、本実施形態では、各時刻の注視点間距離δiに対し、ローパスフィルタリングを行っていることになるが、注視点間距離δiのノイズを除去可能な他のフィルタを代わりに採用することもできる。 Incidentally, in the present embodiment, the distance [delta] i between the fixation point at each time, but will be doing pass filtering is employed instead fixation point distance [delta] i other filter capable of removing noise You can also.
次に、以上で求めた時間移動平均δi Nについて、サンプル点が予め設定されたM個となるように、現時刻t=iから過去に順に遡った各時刻、すなわち、時刻t=i−1から時刻t=i−(M−1)までの各時刻における両眼の時間移動平均δi M及びその標準偏差σi δが、注視点座標が測定された時刻毎に次式によって求められ、データ記憶部16に記憶される。
また、以上の注視点演算処理に対して前後或いは同時に、瞳孔径の経時的変化に着目した指標値を求める瞳孔径演算処理が、以下の手順によって行われる。 Further, the pupil diameter calculation process for obtaining an index value focusing on the temporal change of the pupil diameter is performed by the following procedure before, after, or simultaneously with the above gaze point calculation process.
時刻t=iのときのフレームを見ている対象者の左眼の瞳孔径di Lと同右眼の瞳孔径di Rとから、左右両眼の平均瞳孔径について、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、注視点間距離δiの時間移動平均δi Nを求めた前述の演算と同様、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における左右両眼の平均瞳孔径についての時間移動平均di Nが、次式で求められる。
ここでの時間移動平均di Nについても、前述の注視点座標に関する演算のときと同様に、瞳孔径の測定開始からN個のサンプルが得られた後、瞳孔径の測定時刻毎に求められ、データ記憶部16に記憶される。なお、前述と同様に、左右両眼の平均瞳孔径のノイズを除去可能であれば、他のフィルタを代わりに採用することもできる。
The time moving average d i N here is also obtained at every measurement time of the pupil diameter after N samples are obtained from the start of the pupil diameter measurement, as in the above-described calculation regarding the gazing point coordinates. Is stored in the
次に、以上で求めた時間移動平均di Nについて、サンプル点が予め設定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における平均瞳孔径についての時間移動平均di M及びその標準偏差σi dが、瞳孔径の測定時刻毎に次式によって求められ、データ記憶部16に記憶される。
その後、前記注視点演算処理及び瞳孔径演算処理で求めた各指標値に基づき、眼球運動データが取得されたフレーム毎に、以下の注目度判定処理が行われる。 Thereafter, the following attention level determination process is performed for each frame in which the eye movement data is acquired based on the index values obtained in the gaze point calculation process and the pupil diameter calculation process.
すなわち、先ず、現時刻t=iの平均瞳孔径diと、当該現時刻t=iを含めて過去に遡ったM個サンプルの中で最も過去の時刻t=i−(M−1)の平均瞳孔径di−M+1との経時的変化に基づく以下の各場合分けにより、数値λiが測定時刻毎に決定される。
先ず、現時刻において、過去に比べて対象者の瞳孔が収縮していると判断される第1の場合、つまり、di−M+1−di M>0で、且つ、di−di M<0で、且つ、σi d>Tdの場合には、λi=1とされる。
ここで、Tdは、実験等によって予め定められた一定の閾値であり、この閾値による判別処理(σi d>Td)は、細かな瞳孔径の変化を除外するためのフィルタの役割を果たしている。
That is, first, the average pupil diameter d i at the current time t = i and the most recent time t = i− (M−1) among the M samples retroactively including the current time t = i. The numerical value λ i is determined for each measurement time by the following case classification based on the change with time of the average pupil diameter d i−M + 1 .
First, in the first case where it is determined that the pupil of the subject is contracted compared to the past at the current time, that is, di −M + 1− d i M > 0 and d i −d i M If <0 and σ i d > T d , then λ i = 1.
Here, T d is a constant threshold value determined in advance by experiments or the like, and the discrimination process (σ i d > T d ) based on this threshold value plays a role of a filter for excluding fine changes in pupil diameter. Plays.
一方、現時刻において、過去に比べて対象者の瞳孔が拡大していると判断される第2の場合、つまり、di−M+1−di M<0で、且つ、di−di M>0で、且つ、σi d>Tdの場合には、λi=−1とされる。 On the other hand, in the second case in which it is determined that the pupil of the subject is enlarged compared to the past at the current time, that is, di −M + 1− d i M <0 and d i− d i M. If> 0 and σ i d > T d , then λ i = -1.
更に、第1及び第2の場合の何れにも該当しない場合、すなわち、前時刻より状況が変わっていないような場合、λiの値は、前回の時刻t=i−1のときの数値λi−1と同一とされる。 Furthermore, when neither of the first and second cases is applicable, that is, when the situation has not changed from the previous time, the value of λ i is the numerical value λ at the previous time t = i−1. It is the same as i-1 .
以上の場合分けによって、前記第1の場合が各時刻で連続すると、その時間帯は、対象者が注視点を意識的に見ていると思われる注目時間となり、第1の場合の開始時刻及び終了時刻が、前記注目時間の開始及び終了となる。 According to the above case classification, when the first case continues at each time, the time zone becomes an attention time that the target person seems to be consciously watching the gaze point, and the start time in the first case and The end time becomes the start and end of the attention time.
次いで、数値λi=1となる注目時間内の時刻t=iのときに、先に求めた注視点間距離の時間移動平均δi M及びその標準偏差σi δが以下の条件を満たしたときに、時刻t=iで対象者が注視点を意識的に見ていたと判定される。
すなわち、λi=1で、且つ、δi M<Tδで、且つ、σi M<Tσのときは、時刻t=iのときのフレーム内の注視点において、対象者の注目度が高いと判定される。ここで、Tδ、Tσは、実験等によって予め定められた一定の閾値である。すなわち、ここでは、経時的な注視点間距離とそのばらつきとが、前記閾値よりも小さいときは、注視点を凝視していると判定される。
Next, at time t = i within the attention time when the numerical value λ i = 1, the temporal moving average δ i M of the distance between the gazing points obtained previously and its standard deviation σ i δ satisfy the following conditions: Sometimes, it is determined that the subject is consciously watching the point of gaze at time t = i.
That is, when λ i = 1, δ i M <T δ , and σ i M <T σ , the attention level of the subject at the point of interest in the frame at time t = i is Determined to be high. Here, T δ and T σ are constant threshold values determined in advance by experiments or the like. In other words, here, when the distance between the gazing points over time and the variation thereof are smaller than the threshold value, it is determined that the gazing point is stared.
眼球運動計測装置13として単眼タイプのものが適用されたときには、前記演算判定部17では、以下の手順により、眼球運動データが得られたフレーム毎に注視点での対象者の注目度が判定される。
When a monocular type device is applied as the eye
このときの前記注視点演算処理は、以下の手順で行われる。先ず、各時刻で得られた眼の注視点座標について、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、時刻t=iのフレームにおける対象者の眼の注視点座標を(xi,yi)としたときに、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における注視点座標の時間移動平均座標値xi N、yi Nが、次式で求められる。
この時間移動平均座標値xi N、yi Nは、注視点座標の測定開始からN個のサンプルが得られた後、注視点座標が測定された時刻毎に求められ、データ記憶部16に記憶される。なお、ここでは、各時刻の注視点座標(xi,yi)に対し、ローパスフィルタリングを行っていることになるが、注視点座標(xi,yi)のノイズを除去可能となる限りにおいて、他のフィルタを代わりに採用することもできる。
The time moving average coordinate values x i N and y i N are obtained every time when the gazing point coordinates are measured after N samples are obtained from the start of the gazing point coordinates measurement, and are stored in the
次に、以上で求めた時間移動平均座標値xi N、yi Nについて、サンプル点が予め設定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における注視点座標の時間移動平均座標値xi M、yi Mと、それらの標準偏差σi x、σi yとが、注視点座標の測定時刻毎に次式によって求められ、データ記憶部16に記憶される。
また、眼球運動計測装置13が単眼タイプのときの前記瞳孔径演算処理は、以下の手順で行われる。
The pupil diameter calculation process when the eye
時刻t=iのときに、フレームを見ている対象者の眼の瞳孔径をdiとしたときに、当該瞳孔径diについて、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、前述と同様、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における瞳孔径diについての時間移動平均di Nが、次式で求められる。
この時間移動平均di Nについても、前述と同様に、瞳孔径の座標の測定開始からN個のサンプルが得られた後、測定時刻毎に求められ、データ記憶部16に記憶される。なお、ここでも、瞳孔径をdiのノイズを除去可能であれば、前述と同様、他のフィルタを代わりに採用することもできる。
At time t = i, the pupil diameter of the subject's eye looking at the frame when the d i, for the pupil diameter d i, the smoothing filter process for removing noise is performed. Specifically, as described above, the pupil diameter d i at each time from the current time t = i to the past time t = i− (N−1) so that the number of samples is set to N in advance. time moving average d i N for is obtained by the following equation.
This time moving average d i N is also obtained at every measurement time after N samples are obtained from the start of the measurement of the coordinates of the pupil diameter, and stored in the
次に、以上で求めた時間移動平均di Nについて、サンプル点が予め決定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における瞳孔径についての時間移動平均di M及びその標準偏差σi dが、瞳孔径の測定時刻毎に、次式によって求められ、データ記憶部16に記憶される。
次に、眼球運動計測装置13が単眼タイプのときの前記注目度判定処理は、以上の注視点演算処理及び瞳孔径演算処理の後で、眼球運動データが取得されたフレーム毎に次のように行われる。
Next, the degree-of-interest determination processing when the eye
すなわち、先ず、現時刻t=iの瞳孔径diと、当該現時刻t=iを含めて過去遡ったM個サンプルの中で最も過去になる時刻t=i−(M−1)の瞳孔径di−M+1との経時的変化に基づき、前述の両眼タイプの場合と同様に、数値λiが測定時刻毎に決定される。
すなわち、前述の両眼タイプで説明した第1の場合の条件式に該当するときには、λi=1とされ、同第2の場合の条件式に該当するときには、λi=−1とされる。また、これら何れの場合にも該当しないときには、λiの値が、前回の時刻t=i−1のときの数値λi−1と同一とされる。
That is, first, the pupil diameter d i at the current time t = i and the pupil at the time t = i− (M−1), which is the past in the past M samples including the current time t = i. Based on the change over time with the diameter d i−M + 1 , the numerical value λ i is determined for each measurement time, as in the case of the above binocular type.
That is, λ i = 1 when the conditional expression in the first case described in the above binocular type is satisfied, and λ i = −1 when the conditional expression in the second case is satisfied. . Also, if otherwise, in any case these, lambda value of i is the same as numerical lambda i-1 when the last time t = i-1.
次いで、数値λi=1となる注目時間内の時刻t=iのときに、先に求めた注視点座標の標準偏差σi x、σi yが以下の条件を満たしたときに、対象者が、時刻t=iのときに注視点を意識的に見ていたと判定される。 Next, when the standard deviation σ i x , σ i y of the gaze point coordinates obtained previously satisfies the following conditions at time t = i within the attention time at which the numerical value λ i = 1, the target person However, it is determined that the gaze point was consciously viewed at time t = i.
すなわち、λi=1で、且つ、σi x<Txで、且つ、σi y<Tyのときは、時刻t=iのときのフレーム内の注視点において、対象者の注目度が高いと判定される。なお、Tx、Tyは、実験等によって予め定められた一定の閾値である。 That is, when λ i = 1, σ i x <T x , and σ i y <T y , the attention level of the subject at the gaze point in the frame at time t = i is Determined to be high. Note that T x and T y are constant threshold values determined in advance by experiments or the like.
なお、前記実施形態では、各フレームの注視点において対象者の注目度が高いか否かを判定しているが、前述した各閾値を段階的に設定することで、各フレームの注視点における注目度を数値化して特定することも可能である。 In the above-described embodiment, it is determined whether or not the attention level of the target person is high at the gazing point of each frame. However, by setting each of the above-described thresholds in steps, attention is paid to the gazing point of each frame. It is also possible to specify the degree numerically.
次に、本発明の他の実施形態について説明する。なお、以下の説明において、前記第1実施形態と同一若しくは同等の構成部分については同一符号を用いるものとし、説明を省略若しくは簡略にする。
(第2実施形態)
Next, another embodiment of the present invention will be described. In the following description, the same reference numerals are used for the same or equivalent components as in the first embodiment, and the description is omitted or simplified.
(Second Embodiment)
本実施形態は、第1実施形態の注目度検出システム10を含んで構成した画像配信システム50に関する。 The present embodiment relates to an image distribution system 50 configured to include the attention level detection system 10 of the first embodiment.
前記画像配信システム50は、前記表示装置12及び前記眼球運動計測装置13を含む複数のクライアント側装置51と、インターネット等のネットワークを介してクライアント側装置51に接続され、クライアント側装置51に対して各種情報の送受信を行うとともに、各種のデータ処理を行うサーバ52とを備えている。
The image distribution system 50 is connected to a plurality of client-
前記サーバ52は、各クライアント側装置51に、動画を含む各種画像及び当該画像の付随情報を配信する画像配信装置54と、各対象者が画像を見たときに、各クライアント側装置51の眼球運動計測装置13から得られた各対象者の眼球運動データから、所定時間毎のフレームにおける各対象者の注視点の注目度判定を行う前記注目度判定装置14と、各対象者の注目度の判定結果をフレーム毎に集計し、当該集計結果を動画の付随情報の一つとして画像配信装置54に送信するデータ集計処理装置56とを備えて構成されている。
The server 52 distributes various images including moving images and accompanying information of the images to each client-
前記データ集計処理装置56では、画像配信装置54で各クライアント側装置51に配信された動画を見た各対象者それぞれから得られた眼球運動データに基づき、注目度判定装置14で、前記第1実施形態で説明した手順により注目度が高いと判定された注視点につき、フレーム毎に投票され、当該フレーム毎に注目度の確率分布となる時系列の尤度分布データが作成されるようになっている。当該尤度分布データの作成に際しては、公知の統計学的手法が用いられる。また、データ集計処理装置56では、前記尤度分布データが作成されると、当該尤度分布データの値に応じて、対応するフレームの各ピクセルに対し、色分けし、或いは、解像度を変化させること等により、前記動画を構成する原画像データに対して各ユーザの注目度に関する情報が重畳された二次画像データが作成される。当該二次画像データは、動画に付随する情報として、画像配信装置54から各クライアント側装置51に配信される。
In the data totalization processing device 56, the attention
なお、時系列で形成された前記尤度分布データを各クライアント側装置51に配信する際に、各時刻における尤度分布データにつき、各種の近似的要素分解手法を用いてデータ圧縮処理を行い、各クライアント側装置51への通信量の削減を行うことが好ましい。ここでの近似的要素分解手法としては、例えば、GMM(Gaussian Mixture Model)を用いて所定個の正規分布に分解する手法の他、フーリエ変換等の直交変換後のフィルタリング、又は、ウエーブレット変換を用いた手法等の公知の手法が挙げられる。
In addition, when distributing the likelihood distribution data formed in time series to each client-
その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。 In addition, the configuration of each part of the apparatus in the present invention is not limited to the illustrated configuration example, and various modifications are possible as long as substantially the same operation is achieved.
10 注目度検出システム
12 表示装置
13 眼球運動計測装置
14 注目度判定装置
16 データ記憶部
17 演算判定部
50 画像配信システム
51 クライアント側装置
52 サーバ
54 画像配信装置
56 データ集計処理装置
DESCRIPTION OF SYMBOLS 10 Attention
Claims (8)
前記眼球運動計測装置は、前記眼球運動データとして、前記画像内の注視点の位置と瞳孔径とを少なくとも取得可能に設けられ、
前記注目度判定装置では、予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づいて前記注目度が特定されることを特徴とする注目度検出システム。 A display device that displays an image, an eye movement measurement device that acquires eye movement data of a subject who is viewing the image displayed on the display device every predetermined time, and eye movement data acquired by the eye movement measurement device From the attention level detection system comprising an attention level determination device that determines the level of attention of the subject in the image,
The eye movement measuring device is provided as the eye movement data so that at least the position of the gazing point and the pupil diameter in the image can be acquired,
In the degree-of-interest determination device, the degree of attention is calculated based on temporal changes in the gazing point and the pupil diameter in the past time from the time in units of time when the eye movement data is acquired using a mathematical formula stored in advance. Attention level detection system characterized by being identified.
前記注目度判定装置では、前記両眼の注視点間距離と前記両眼の平均瞳孔径との経時的変化に基づいて、前記対象者が前記注視点を意識的に見ていたか否かが判定されることを特徴とする請求項1、2又は3記載の注目度検出システム。 The eye movement measurement device is provided so as to be able to acquire eye movement data of both eyes of the subject,
In the attention level determination device, it is determined whether or not the subject has consciously looked at the gazing point based on a temporal change in the distance between the gazing points of both eyes and the average pupil diameter of the both eyes. The attention level detection system according to claim 1, 2 or 3.
前記注目度判定装置では、前記眼の注視点座標と前記眼の瞳孔径との経時的変化に基づいて、前記対象者が前記注視点を意識的に見ていたか否かが判定されることを特徴とする請求項1、2又は3記載の注目度検出システム。 The eye movement measurement device is provided so as to be able to acquire eye movement data of either the left or right eye of the subject,
In the degree-of-attention determination device, it is determined whether or not the subject has consciously looked at the gazing point based on a temporal change in the eye gazing point coordinates and the pupil diameter of the eye. The attention level detection system according to claim 1, 2, or 3.
前記眼球運動データとして、前記画像内の注視点の位置と瞳孔径とを記憶するデータ記憶部と、
予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づき、前記注目度を特定する演算判定部とを備えたことを特徴とする注目度判定装置。 An attention level determination device that determines a degree of attention of a subject in the image based on eye movement data of the subject viewing the image,
As the eye movement data, a data storage unit that stores the position of the gazing point in the image and the pupil diameter;
An arithmetic determination unit that specifies the degree of attention based on a temporal change related to the gazing point and the pupil diameter in the past time from the time in a unit of time when the eye movement data is acquired using a previously stored mathematical formula; A degree-of-attention determination device characterized by comprising:
予め記憶された数式を用い、前記画像内の前記対象者の注視点に関する経時的変化に着目した指標値を求める注視点演算処理と、予め記憶された数式を用い、前記画像内の前記対象者の瞳孔径に関する経時的変化に着目した指標値を求める瞳孔径演算処理と、前記注視点演算処理及び瞳孔径演算処理で求めた各指標値に基づき、前記注目度を特定する注目度判定処理とを前記コンピュータに実行させることを特徴とする注目度判定装置用のプログラム。 A program for a degree-of-interest determination device including a computer that determines a degree of attention of a subject in the image based on eye movement data of the subject who is watching an image every predetermined time,
Using a mathematical formula stored in advance, a gaze point calculation process for obtaining an index value focusing on a change over time regarding the gaze point of the subject in the image, and using the mathematical formula stored in advance, the subject in the image A pupil diameter calculation process for obtaining an index value focusing on a change over time in the pupil diameter, and an attention degree determination process for specifying the attention degree based on each index value obtained in the gaze point calculation process and the pupil diameter calculation process The program for the degree-of-attention determination apparatus characterized by causing the computer to execute.
前記クライアント側装置は、画像を表示する表示装置と、当該表示装置に表示された画像を見ている対象者の眼球運動データを所定時間毎に取得する眼球運動計測装置とを備え、
前記眼球運動計測装置は、前記眼球運動データとして、前記画像内の注視点と瞳孔径とを少なくとも取得可能に設けられ、
前記サーバは、前記各クライアント側装置に、前記画像及び当該画像の付随情報を配信する画像配信装置と、各対象者が前記画像を見たときに前記眼球運動計測装置から得られた前記各対象者の眼球運動データから、前記各対象者それぞれについて、前記画像における注目度を判定する注目度判定装置と、当該注目度判定装置での前記各対象者の判定結果を集計し、当該集計結果を前記付随情報の一つとして前記画像配信装置に送信するデータ集計処理装置とを備え、
前記注目度判定装置では、予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づいて前記注目度が特定されることを特徴とする画像配信システム。 In an image distribution system comprising a plurality of client-side devices capable of displaying an image, and a server connected to the client-side device for transmitting and receiving various types of information including the image and performing various data processing,
The client side device includes a display device that displays an image, and an eye movement measurement device that acquires eye movement data of a subject who is viewing the image displayed on the display device at predetermined time intervals,
The eye movement measuring device is provided as the eye movement data so that at least a gazing point and a pupil diameter in the image can be acquired,
The server includes: an image distribution device that distributes the image and accompanying information of the image to each client-side device; and each target obtained from the eye movement measurement device when each target person views the image. From the eye movement data of the person, the attention level determination device that determines the degree of attention in the image for each of the target persons, and the determination results of each target person in the attention level determination apparatus are totaled, and the total result is A data totalization processing device that transmits to the image distribution device as one of the accompanying information,
In the degree-of-interest determination device, the degree of attention is calculated based on temporal changes in the gazing point and the pupil diameter in the past time from the time in units of time when the eye movement data is acquired using a mathematical formula stored in advance. An image distribution system characterized in that is specified.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011061522A JP5733658B2 (en) | 2011-03-18 | 2011-03-18 | Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011061522A JP5733658B2 (en) | 2011-03-18 | 2011-03-18 | Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012196279A true JP2012196279A (en) | 2012-10-18 |
JP5733658B2 JP5733658B2 (en) | 2015-06-10 |
Family
ID=47179155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011061522A Active JP5733658B2 (en) | 2011-03-18 | 2011-03-18 | Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5733658B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046730A (en) * | 2014-08-25 | 2016-04-04 | 学校法人早稲田大学 | Viewer attention information provision system, space-time marker setting device and program for the same, and information provision device and program for the same |
WO2017033516A1 (en) * | 2015-08-24 | 2017-03-02 | 富士フイルム株式会社 | Radiograph interpretation assistance device and method |
JP2017188715A (en) * | 2016-04-01 | 2017-10-12 | 富士通フロンテック株式会社 | Video display system and video display method |
CN110090037A (en) * | 2019-04-22 | 2019-08-06 | 深圳安泰创新科技股份有限公司 | Medical image film composition method, device, electronic equipment and readable storage medium storing program for executing |
CN112331003A (en) * | 2021-01-06 | 2021-02-05 | 湖南贝尔安亲云教育有限公司 | Exercise generation method and system based on differential teaching |
CN113271852A (en) * | 2019-01-21 | 2021-08-17 | 三菱电机株式会社 | Attention determination device, attention determination system, attention determination method, and program |
CN116091132A (en) * | 2023-04-06 | 2023-05-09 | 深圳市亲邻科技有限公司 | Advertisement putting effect determining method, device, medium and equipment |
CN116719418A (en) * | 2023-08-09 | 2023-09-08 | 湖南马栏山视频先进技术研究院有限公司 | Method and device for checking gaze point prediction model |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002367100A (en) * | 2001-06-12 | 2002-12-20 | Nissan Motor Co Ltd | Device for detecting driver condition |
JP2004282471A (en) * | 2003-03-17 | 2004-10-07 | Media Glue Corp | Evaluation device for video image content |
JP2006277192A (en) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Image display system |
JP2009005094A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | Mobile terminal |
JP2009232945A (en) * | 2008-03-26 | 2009-10-15 | Toyota Motor Corp | Apparatus for detecting driver's condition and method for detecting state of consciousness |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
JP2010268900A (en) * | 2009-05-20 | 2010-12-02 | Kitasato Institute | Method of measuring diameter of pupil and pupillometer |
-
2011
- 2011-03-18 JP JP2011061522A patent/JP5733658B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002367100A (en) * | 2001-06-12 | 2002-12-20 | Nissan Motor Co Ltd | Device for detecting driver condition |
JP2004282471A (en) * | 2003-03-17 | 2004-10-07 | Media Glue Corp | Evaluation device for video image content |
JP2006277192A (en) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Image display system |
JP2009005094A (en) * | 2007-06-21 | 2009-01-08 | Mitsubishi Electric Corp | Mobile terminal |
JP2009232945A (en) * | 2008-03-26 | 2009-10-15 | Toyota Motor Corp | Apparatus for detecting driver's condition and method for detecting state of consciousness |
JP2010094493A (en) * | 2008-09-22 | 2010-04-30 | Koichi Kikuchi | System for deciding viewer's feeling on viewing scene |
JP2010268900A (en) * | 2009-05-20 | 2010-12-02 | Kitasato Institute | Method of measuring diameter of pupil and pupillometer |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016046730A (en) * | 2014-08-25 | 2016-04-04 | 学校法人早稲田大学 | Viewer attention information provision system, space-time marker setting device and program for the same, and information provision device and program for the same |
WO2017033516A1 (en) * | 2015-08-24 | 2017-03-02 | 富士フイルム株式会社 | Radiograph interpretation assistance device and method |
JPWO2017033516A1 (en) * | 2015-08-24 | 2018-06-07 | 富士フイルム株式会社 | Interpretation support apparatus and method |
US10456072B2 (en) | 2015-08-24 | 2019-10-29 | Fujifilm Corporation | Image interpretation support apparatus and method |
JP2017188715A (en) * | 2016-04-01 | 2017-10-12 | 富士通フロンテック株式会社 | Video display system and video display method |
CN113271852A (en) * | 2019-01-21 | 2021-08-17 | 三菱电机株式会社 | Attention determination device, attention determination system, attention determination method, and program |
CN110090037A (en) * | 2019-04-22 | 2019-08-06 | 深圳安泰创新科技股份有限公司 | Medical image film composition method, device, electronic equipment and readable storage medium storing program for executing |
CN112331003A (en) * | 2021-01-06 | 2021-02-05 | 湖南贝尔安亲云教育有限公司 | Exercise generation method and system based on differential teaching |
CN112331003B (en) * | 2021-01-06 | 2021-03-23 | 湖南贝尔安亲云教育有限公司 | Exercise generation method and system based on differential teaching |
CN116091132A (en) * | 2023-04-06 | 2023-05-09 | 深圳市亲邻科技有限公司 | Advertisement putting effect determining method, device, medium and equipment |
CN116719418A (en) * | 2023-08-09 | 2023-09-08 | 湖南马栏山视频先进技术研究院有限公司 | Method and device for checking gaze point prediction model |
CN116719418B (en) * | 2023-08-09 | 2023-10-27 | 湖南马栏山视频先进技术研究院有限公司 | Method and device for checking gaze point prediction model |
Also Published As
Publication number | Publication date |
---|---|
JP5733658B2 (en) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5733658B2 (en) | Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system | |
Ghadiyaram et al. | A subjective and objective study of stalling events in mobile streaming videos | |
Ghadiyaram et al. | In-capture mobile video distortions: A study of subjective behavior and objective algorithms | |
Le Meur et al. | Overt visual attention for free-viewing and quality assessment tasks: Impact of the regions of interest on a video quality metric | |
Li et al. | Content-weighted video quality assessment using a three-component image model | |
JP2007265125A (en) | Content display | |
CN110866450B (en) | Parkinson disease monitoring method and device and storage medium | |
CN113554597B (en) | Image quality evaluation method and device based on electroencephalogram characteristics | |
CA3089584C (en) | Techniques for predicting perceptual video quality based on complementary perceptual quality models | |
US10085015B1 (en) | Method and system for measuring visual quality of a video sequence | |
KR101595546B1 (en) | Apparatus, method and program for measuring visual fatigue | |
JP5775837B2 (en) | Interest degree estimation apparatus, method and program | |
JP2006020131A (en) | Device and method for measuring interest level | |
JP2014050649A (en) | Feebleness evaluation device, feebleness evaluation method, and program | |
Ghadiyaram et al. | Subjective and objective quality assessment of mobile videos with in-capture distortions | |
Zeng et al. | Perceptual evaluation of image denoising algorithms | |
Oh et al. | Blind sharpness prediction based on image-based motion blur analysis | |
US20160196576A1 (en) | Systems, devices, and methods of measuring an advertising campaign | |
Valeriani et al. | Augmenting group performance in target-face recognition via collaborative brain-computer interfaces for surveillance applications | |
Mahmoudpour et al. | Omnidirectional video quality index accounting for judder | |
JP5470302B2 (en) | Group action determination apparatus, method, and program | |
Albanesi et al. | A new algorithm for objective video quality assessment on eye tracking data | |
JP2018026692A (en) | Work support system, imaging apparatus, and display device | |
Hadizadeh | Visual saliency in video compression and transmission | |
CN109194981B (en) | Remote video tracking method, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150403 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5733658 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |