JP2012196279A - Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system - Google Patents

Attention degree detecting system, attention degree determination device, program for attention degree determination device, and image delivery system Download PDF

Info

Publication number
JP2012196279A
JP2012196279A JP2011061522A JP2011061522A JP2012196279A JP 2012196279 A JP2012196279 A JP 2012196279A JP 2011061522 A JP2011061522 A JP 2011061522A JP 2011061522 A JP2011061522 A JP 2011061522A JP 2012196279 A JP2012196279 A JP 2012196279A
Authority
JP
Japan
Prior art keywords
image
time
attention
eye movement
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011061522A
Other languages
Japanese (ja)
Other versions
JP5733658B2 (en
Inventor
Sota Shimizu
創太 清水
Takumi Hashizume
匠 橋詰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2011061522A priority Critical patent/JP5733658B2/en
Publication of JP2012196279A publication Critical patent/JP2012196279A/en
Application granted granted Critical
Publication of JP5733658B2 publication Critical patent/JP5733658B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To automatically specify, when an object person watches an image, which part of the image the object person intentionally watches.SOLUTION: This attention degree detecting system 10 includes: a display device 12 for displaying an image; an eyeball movement measuring device 13 for acquiring for each prescribed time, eyeball movement data of the object person who watches the image displayed on the display device 12; and an attention degree determination device 14 for determining an attention degree of the object person in the image based on the eyeball movement data acquired by the eyeball movement measuring device 13. The attention degree determination device 14 specifies the attention degree using a prestored mathematical expression at a time unit when a position of a watch point in the image and a pupil diameter are acquired as the eyeball movement data, based on a time course related to the watch point and the pupil diameter in a past time from the time.

Description

本発明は、注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムに係り、更に詳しくは、画像を見ている対象者が当該画像の所定部分を意識的に見ていたか否かについて、自動判定することのできる注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムに関する。   The present invention relates to an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system. More specifically, a subject who is viewing an image consciously recognizes a predetermined portion of the image. The present invention relates to an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system that can automatically determine whether or not the user is watching.

視聴者が表示画像のどの部分に注目しているかを特定するシステムとして、特許文献1のシステムが提案されている。このシステムは、所定の画像を表示する表示手段と、表示手段を見ている視聴者の自画像を撮影するインカメラと、インカメラで撮影された画像から、視聴者の視線の抽出を行って視聴者が表示画像のどこを見ているか検出する画像処理部とを備えている。   As a system for identifying which part of the display image the viewer is paying attention to, the system of Patent Document 1 has been proposed. This system includes a display unit that displays a predetermined image, an in-camera that captures a self-portrait of the viewer watching the display unit, and a viewer's line of sight extracted from the image captured by the in-camera. And an image processing unit for detecting where the person is looking in the display image.

特開2009−5094号公報JP 2009-5094 A

現在、テレビやインターネット等によって様々な動画が配信されているが、当該動画内で視聴者の視線が注がれる部位である注視点の位置を特定する他に、当該注視点を視聴者が意識的に見ているか否かを特定することは、動画におけるコンテンツ作成効果の検証、或いは、視聴者への情報提供等に有用となる。しかしながら、前記特許文献1のシステムにあっては、表示手段で表示された画像を視聴者が見たときに、当該画像内の注視点の位置を把握できるものの、当該注視点を視聴者が意識的に見ていたのか、或いは、無意識的に漠然と見ていたのかを区別することができない。   Currently, various videos are distributed on TV, the Internet, etc. In addition to specifying the position of the point of interest, which is the part where the viewer's gaze is poured in the video, the viewer is aware of the point of interest. Specifying whether or not the user is watching is useful for verifying the content creation effect in the moving image or providing information to the viewer. However, in the system of Patent Document 1, when the viewer views the image displayed on the display unit, the viewer can recognize the position of the gazing point in the image, but the viewer is conscious of the gazing point. It is not possible to distinguish whether they were looking at the target or unconsciously and vaguely.

本発明は、このような課題に基づいて案出されたものであり、その目的は、対象者が画像を見ているときに、当該対象者が画像のどの部分を意識的に見ているかを自動的に特定することができる注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システムを提供することにある。   The present invention has been devised based on such a problem, and its purpose is to determine which part of the image the subject is consciously viewing when the subject is viewing the image. An object of the present invention is to provide an attention level detection system, an attention level determination device, a program for an attention level determination device, and an image distribution system that can be automatically specified.

前記目的を達成するため、本発明は、予め記憶された数式を用い、眼球運動データとして、対象者が見ている画像内の注視点の位置と、そのときの瞳孔径とを取得し、当該眼球運動データを取得した時刻から過去の時間における対象者の注視点及び瞳孔径に関する経時的変化に基づき、対象者が見ている画像内の注視点における注目度を特定させることが主たる特徴である。   In order to achieve the above object, the present invention obtains the position of the gazing point in the image viewed by the subject and the pupil diameter at that time as eye movement data using a mathematical formula stored in advance. The main feature is to specify the degree of attention at the gazing point in the image the subject is looking at based on the temporal changes in the gazing point and pupil diameter of the subject in the past time from the time when the eye movement data was acquired. .

本発明によれば、眼球運動データを取得した時刻から過去の時間における対象者の注視点及び瞳孔径に関する経時的変化に基づいて注目度が判定されるため、画像内の注視点の位置を特定できることはもとより、当該注視点について、対象者が凝視している状態か漠然と見ている状態かを眼球運動データを取得する度に正確に特定することができる。   According to the present invention, since the degree of attention is determined based on the temporal change in the subject's gaze point and pupil diameter in the past time from the time when the eye movement data was acquired, the position of the gaze point in the image is specified. In addition to what can be done, it is possible to accurately specify whether the subject is staring or vaguely for each gaze point each time eye movement data is acquired.

第1実施形態に係る注目度検出システムの概略構成図。1 is a schematic configuration diagram of an attention level detection system according to a first embodiment. 第2実施形態に係る画像配信システムの概略構成図。The schematic block diagram of the image delivery system which concerns on 2nd Embodiment.

以下、本発明の実施形態について図面を参照しながら説明する。
(第1実施形態)
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)

図1には、第1実施形態に係る注目度検出システムの概略構成図が示されている。この図において、前記注目度検出システム10は、画像を表示可能な表示装置12と、表示装置12に表示された画像を見ている対象者の眼球運動データを取得する眼球運動計測装置13と、眼球運動計測装置13で取得した眼球運動データから、対象者が画像のどの部分を注目して見ているか否かについて判定する注目度判定装置14とを備えている。   FIG. 1 shows a schematic configuration diagram of an attention level detection system according to the first embodiment. In this figure, the attention level detection system 10 includes a display device 12 that can display an image, an eye movement measurement device 13 that acquires eye movement data of a subject who is viewing the image displayed on the display device 12, And a degree-of-interest determination device 14 that determines which portion of the image the subject is looking at from the eye movement data acquired by the eye movement measurement device 13.

前記表示装置12は、テレビ電波やインターネット等によって配信された動画を表示可能な画面を備えたテレビ受信装置や端末装置、或いは、所定の記憶媒体に記録された動画を再生可能な画面を備えた再生装置等の公知の装置からなる。この表示装置12の構成は、本発明の本質部分でないため、詳細な説明を省略する。   The display device 12 includes a television receiver or a terminal device having a screen capable of displaying a moving image distributed by TV radio waves, the Internet, or the like, or a screen capable of reproducing a moving image recorded in a predetermined storage medium. It consists of a known device such as a playback device. Since the configuration of the display device 12 is not an essential part of the present invention, detailed description thereof is omitted.

前記眼球運動計測装置13は、眼球運動データとして、表示装置12に表示される画像の中で対象者の視線が注がれている部位となる注視点の位置と、画像を見ている対象者の瞳孔径とを少なくとも計測可能な公知の装置からなる。この眼球運動計測装置13では、表示装置12で表示された動画における所定時間毎の各フレームについて、当該フレーム内の注視点の位置を表す注視点座標と瞳孔径とがそれぞれ眼球運動データとして計測される。この眼球運動データは、当該データを得たときのフレームの画像データに対応させて注目度判定装置14に送信される。本実施形態の眼球運動計測装置13は、対象者の左右両眼の注視点座標及び瞳孔径を取得可能となる両眼タイプのものが適用されているが、本発明はこれに限らず、左右何れか一方の眼の注視点座標及び瞳孔径を取得可能な単眼タイプのものを適用することもできる。なお、眼球運動計測装置13の構成も、本発明の本質部分でないため、詳細な説明を省略する。   The eye movement measurement device 13 uses eye movement data as the eye movement data, the position of the gazing point at which the subject's line of sight is poured in the image displayed on the display device 12, and the subject viewing the image. It consists of a known device capable of measuring at least the pupil diameter. In this eye movement measurement device 13, for each frame in the moving image displayed on the display device 12, the gaze point coordinates indicating the position of the gaze point in the frame and the pupil diameter are measured as eye movement data. The The eye movement data is transmitted to the attention level determination device 14 in correspondence with the image data of the frame when the data is obtained. As the eye movement measurement device 13 of the present embodiment, a binocular type device that can acquire the gaze point coordinates and pupil diameters of the left and right eyes of the subject is applied, but the present invention is not limited thereto, A monocular type capable of acquiring the gazing point coordinates and pupil diameter of either eye can also be applied. Note that the configuration of the eye movement measurement device 13 is not an essential part of the present invention, and thus detailed description thereof is omitted.

前記注目度判定装置14は、CPU等の演算処理装置、メモリ、ハードディスク等の記憶装置等からなるコンピュータを含んで構成され、当該コンピュータに以下の処理を実行させるためのプログラムがインストールされている。   The attention level determination device 14 includes a computer including an arithmetic processing device such as a CPU and a storage device such as a memory and a hard disk, and a program for causing the computer to execute the following processing is installed.

すなわち、この注目度判定装置14は、眼球運動計測装置13で計測された眼球運動データ及び当該眼球運動データに対応する画像データを逐次受信して記憶するデータ記憶部16と、予め記憶された数式を用いた演算により、データ記憶部16からの眼球運動データに基づいて、対象者が各フレームの注視点を意識的に見ているか否かを判定する演算判定部17とを備えている。   That is, the attention level determination device 14 includes a data storage unit 16 that sequentially receives and stores the eye movement data measured by the eye movement measurement device 13 and image data corresponding to the eye movement data, and a mathematical expression stored in advance. And a calculation determination unit 17 that determines whether or not the subject is consciously watching the gazing point of each frame based on eye movement data from the data storage unit 16.

前記演算判定部17では、次のようにして、所定時間毎の各フレームについて、そのときの眼球運動データから、対象者の注視点について、意識的に見ているか否か、すなわち、注目度が高いか否かを自動的に判定するようになっている。   In the calculation determination unit 17, whether or not the subject's gaze point is consciously viewed from the eye movement data at that time for each frame at a predetermined time, that is, the degree of attention is as follows. Whether it is high or not is automatically determined.

先ず、注視点の経時的変化に着目した指標値を求める注視点演算処理が以下の手順で行われる。   First, a gaze point calculation process for obtaining an index value focusing on a temporal change of a gaze point is performed according to the following procedure.

すなわち、先ず、時刻t=iのフレームにおける対象者の左眼の注視点座標(x ,y )と同右眼の注視点座標(x ,y )とから、時刻t=iにおける左右両眼の注視点間距離δが、次式によって求められる。

Figure 2012196279
That is, first, from the gaze point coordinates (x i L , y i L ) of the left eye and the gaze point coordinates (x i R , y i R ) of the right eye in the frame at time t = i, the time t The distance δ i between the gazing points of the left and right eyes at i = i is obtained by
Figure 2012196279

ここで、得られた注視点間距離δに対し、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、サンプル数が予め設定されたN個となるように、現時刻t=iから順に過去に遡った各時刻、すなわち、時刻t=i−1、時刻t=i−2、時刻t=i−3、・・・、時刻t=i−(N−2)、時刻t=i−(N−1)の各時刻における左右両眼の注視点間距離δの時間移動平均δ が、次式で求められる。

Figure 2012196279
Here, smoothing filter processing for removing noise is performed on the obtained distance between gazing points δ i . Specifically, each time retroactively from the current time t = i, that is, time t = i−1, time t = i−2, and time so that the number of samples is N in advance. t = i-3, ···, time t = i- (N-2) , the time t = i- (N-1) time moving average [delta] of the gazing point distance [delta] i of the left and right eyes at each time of i N is obtained by the following equation.
Figure 2012196279

この時間移動平均δ は、注視点座標の測定開始からN個のサンプルが得られた後、注視点座標が測定された時刻毎に求められ、データ記憶部16に記憶される。 The time moving average δ i N is obtained every time when the gazing point coordinates are measured after N samples are obtained from the start of the gazing point coordinates measurement, and is stored in the data storage unit 16.

なお、本実施形態では、各時刻の注視点間距離δに対し、ローパスフィルタリングを行っていることになるが、注視点間距離δのノイズを除去可能な他のフィルタを代わりに採用することもできる。 Incidentally, in the present embodiment, the distance [delta] i between the fixation point at each time, but will be doing pass filtering is employed instead fixation point distance [delta] i other filter capable of removing noise You can also.

次に、以上で求めた時間移動平均δ について、サンプル点が予め設定されたM個となるように、現時刻t=iから過去に順に遡った各時刻、すなわち、時刻t=i−1から時刻t=i−(M−1)までの各時刻における両眼の時間移動平均δ 及びその標準偏差σ δが、注視点座標が測定された時刻毎に次式によって求められ、データ記憶部16に記憶される。

Figure 2012196279
Next, with respect to the time moving average δ i N obtained as described above, each time retroactively from the current time t = i, that is, time t = i−, so that there are M preset sample points. A time moving average δ i M of both eyes at each time from 1 to time t = i− (M−1) and its standard deviation σ i δ are obtained by the following equation for each time when the gaze point coordinates are measured. Is stored in the data storage unit 16.
Figure 2012196279

また、以上の注視点演算処理に対して前後或いは同時に、瞳孔径の経時的変化に着目した指標値を求める瞳孔径演算処理が、以下の手順によって行われる。   Further, the pupil diameter calculation process for obtaining an index value focusing on the temporal change of the pupil diameter is performed by the following procedure before, after, or simultaneously with the above gaze point calculation process.

時刻t=iのときのフレームを見ている対象者の左眼の瞳孔径d と同右眼の瞳孔径d とから、左右両眼の平均瞳孔径について、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、注視点間距離δの時間移動平均δ を求めた前述の演算と同様、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における左右両眼の平均瞳孔径についての時間移動平均d が、次式で求められる。

Figure 2012196279
Smoothing that removes noise from the pupil diameter d i L of the left eye and the pupil diameter d i R of the right eye of the subject viewing the frame at time t = i for the average pupil diameter of the left and right eyes Filter processing is performed. Specifically, in the same manner as the above-described calculation for obtaining the temporal moving average δ i N of the distance between gazing points δ i , the past time from the current time t = i so that the number of samples is set to N in advance. The time moving average d i N for the average pupil diameter of the left and right eyes at each time up to t = i− (N−1) is obtained by the following equation.
Figure 2012196279

ここでの時間移動平均d についても、前述の注視点座標に関する演算のときと同様に、瞳孔径の測定開始からN個のサンプルが得られた後、瞳孔径の測定時刻毎に求められ、データ記憶部16に記憶される。なお、前述と同様に、左右両眼の平均瞳孔径のノイズを除去可能であれば、他のフィルタを代わりに採用することもできる。 The time moving average d i N here is also obtained at every measurement time of the pupil diameter after N samples are obtained from the start of the pupil diameter measurement, as in the above-described calculation regarding the gazing point coordinates. Is stored in the data storage unit 16. Similar to the above, other filters can be employed instead as long as noise of the average pupil diameter of the left and right eyes can be removed.

次に、以上で求めた時間移動平均d について、サンプル点が予め設定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における平均瞳孔径についての時間移動平均d 及びその標準偏差σ が、瞳孔径の測定時刻毎に次式によって求められ、データ記憶部16に記憶される。

Figure 2012196279
Next, with respect to the time moving average d i N obtained above, each of the time points from the current time t = i to the past time t = i− (M−1) so that the number of sample points is M. The time moving average d i M and the standard deviation σ i d for the average pupil diameter at the time are obtained by the following equation for each measurement time of the pupil diameter, and stored in the data storage unit 16.
Figure 2012196279

その後、前記注視点演算処理及び瞳孔径演算処理で求めた各指標値に基づき、眼球運動データが取得されたフレーム毎に、以下の注目度判定処理が行われる。   Thereafter, the following attention level determination process is performed for each frame in which the eye movement data is acquired based on the index values obtained in the gaze point calculation process and the pupil diameter calculation process.

すなわち、先ず、現時刻t=iの平均瞳孔径dと、当該現時刻t=iを含めて過去に遡ったM個サンプルの中で最も過去の時刻t=i−(M−1)の平均瞳孔径di−M+1との経時的変化に基づく以下の各場合分けにより、数値λが測定時刻毎に決定される。
先ず、現時刻において、過去に比べて対象者の瞳孔が収縮していると判断される第1の場合、つまり、di−M+1−d >0で、且つ、d−d <0で、且つ、σ >Tの場合には、λ=1とされる。
ここで、Tは、実験等によって予め定められた一定の閾値であり、この閾値による判別処理(σ >T)は、細かな瞳孔径の変化を除外するためのフィルタの役割を果たしている。
That is, first, the average pupil diameter d i at the current time t = i and the most recent time t = i− (M−1) among the M samples retroactively including the current time t = i. The numerical value λ i is determined for each measurement time by the following case classification based on the change with time of the average pupil diameter d i−M + 1 .
First, in the first case where it is determined that the pupil of the subject is contracted compared to the past at the current time, that is, di −M + 1− d i M > 0 and d i −d i M If <0 and σ i d > T d , then λ i = 1.
Here, T d is a constant threshold value determined in advance by experiments or the like, and the discrimination process (σ i d > T d ) based on this threshold value plays a role of a filter for excluding fine changes in pupil diameter. Plays.

一方、現時刻において、過去に比べて対象者の瞳孔が拡大していると判断される第2の場合、つまり、di−M+1−d <0で、且つ、d−d >0で、且つ、σ >Tの場合には、λ=−1とされる。 On the other hand, in the second case in which it is determined that the pupil of the subject is enlarged compared to the past at the current time, that is, di −M + 1− d i M <0 and d i− d i M. If> 0 and σ i d > T d , then λ i = -1.

更に、第1及び第2の場合の何れにも該当しない場合、すなわち、前時刻より状況が変わっていないような場合、λの値は、前回の時刻t=i−1のときの数値λi−1と同一とされる。 Furthermore, when neither of the first and second cases is applicable, that is, when the situation has not changed from the previous time, the value of λ i is the numerical value λ at the previous time t = i−1. It is the same as i-1 .

以上の場合分けによって、前記第1の場合が各時刻で連続すると、その時間帯は、対象者が注視点を意識的に見ていると思われる注目時間となり、第1の場合の開始時刻及び終了時刻が、前記注目時間の開始及び終了となる。   According to the above case classification, when the first case continues at each time, the time zone becomes an attention time that the target person seems to be consciously watching the gaze point, and the start time in the first case and The end time becomes the start and end of the attention time.

次いで、数値λ=1となる注目時間内の時刻t=iのときに、先に求めた注視点間距離の時間移動平均δ 及びその標準偏差σ δが以下の条件を満たしたときに、時刻t=iで対象者が注視点を意識的に見ていたと判定される。
すなわち、λ=1で、且つ、δ <Tδで、且つ、σ <Tσのときは、時刻t=iのときのフレーム内の注視点において、対象者の注目度が高いと判定される。ここで、Tδ、Tσは、実験等によって予め定められた一定の閾値である。すなわち、ここでは、経時的な注視点間距離とそのばらつきとが、前記閾値よりも小さいときは、注視点を凝視していると判定される。
Next, at time t = i within the attention time when the numerical value λ i = 1, the temporal moving average δ i M of the distance between the gazing points obtained previously and its standard deviation σ i δ satisfy the following conditions: Sometimes, it is determined that the subject is consciously watching the point of gaze at time t = i.
That is, when λ i = 1, δ i M <T δ , and σ i M <T σ , the attention level of the subject at the point of interest in the frame at time t = i is Determined to be high. Here, T δ and T σ are constant threshold values determined in advance by experiments or the like. In other words, here, when the distance between the gazing points over time and the variation thereof are smaller than the threshold value, it is determined that the gazing point is stared.

眼球運動計測装置13として単眼タイプのものが適用されたときには、前記演算判定部17では、以下の手順により、眼球運動データが得られたフレーム毎に注視点での対象者の注目度が判定される。   When a monocular type device is applied as the eye movement measuring device 13, the arithmetic determination unit 17 determines the attention level of the subject at the point of sight for each frame from which the eye movement data is obtained by the following procedure. The

このときの前記注視点演算処理は、以下の手順で行われる。先ず、各時刻で得られた眼の注視点座標について、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、時刻t=iのフレームにおける対象者の眼の注視点座標を(x,y)としたときに、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における注視点座標の時間移動平均座標値x 、y が、次式で求められる。

Figure 2012196279
The gaze point calculation process at this time is performed according to the following procedure. First, smoothing filter processing for removing noise is performed on the eye gazing point coordinates obtained at each time. Specifically, the current time t is set so that the number of samples is set to N in advance when the gaze point coordinates of the eye of the subject in the frame at time t = i are (x i , y i ). The time moving average coordinate values x i N and y i N of the gazing point coordinates at each time from = i to the past time t = i− (N−1) are obtained by the following equations.
Figure 2012196279

この時間移動平均座標値x 、y は、注視点座標の測定開始からN個のサンプルが得られた後、注視点座標が測定された時刻毎に求められ、データ記憶部16に記憶される。なお、ここでは、各時刻の注視点座標(x,y)に対し、ローパスフィルタリングを行っていることになるが、注視点座標(x,y)のノイズを除去可能となる限りにおいて、他のフィルタを代わりに採用することもできる。 The time moving average coordinate values x i N and y i N are obtained every time when the gazing point coordinates are measured after N samples are obtained from the start of the gazing point coordinates measurement, and are stored in the data storage unit 16. Remembered. Here, for each time of the gazing point coordinate (x i, y i), but will be doing lowpass filtering, the gazing point coordinate (x i, y i) as long as it is possible remove the noise Other filters can be employed instead.

次に、以上で求めた時間移動平均座標値x 、y について、サンプル点が予め設定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における注視点座標の時間移動平均座標値x 、y と、それらの標準偏差σ 、σ とが、注視点座標の測定時刻毎に次式によって求められ、データ記憶部16に記憶される。

Figure 2012196279
Next, with respect to the time moving average coordinate values x i N and y i N obtained above, the past time t = i− (M from the current time t = i so that M sample points are set in advance. -1) The time-moving average coordinate values x i M and y i M of the gazing point coordinates at the respective times until -1) and their standard deviations σ i x and σ i y are given by And is stored in the data storage unit 16.
Figure 2012196279

また、眼球運動計測装置13が単眼タイプのときの前記瞳孔径演算処理は、以下の手順で行われる。   The pupil diameter calculation process when the eye movement measuring device 13 is a monocular type is performed according to the following procedure.

時刻t=iのときに、フレームを見ている対象者の眼の瞳孔径をdとしたときに、当該瞳孔径dについて、ノイズを除去する平滑化フィルタ処理が行われる。具体的には、前述と同様、サンプル数が予め設定されたN個となるように、現時刻t=iから過去の時刻t=i−(N−1)までの各時刻における瞳孔径dについての時間移動平均d が、次式で求められる。

Figure 2012196279

この時間移動平均d についても、前述と同様に、瞳孔径の座標の測定開始からN個のサンプルが得られた後、測定時刻毎に求められ、データ記憶部16に記憶される。なお、ここでも、瞳孔径をdのノイズを除去可能であれば、前述と同様、他のフィルタを代わりに採用することもできる。 At time t = i, the pupil diameter of the subject's eye looking at the frame when the d i, for the pupil diameter d i, the smoothing filter process for removing noise is performed. Specifically, as described above, the pupil diameter d i at each time from the current time t = i to the past time t = i− (N−1) so that the number of samples is set to N in advance. time moving average d i N for is obtained by the following equation.
Figure 2012196279

This time moving average d i N is also obtained at every measurement time after N samples are obtained from the start of the measurement of the coordinates of the pupil diameter, and stored in the data storage unit 16 as described above. Note, again, the pupil diameter is removed if the noise d i, similar to the above, it is also possible to employ other filter instead.

次に、以上で求めた時間移動平均d について、サンプル点が予め決定されたM個となるように、現時刻t=iから過去の時刻t=i−(M−1)までの各時刻における瞳孔径についての時間移動平均d 及びその標準偏差σ が、瞳孔径の測定時刻毎に、次式によって求められ、データ記憶部16に記憶される。

Figure 2012196279
Next, with respect to the time moving average d i N obtained above, each of the time points from the current time t = i to the past time t = i− (M−1) so that M sample points are determined in advance. The time moving average d i M and the standard deviation σ i d for the pupil diameter at the time are obtained by the following equation for each measurement time of the pupil diameter and stored in the data storage unit 16.
Figure 2012196279

次に、眼球運動計測装置13が単眼タイプのときの前記注目度判定処理は、以上の注視点演算処理及び瞳孔径演算処理の後で、眼球運動データが取得されたフレーム毎に次のように行われる。   Next, the degree-of-interest determination processing when the eye movement measuring device 13 is a monocular type is as follows for each frame in which eye movement data is acquired after the above gaze point calculation processing and pupil diameter calculation processing. Done.

すなわち、先ず、現時刻t=iの瞳孔径dと、当該現時刻t=iを含めて過去遡ったM個サンプルの中で最も過去になる時刻t=i−(M−1)の瞳孔径di−M+1との経時的変化に基づき、前述の両眼タイプの場合と同様に、数値λが測定時刻毎に決定される。
すなわち、前述の両眼タイプで説明した第1の場合の条件式に該当するときには、λ=1とされ、同第2の場合の条件式に該当するときには、λ=−1とされる。また、これら何れの場合にも該当しないときには、λの値が、前回の時刻t=i−1のときの数値λi−1と同一とされる。
That is, first, the pupil diameter d i at the current time t = i and the pupil at the time t = i− (M−1), which is the past in the past M samples including the current time t = i. Based on the change over time with the diameter d i−M + 1 , the numerical value λ i is determined for each measurement time, as in the case of the above binocular type.
That is, λ i = 1 when the conditional expression in the first case described in the above binocular type is satisfied, and λ i = −1 when the conditional expression in the second case is satisfied. . Also, if otherwise, in any case these, lambda value of i is the same as numerical lambda i-1 when the last time t = i-1.

次いで、数値λ=1となる注目時間内の時刻t=iのときに、先に求めた注視点座標の標準偏差σ 、σ が以下の条件を満たしたときに、対象者が、時刻t=iのときに注視点を意識的に見ていたと判定される。 Next, when the standard deviation σ i x , σ i y of the gaze point coordinates obtained previously satisfies the following conditions at time t = i within the attention time at which the numerical value λ i = 1, the target person However, it is determined that the gaze point was consciously viewed at time t = i.

すなわち、λ=1で、且つ、σ <Tで、且つ、σ <Tのときは、時刻t=iのときのフレーム内の注視点において、対象者の注目度が高いと判定される。なお、T、Tは、実験等によって予め定められた一定の閾値である。 That is, when λ i = 1, σ i x <T x , and σ i y <T y , the attention level of the subject at the gaze point in the frame at time t = i is Determined to be high. Note that T x and T y are constant threshold values determined in advance by experiments or the like.

なお、前記実施形態では、各フレームの注視点において対象者の注目度が高いか否かを判定しているが、前述した各閾値を段階的に設定することで、各フレームの注視点における注目度を数値化して特定することも可能である。   In the above-described embodiment, it is determined whether or not the attention level of the target person is high at the gazing point of each frame. However, by setting each of the above-described thresholds in steps, attention is paid to the gazing point of each frame. It is also possible to specify the degree numerically.

次に、本発明の他の実施形態について説明する。なお、以下の説明において、前記第1実施形態と同一若しくは同等の構成部分については同一符号を用いるものとし、説明を省略若しくは簡略にする。
(第2実施形態)
Next, another embodiment of the present invention will be described. In the following description, the same reference numerals are used for the same or equivalent components as in the first embodiment, and the description is omitted or simplified.
(Second Embodiment)

本実施形態は、第1実施形態の注目度検出システム10を含んで構成した画像配信システム50に関する。   The present embodiment relates to an image distribution system 50 configured to include the attention level detection system 10 of the first embodiment.

前記画像配信システム50は、前記表示装置12及び前記眼球運動計測装置13を含む複数のクライアント側装置51と、インターネット等のネットワークを介してクライアント側装置51に接続され、クライアント側装置51に対して各種情報の送受信を行うとともに、各種のデータ処理を行うサーバ52とを備えている。   The image distribution system 50 is connected to a plurality of client-side devices 51 including the display device 12 and the eye movement measurement device 13 and a client-side device 51 via a network such as the Internet. A server 52 that transmits and receives various types of information and performs various types of data processing is provided.

前記サーバ52は、各クライアント側装置51に、動画を含む各種画像及び当該画像の付随情報を配信する画像配信装置54と、各対象者が画像を見たときに、各クライアント側装置51の眼球運動計測装置13から得られた各対象者の眼球運動データから、所定時間毎のフレームにおける各対象者の注視点の注目度判定を行う前記注目度判定装置14と、各対象者の注目度の判定結果をフレーム毎に集計し、当該集計結果を動画の付随情報の一つとして画像配信装置54に送信するデータ集計処理装置56とを備えて構成されている。   The server 52 distributes various images including moving images and accompanying information of the images to each client-side device 51, and the eyeball of each client-side device 51 when each target person views the image. From the eye movement data of each subject obtained from the motion measurement device 13, the attention level determination device 14 that determines the attention level of each subject's point of interest in a frame every predetermined time, and the attention level of each subject person A data totaling processing device 56 is configured to totalize the determination results for each frame and transmit the totaled results to the image distribution device 54 as one of the accompanying information of the moving image.

前記データ集計処理装置56では、画像配信装置54で各クライアント側装置51に配信された動画を見た各対象者それぞれから得られた眼球運動データに基づき、注目度判定装置14で、前記第1実施形態で説明した手順により注目度が高いと判定された注視点につき、フレーム毎に投票され、当該フレーム毎に注目度の確率分布となる時系列の尤度分布データが作成されるようになっている。当該尤度分布データの作成に際しては、公知の統計学的手法が用いられる。また、データ集計処理装置56では、前記尤度分布データが作成されると、当該尤度分布データの値に応じて、対応するフレームの各ピクセルに対し、色分けし、或いは、解像度を変化させること等により、前記動画を構成する原画像データに対して各ユーザの注目度に関する情報が重畳された二次画像データが作成される。当該二次画像データは、動画に付随する情報として、画像配信装置54から各クライアント側装置51に配信される。   In the data totalization processing device 56, the attention level determination device 14 uses the first eye movement data based on the eye movement data obtained from each target person who has viewed the moving image distributed to each client-side device 51 by the image distribution device 54. The gazing point determined to have a high degree of attention according to the procedure described in the embodiment is voted for each frame, and time-series likelihood distribution data that becomes a probability distribution of the degree of attention is created for each frame. ing. In creating the likelihood distribution data, a known statistical method is used. In addition, when the likelihood distribution data is created, the data totalization processing device 56 performs color coding or changes the resolution for each pixel of the corresponding frame according to the value of the likelihood distribution data. Thus, secondary image data in which information related to the attention level of each user is superimposed on the original image data constituting the moving image is created. The secondary image data is distributed from the image distribution device 54 to each client side device 51 as information accompanying the moving image.

なお、時系列で形成された前記尤度分布データを各クライアント側装置51に配信する際に、各時刻における尤度分布データにつき、各種の近似的要素分解手法を用いてデータ圧縮処理を行い、各クライアント側装置51への通信量の削減を行うことが好ましい。ここでの近似的要素分解手法としては、例えば、GMM(Gaussian Mixture Model)を用いて所定個の正規分布に分解する手法の他、フーリエ変換等の直交変換後のフィルタリング、又は、ウエーブレット変換を用いた手法等の公知の手法が挙げられる。   In addition, when distributing the likelihood distribution data formed in time series to each client-side device 51, the likelihood distribution data at each time is subjected to data compression processing using various approximate element decomposition methods, It is preferable to reduce the amount of communication to each client side device 51. As an approximate element decomposition method here, for example, a method of decomposing into a predetermined number of normal distributions using GMM (Gaussian Mixture Model), filtering after orthogonal transformation such as Fourier transformation, or wavelet transformation is used. Known methods such as the method used are listed.

その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。   In addition, the configuration of each part of the apparatus in the present invention is not limited to the illustrated configuration example, and various modifications are possible as long as substantially the same operation is achieved.

10 注目度検出システム
12 表示装置
13 眼球運動計測装置
14 注目度判定装置
16 データ記憶部
17 演算判定部
50 画像配信システム
51 クライアント側装置
52 サーバ
54 画像配信装置
56 データ集計処理装置
DESCRIPTION OF SYMBOLS 10 Attention level detection system 12 Display apparatus 13 Eye movement measurement apparatus 14 Attention level determination apparatus 16 Data storage part 17 Calculation determination part 50 Image distribution system 51 Client side apparatus 52 Server 54 Image distribution apparatus 56 Data totaling processing apparatus

Claims (8)

画像を表示する表示装置と、当該表示装置に表示された画像を見ている対象者の眼球運動データを所定時間毎に取得する眼球運動計測装置と、当該眼球運動計測装置で取得した眼球運動データから、前記画像における対象者の注目度を判定する注目度判定装置とを備えた注目度検出システムであって、
前記眼球運動計測装置は、前記眼球運動データとして、前記画像内の注視点の位置と瞳孔径とを少なくとも取得可能に設けられ、
前記注目度判定装置では、予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づいて前記注目度が特定されることを特徴とする注目度検出システム。
A display device that displays an image, an eye movement measurement device that acquires eye movement data of a subject who is viewing the image displayed on the display device every predetermined time, and eye movement data acquired by the eye movement measurement device From the attention level detection system comprising an attention level determination device that determines the level of attention of the subject in the image,
The eye movement measuring device is provided as the eye movement data so that at least the position of the gazing point and the pupil diameter in the image can be acquired,
In the degree-of-interest determination device, the degree of attention is calculated based on temporal changes in the gazing point and the pupil diameter in the past time from the time in units of time when the eye movement data is acquired using a mathematical formula stored in advance. Attention level detection system characterized by being identified.
前記注目度判定装置では、前記瞳孔径に関する経時的変化から、過去に比べて前記瞳孔が収縮しているか否かが判定されるとともに、前記注視点に関する経時的変化から、前記注視点を凝視しているか否かが判定され、過去に比べて前記瞳孔が収縮し、且つ、前記注視点を凝視していると判定されたときに、前記対象者が前記注視点を意識的に見ていたと判定されることを特徴とする請求項1記載の注目度検出システム。   In the attention level determination device, it is determined whether or not the pupil is contracted from the past with respect to the pupil diameter, and stares at the gazing point from the temporal change with respect to the gazing point. It is determined whether or not the subject has consciously watched the gazing point when it is determined that the pupil is contracted compared to the past and the gazing point is staring. The attention level detection system according to claim 1, wherein: 前記注目度判定装置では、前記瞳孔径に関する経時的変化から、前記対象者が前記注視点を意識的に見ていると思われる注目時間が特定されるとともに、予め設定された閾値に基づき、前記注視点に関して経時的変化が少ないか否かが判定され、前記注目時間の中で、前記注視点に関して経時的変化が少ないと判定されたときに、前記対象者が前記注視点を意識的に見ていたと判定されることを特徴とする請求項1記載の注目度検出システム。   In the attention level determination device, an attention time that the subject is considered to be consciously watching the gazing point is identified from a change over time with respect to the pupil diameter, and based on a preset threshold, It is determined whether or not there is little change over time with respect to the gazing point, and when it is determined that there is little change over time with respect to the gazing point during the attention time, the subject consciously watches the gazing point. The attention level detection system according to claim 1, wherein the attention level detection system is determined to have met. 前記眼球運動計測装置は、前記対象者の両眼の眼球運動データを取得可能に設けられ、
前記注目度判定装置では、前記両眼の注視点間距離と前記両眼の平均瞳孔径との経時的変化に基づいて、前記対象者が前記注視点を意識的に見ていたか否かが判定されることを特徴とする請求項1、2又は3記載の注目度検出システム。
The eye movement measurement device is provided so as to be able to acquire eye movement data of both eyes of the subject,
In the attention level determination device, it is determined whether or not the subject has consciously looked at the gazing point based on a temporal change in the distance between the gazing points of both eyes and the average pupil diameter of the both eyes. The attention level detection system according to claim 1, 2 or 3.
前記眼球運動計測装置は、前記対象者の左右何れか一方の眼の眼球運動データを取得可能に設けられ、
前記注目度判定装置では、前記眼の注視点座標と前記眼の瞳孔径との経時的変化に基づいて、前記対象者が前記注視点を意識的に見ていたか否かが判定されることを特徴とする請求項1、2又は3記載の注目度検出システム。
The eye movement measurement device is provided so as to be able to acquire eye movement data of either the left or right eye of the subject,
In the degree-of-attention determination device, it is determined whether or not the subject has consciously looked at the gazing point based on a temporal change in the eye gazing point coordinates and the pupil diameter of the eye. The attention level detection system according to claim 1, 2, or 3.
画像を見ている対象者の眼球運動データに基づき、前記画像における対象者の注目度を判定する注目度判定装置であって、
前記眼球運動データとして、前記画像内の注視点の位置と瞳孔径とを記憶するデータ記憶部と、
予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づき、前記注目度を特定する演算判定部とを備えたことを特徴とする注目度判定装置。
An attention level determination device that determines a degree of attention of a subject in the image based on eye movement data of the subject viewing the image,
As the eye movement data, a data storage unit that stores the position of the gazing point in the image and the pupil diameter;
An arithmetic determination unit that specifies the degree of attention based on a temporal change related to the gazing point and the pupil diameter in the past time from the time in a unit of time when the eye movement data is acquired using a previously stored mathematical formula; A degree-of-attention determination device characterized by comprising:
画像を見ている対象者の所定時間毎の眼球運動データに基づき、前記画像における対象者の注目度を判定するコンピュータを含む注目度判定装置用のプログラムであって、
予め記憶された数式を用い、前記画像内の前記対象者の注視点に関する経時的変化に着目した指標値を求める注視点演算処理と、予め記憶された数式を用い、前記画像内の前記対象者の瞳孔径に関する経時的変化に着目した指標値を求める瞳孔径演算処理と、前記注視点演算処理及び瞳孔径演算処理で求めた各指標値に基づき、前記注目度を特定する注目度判定処理とを前記コンピュータに実行させることを特徴とする注目度判定装置用のプログラム。
A program for a degree-of-interest determination device including a computer that determines a degree of attention of a subject in the image based on eye movement data of the subject who is watching an image every predetermined time,
Using a mathematical formula stored in advance, a gaze point calculation process for obtaining an index value focusing on a change over time regarding the gaze point of the subject in the image, and using the mathematical formula stored in advance, the subject in the image A pupil diameter calculation process for obtaining an index value focusing on a change over time in the pupil diameter, and an attention degree determination process for specifying the attention degree based on each index value obtained in the gaze point calculation process and the pupil diameter calculation process The program for the degree-of-attention determination apparatus characterized by causing the computer to execute.
画像を表示可能な複数のクライアント側装置と、当該クライアント側装置に接続されて前記画像を含む各種情報の送受信を行うとともに、各種のデータ処理を行うサーバとを備えた画像配信システムにおいて、
前記クライアント側装置は、画像を表示する表示装置と、当該表示装置に表示された画像を見ている対象者の眼球運動データを所定時間毎に取得する眼球運動計測装置とを備え、
前記眼球運動計測装置は、前記眼球運動データとして、前記画像内の注視点と瞳孔径とを少なくとも取得可能に設けられ、
前記サーバは、前記各クライアント側装置に、前記画像及び当該画像の付随情報を配信する画像配信装置と、各対象者が前記画像を見たときに前記眼球運動計測装置から得られた前記各対象者の眼球運動データから、前記各対象者それぞれについて、前記画像における注目度を判定する注目度判定装置と、当該注目度判定装置での前記各対象者の判定結果を集計し、当該集計結果を前記付随情報の一つとして前記画像配信装置に送信するデータ集計処理装置とを備え、
前記注目度判定装置では、予め記憶された数式を用い、前記眼球運動データを取得した時刻単位で、当該時刻から過去の時間における前記注視点及び前記瞳孔径に関する経時的変化に基づいて前記注目度が特定されることを特徴とする画像配信システム。
In an image distribution system comprising a plurality of client-side devices capable of displaying an image, and a server connected to the client-side device for transmitting and receiving various types of information including the image and performing various data processing,
The client side device includes a display device that displays an image, and an eye movement measurement device that acquires eye movement data of a subject who is viewing the image displayed on the display device at predetermined time intervals,
The eye movement measuring device is provided as the eye movement data so that at least a gazing point and a pupil diameter in the image can be acquired,
The server includes: an image distribution device that distributes the image and accompanying information of the image to each client-side device; and each target obtained from the eye movement measurement device when each target person views the image. From the eye movement data of the person, the attention level determination device that determines the degree of attention in the image for each of the target persons, and the determination results of each target person in the attention level determination apparatus are totaled, and the total result is A data totalization processing device that transmits to the image distribution device as one of the accompanying information,
In the degree-of-interest determination device, the degree of attention is calculated based on temporal changes in the gazing point and the pupil diameter in the past time from the time in units of time when the eye movement data is acquired using a mathematical formula stored in advance. An image distribution system characterized in that is specified.
JP2011061522A 2011-03-18 2011-03-18 Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system Active JP5733658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061522A JP5733658B2 (en) 2011-03-18 2011-03-18 Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011061522A JP5733658B2 (en) 2011-03-18 2011-03-18 Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system

Publications (2)

Publication Number Publication Date
JP2012196279A true JP2012196279A (en) 2012-10-18
JP5733658B2 JP5733658B2 (en) 2015-06-10

Family

ID=47179155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061522A Active JP5733658B2 (en) 2011-03-18 2011-03-18 Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system

Country Status (1)

Country Link
JP (1) JP5733658B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (en) * 2014-08-25 2016-04-04 学校法人早稲田大学 Viewer attention information provision system, space-time marker setting device and program for the same, and information provision device and program for the same
WO2017033516A1 (en) * 2015-08-24 2017-03-02 富士フイルム株式会社 Radiograph interpretation assistance device and method
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
CN110090037A (en) * 2019-04-22 2019-08-06 深圳安泰创新科技股份有限公司 Medical image film composition method, device, electronic equipment and readable storage medium storing program for executing
CN112331003A (en) * 2021-01-06 2021-02-05 湖南贝尔安亲云教育有限公司 Exercise generation method and system based on differential teaching
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
CN116091132A (en) * 2023-04-06 2023-05-09 深圳市亲邻科技有限公司 Advertisement putting effect determining method, device, medium and equipment
CN116719418A (en) * 2023-08-09 2023-09-08 湖南马栏山视频先进技术研究院有限公司 Method and device for checking gaze point prediction model

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002367100A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd Device for detecting driver condition
JP2004282471A (en) * 2003-03-17 2004-10-07 Media Glue Corp Evaluation device for video image content
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2009005094A (en) * 2007-06-21 2009-01-08 Mitsubishi Electric Corp Mobile terminal
JP2009232945A (en) * 2008-03-26 2009-10-15 Toyota Motor Corp Apparatus for detecting driver's condition and method for detecting state of consciousness
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
JP2010268900A (en) * 2009-05-20 2010-12-02 Kitasato Institute Method of measuring diameter of pupil and pupillometer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002367100A (en) * 2001-06-12 2002-12-20 Nissan Motor Co Ltd Device for detecting driver condition
JP2004282471A (en) * 2003-03-17 2004-10-07 Media Glue Corp Evaluation device for video image content
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2009005094A (en) * 2007-06-21 2009-01-08 Mitsubishi Electric Corp Mobile terminal
JP2009232945A (en) * 2008-03-26 2009-10-15 Toyota Motor Corp Apparatus for detecting driver's condition and method for detecting state of consciousness
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
JP2010268900A (en) * 2009-05-20 2010-12-02 Kitasato Institute Method of measuring diameter of pupil and pupillometer

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046730A (en) * 2014-08-25 2016-04-04 学校法人早稲田大学 Viewer attention information provision system, space-time marker setting device and program for the same, and information provision device and program for the same
WO2017033516A1 (en) * 2015-08-24 2017-03-02 富士フイルム株式会社 Radiograph interpretation assistance device and method
JPWO2017033516A1 (en) * 2015-08-24 2018-06-07 富士フイルム株式会社 Interpretation support apparatus and method
US10456072B2 (en) 2015-08-24 2019-10-29 Fujifilm Corporation Image interpretation support apparatus and method
JP2017188715A (en) * 2016-04-01 2017-10-12 富士通フロンテック株式会社 Video display system and video display method
CN113271852A (en) * 2019-01-21 2021-08-17 三菱电机株式会社 Attention determination device, attention determination system, attention determination method, and program
CN110090037A (en) * 2019-04-22 2019-08-06 深圳安泰创新科技股份有限公司 Medical image film composition method, device, electronic equipment and readable storage medium storing program for executing
CN112331003A (en) * 2021-01-06 2021-02-05 湖南贝尔安亲云教育有限公司 Exercise generation method and system based on differential teaching
CN112331003B (en) * 2021-01-06 2021-03-23 湖南贝尔安亲云教育有限公司 Exercise generation method and system based on differential teaching
CN116091132A (en) * 2023-04-06 2023-05-09 深圳市亲邻科技有限公司 Advertisement putting effect determining method, device, medium and equipment
CN116719418A (en) * 2023-08-09 2023-09-08 湖南马栏山视频先进技术研究院有限公司 Method and device for checking gaze point prediction model
CN116719418B (en) * 2023-08-09 2023-10-27 湖南马栏山视频先进技术研究院有限公司 Method and device for checking gaze point prediction model

Also Published As

Publication number Publication date
JP5733658B2 (en) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5733658B2 (en) Attention level detection system, attention level determination device, program for attention level determination device, and image distribution system
Ghadiyaram et al. A subjective and objective study of stalling events in mobile streaming videos
Ghadiyaram et al. In-capture mobile video distortions: A study of subjective behavior and objective algorithms
Le Meur et al. Overt visual attention for free-viewing and quality assessment tasks: Impact of the regions of interest on a video quality metric
Li et al. Content-weighted video quality assessment using a three-component image model
JP2007265125A (en) Content display
CN110866450B (en) Parkinson disease monitoring method and device and storage medium
CN113554597B (en) Image quality evaluation method and device based on electroencephalogram characteristics
CA3089584C (en) Techniques for predicting perceptual video quality based on complementary perceptual quality models
US10085015B1 (en) Method and system for measuring visual quality of a video sequence
KR101595546B1 (en) Apparatus, method and program for measuring visual fatigue
JP5775837B2 (en) Interest degree estimation apparatus, method and program
JP2006020131A (en) Device and method for measuring interest level
JP2014050649A (en) Feebleness evaluation device, feebleness evaluation method, and program
Ghadiyaram et al. Subjective and objective quality assessment of mobile videos with in-capture distortions
Zeng et al. Perceptual evaluation of image denoising algorithms
Oh et al. Blind sharpness prediction based on image-based motion blur analysis
US20160196576A1 (en) Systems, devices, and methods of measuring an advertising campaign
Valeriani et al. Augmenting group performance in target-face recognition via collaborative brain-computer interfaces for surveillance applications
Mahmoudpour et al. Omnidirectional video quality index accounting for judder
JP5470302B2 (en) Group action determination apparatus, method, and program
Albanesi et al. A new algorithm for objective video quality assessment on eye tracking data
JP2018026692A (en) Work support system, imaging apparatus, and display device
Hadizadeh Visual saliency in video compression and transmission
CN109194981B (en) Remote video tracking method, device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150403

R150 Certificate of patent or registration of utility model

Ref document number: 5733658

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250