JP2019215731A - Concentration evaluation program, device, and method - Google Patents

Concentration evaluation program, device, and method Download PDF

Info

Publication number
JP2019215731A
JP2019215731A JP2018112854A JP2018112854A JP2019215731A JP 2019215731 A JP2019215731 A JP 2019215731A JP 2018112854 A JP2018112854 A JP 2018112854A JP 2018112854 A JP2018112854 A JP 2018112854A JP 2019215731 A JP2019215731 A JP 2019215731A
Authority
JP
Japan
Prior art keywords
line
sight
concentration
sight position
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112854A
Other languages
Japanese (ja)
Other versions
JP7139704B2 (en
Inventor
亮介 川村
Ryosuke Kawamura
亮介 川村
厚一郎 新沼
Atsuichiro Niinuma
厚一郎 新沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018112854A priority Critical patent/JP7139704B2/en
Publication of JP2019215731A publication Critical patent/JP2019215731A/en
Application granted granted Critical
Publication of JP7139704B2 publication Critical patent/JP7139704B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To appropriately evaluate a degree of concentration on viewing a moving image even when a user's line of sight deviates from a screen.SOLUTION: A detection unit 12 detects a line of sight position to a screen of a user viewing a moving image, and an evaluation unit 14 evaluates a degree of concentration of the user viewing the moving image based on a first line of sight position just before the line of sight position to the screen is no longer detected, and a second line of sight position when the line of sight to the screen is detected again after the line of sight to the screen is no longer detected.SELECTED DRAWING: Figure 2

Description

開示の技術は、集中度評価プログラム、集中度評価装置、及び集中度評価方法に関する。   The disclosed technology relates to a concentration evaluation program, a concentration evaluation device, and a concentration evaluation method.

通信技術の発達によって、質の高い動画を配信する様々なサービスが増加している。例えば、学習コンテンツとして、学習塾などの講義を収録した動画を配信し、生徒はその動画を視聴することにより講義を受講することが行われている。このような受講形式では、講師が生徒個々人の受講状況を見守ることが難しく、生徒の講義に対する集中度を把握することが困難である。   With the development of communication technology, various services for delivering high-quality moving images have been increasing. For example, as a learning content, a video recording a lecture such as a learning cram school is distributed, and a student attends the lecture by watching the video. In such a attending format, it is difficult for the instructor to monitor the attending status of each student, and it is difficult to grasp the degree of concentration of the student on the lecture.

そこで、例えば、講義動画を主張する生徒の表情によって集中度を把握することが考えられるが、表情は集中度によって大きく変化することがなく、集中度の指標として用いることは難しい。そのような状況で、動画視聴中のユーザの視線を用いて、動画視聴に対する集中度を推定する技術が提案されている。   Thus, for example, it is conceivable to grasp the degree of concentration based on the expression of the student who claims the lecture video. However, the expression does not greatly change depending on the degree of concentration, and it is difficult to use the expression as an index of the degree of concentration. In such a situation, a technique for estimating the degree of concentration in viewing a moving image using the line of sight of a user viewing the moving image has been proposed.

例えば、表示オブジェクトに対するユーザの集中度をより正確に把握する評価方法が提案されている。この方法では、少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、第1期間の後、少なくとも第2オブジェクトを上記画面内に表示する第2期間におけるユーザの第2注視点を特定する。そして、第1オブジェクト内の基準点から第2オブジェクト内の基準点までの第1ベクトルの向きと、第1注視点から第2注視点までの第2ベクトルの向きとの近似度を算出する。   For example, an evaluation method for more accurately grasping the degree of concentration of a user on a display object has been proposed. In this method, a first point of interest of a user in a first period in which at least a first object is displayed on a screen is specified, and after the first period, a user in a second period in which at least a second object is displayed in the screen. Is specified. Then, the degree of approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first point of gaze to the second point of gaze is calculated.

特開2016−224142号公報JP 2016-224142 A

例えば、上述したような講義動画の視聴時には、生徒がノートをとったり、動画とは別に配布されている手元の資料を見たりする場合など、生徒の視線が画面から外れる機会が多く存在する。   For example, when viewing a lecture movie as described above, there are many opportunities for the student's line of sight to be off the screen, such as when the student takes notes or looks at materials at hand distributed separately from the movie.

従来技術では、視線が画面上に存在していることを前提として集中度を評価している。そのため、上記の講義動画の視聴などのように、視線が画面から外れる機会が多く存在する場合には、集中度の評価ができない、又は集中していないと評価してしまう時間が多く存在するおそれがある。   In the related art, the degree of concentration is evaluated on the assumption that the line of sight exists on the screen. For this reason, when there are many opportunities for the line of sight to deviate from the screen, as in the case of viewing the lecture video, there is a possibility that the degree of concentration cannot be evaluated or that there is a lot of time to evaluate that the user is not concentrated. There is.

ノートをとったり、手元の資料を見たりしている間でも、生徒は講義に集中している可能性が高く、従来技術では、このような場合の集中度を適切に評価することができない。   Even while taking notes or looking at materials at hand, the student is likely to concentrate on the lecture, and the prior art cannot evaluate the degree of concentration in such a case appropriately.

一つの側面として、開示の技術は、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することを目的とする。   As one aspect, the disclosed technology aims to appropriately evaluate the degree of concentration for viewing a moving image even when the user's line of sight is off the screen.

一つの態様として、開示の技術は、動画視聴中のユーザの画面に対する視線位置を検出する。そして、第1視線位置と第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する。第1視線位置は、前記画面に対する視線位置が検出されなくなった直前の視線位置である。第2視線位置は、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の視線位置である。   As one aspect, the disclosed technology detects a gaze position with respect to a screen of a user who is viewing a moving image. Then, based on the first line-of-sight position and the second line-of-sight position, the degree of concentration of the user in viewing the moving image is evaluated. The first gaze position is a gaze position immediately before the gaze position on the screen is no longer detected. The second line-of-sight position is a line-of-sight position when the line-of-sight position on the screen is no longer detected and the line-of-sight position on the screen is detected again.

一つの側面として、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる、という効果を有する。   As one aspect, there is an effect that even when the user's line of sight is off the screen, the degree of concentration on viewing a moving image can be appropriately evaluated.

第1及び第2実施形態に係る集中度評価システムの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a concentration evaluation system concerning a 1st and 2nd embodiment. 第1及び第2実施形態に係る集中度評価装置の機能ブロック図である。It is a functional block diagram of a concentration evaluation device concerning a 1st and 2nd embodiment. 画面から外れ、再び画面に戻ってくる視線の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the gaze which comes off a screen and returns to a screen again. 動画視聴に集中していない場合の視線の特徴を説明するための図である。FIG. 7 is a diagram for explaining the characteristics of the line of sight when the user is not concentrated on watching a moving image. 画面から外れ、再び画面に戻ってくる視線の特徴を説明するための図である。It is a figure for demonstrating the characteristic of the gaze which goes out of a screen and returns to a screen again. 視線位置テーブルの一例を示す図である。It is a figure showing an example of a look position table. 第1実施形態における注目領域データベースの一例を示す図である。It is a figure showing an example of an attention area database in a 1st embodiment. 第1及び第2実施形態に係る集中度評価装置として機能するコンピュータの概略構成を示すブロック図である。FIG. 11 is a block diagram illustrating a schematic configuration of a computer that functions as a concentration evaluation apparatus according to the first and second embodiments. 第1実施形態における集中度評価処理の一例を示すフローチャートである。It is a flowchart which shows an example of the concentration evaluation process in 1st Embodiment. 評価値a算出処理の一例を示すフローチャートである。It is a flowchart which shows an example of an evaluation value a calculation process. 注目領域が図の場合の評価値b1の算出を説明するための図である。It is a figure for explaining calculation of evaluation value b1 when an attention area is a figure. 注目領域が文章の場合の評価値b1の算出を説明するための図である。It is a figure for explaining calculation of evaluation value b1 when an attention area is a text. 第2実施形態における注目領域データベースの一例を示す図である。It is a figure showing an example of an attention area database in a 2nd embodiment. 第2実施形態における集中度評価処理の一例を示すフローチャートである。It is a flow chart which shows an example of concentration degree evaluation processing in a 2nd embodiment. 評価値b1算出処理の一例を示すフローチャートである。It is a flow chart which shows an example of evaluation value b1 calculation processing. 設定部を含む場合の集中度評価装置の機能ブロック図である。FIG. 3 is a functional block diagram of the concentration evaluation apparatus including a setting unit.

以下、図面を参照して、開示の技術に係る実施形態の一例を詳細に説明する。以下の各実施形態では、学習コンテンツとしての講義動画の視聴に対するユーザの集中度を評価する場合を例に説明する。   Hereinafter, an example of an embodiment according to the disclosed technology will be described in detail with reference to the drawings. In each of the following embodiments, a case will be described as an example in which the degree of concentration of a user on viewing a lecture moving image as learning content is evaluated.

<第1実施形態>
図1に示すように、第1実施形態に係る集中度評価システム100は、集中度評価装置10と、視線計測装置30とを含む。
<First Embodiment>
As shown in FIG. 1, the concentration evaluation system 100 according to the first embodiment includes a concentration evaluation device 10 and a gaze measurement device 30.

視線計測装置30は、可視光カメラと制御部とを含んで構成され、例えば、動画を表示する表示装置36の上端又は下端等、表示装置36の正面の領域を撮影可能な位置に設置される。視線計測装置30は、可視光カメラにより撮影された画像に含まれる、画面に対峙したユーザの目領域の画像に基づいて、ユーザの視線方向を計測する。例えば、視線計測装置30は、目領域における基準点(目頭、角膜反射点等)と動点(虹彩、瞳孔等)との位置関係に基づいて、視線方向を計測する。視線計測装置30は、計測した視線方向を示す視線データを出力する。   The eye gaze measuring device 30 is configured to include a visible light camera and a control unit, and is installed at a position where an area in front of the display device 36 can be photographed, such as an upper end or a lower end of the display device 36 that displays a moving image. . The eye gaze measuring device 30 measures the user's gaze direction based on an image of the user's eye region facing the screen, which is included in the image captured by the visible light camera. For example, the line-of-sight measuring device 30 measures the line-of-sight direction based on the positional relationship between a reference point (eye corner, corneal reflection point, etc.) and a moving point (iris, pupil, etc.) in the eye area. The gaze measurement device 30 outputs gaze data indicating the measured gaze direction.

図2に示すように、集中度評価装置10には、視線計測装置30から出力された視線データが入力される。集中度評価装置10は、入力された視線データに基づいて、画面に対するユーザの視線位置を検出し、検出した視線位置に基づいて、動画視聴に対するユーザの集中度を評価した評価結果を出力する。   As shown in FIG. 2, the line-of-sight data output from the line-of-sight measuring device 30 is input to the concentration evaluation device 10. The degree-of-concentration evaluation device 10 detects the position of the user's line of sight with respect to the screen based on the input line-of-sight data, and outputs an evaluation result that evaluates the degree of concentration of the user in watching the moving image based on the detected line-of-sight position.

ここで、上述したように、学習コンテンツとしての講義動画の視聴の際には、ユーザがノートをとったり、手元の資料を見たりするなどして、ユーザの視線が画面から外れる場合がある。本実施形態では、このように、ユーザの視線が画面から外れる場合でも、集中度を適切に評価することができる。以下、その理由について説明する。   Here, as described above, when viewing a lecture moving image as learning content, the user's line of sight may be off the screen due to the user taking notes or viewing materials at hand. In this embodiment, the degree of concentration can be appropriately evaluated even when the user's line of sight is off the screen. Hereinafter, the reason will be described.

ユーザが講義に集中している状態で、ノートをとったり、手元の資料を見たりするなどして、ユーザの視線が画面から外れた場合、再び画面上に戻ってくる視線には、図3に示すような特徴があることが確認された。   If the user's line of sight goes off the screen by taking notes or viewing materials at hand while the user is concentrating on the lecture, the line of sight that returns to the screen again is as shown in FIG. It was confirmed that there were features as shown.

具体的には、図3中のAに示すように、表示装置36に表示された画面38上にユーザ40の視線位置がある状態から、図3中のBに示すように、ユーザ40の視線が外れたとする。そして、その後、ユーザ40の視線が再び画面38上に戻る場合、図3中のCに示すように、画面38から視線を外す前に見ていた位置に視線が戻る。これは、ノートをとった場合などに、書いたことを確認するためなどである。   Specifically, from the state where the line of sight of the user 40 is on the screen 38 displayed on the display device 36 as shown at A in FIG. 3, the line of sight of the user 40 is displayed as shown at B in FIG. Is removed. Then, after that, when the line of sight of the user 40 returns to the screen 38 again, as shown in C in FIG. This is for confirming what has been written, such as when taking notes.

また、その後、図3中のDに示すように、現在説明がなされている部分に視線が移動したり、図3中のEに示すように、話者(講師)の顔に視線が移動したりする。なお、図3中のCの状態を経ることなく、図3中のBの状態から、図3中のD又はEのように、視線が戻る場合もある。   Thereafter, as shown by D in FIG. 3, the line of sight moves to the part currently being explained, or as shown by E in FIG. 3, the line of sight moves to the face of the speaker (instructor). Or The line of sight may return from the state B in FIG. 3 to the state D or E in FIG. 3 without passing through the state C in FIG.

また、集中度が低下している場合、図4中のFに示すように、視線が画面38から外れる前に、視線が話者の顔や現在説明がされている部分から外れた位置にあるという特徴がある。また、図4中のGに示すように、画面38から外れた視線が再び画面38上に戻ってきた際に、視線が外れる前の視線位置、現在説明がなされている部分、又は話者の顔のいずれにも視線が戻らない場合も、集中度が低下している場合の視線の特徴である。   When the degree of concentration is reduced, as shown by F in FIG. 4, before the line of sight deviates from the screen 38, the line of sight is at a position deviating from the speaker's face or the part currently being explained. There is a feature. Also, as shown by G in FIG. 4, when the line of sight deviating from the screen 38 returns to the screen 38 again, the line of sight before the line of sight deviates, the part currently being explained, or the speaker Even when the gaze does not return to any of the faces, this is a feature of the gaze when the degree of concentration is low.

また、上記のような特徴は、図5に示すように、講義画面がスライドのみの場合、すなわち、画面38上に話者が登場しない場合でも同様である。図5中のHに示す位置に視線位置がある状態から、図5中のIに示すよう、ユーザ40の視線が画面38から外れ、図5中のJに示すように画面38に視線が戻ってくるとする。この場合、ユーザ40が動画視聴に集中している場合には、視線が外れる前の視線位置、又は、現在説明がなされている部分に視線が戻る。   Further, the above-described features are the same even when the lecture screen is only slides, that is, when no speaker appears on the screen 38, as shown in FIG. From the state where the line of sight is located at the position indicated by H in FIG. 5, the line of sight of the user 40 deviates from the screen 38 as indicated by I in FIG. 5, and returns to the screen 38 as indicated by J in FIG. I will come. In this case, when the user 40 concentrates on watching the moving image, the line of sight returns to the line of sight position before the line of sight deviates, or to the part currently being explained.

第1実施形態では、上記のような視線の特徴を利用して、視線が画面から外れた場合の集中度を評価する。   In the first embodiment, the degree of concentration when the line of sight deviates from the screen is evaluated using the characteristics of the line of sight as described above.

図2に示すように、集中度評価装置10は、機能的には、検出部12と、評価部14とを含む。また、集中度評価装置10の所定の記憶領域には、注目領域データベース(DB)20が記憶される。   As shown in FIG. 2, the concentration evaluation apparatus 10 functionally includes a detection unit 12 and an evaluation unit 14. An attention area database (DB) 20 is stored in a predetermined storage area of the concentration evaluation apparatus 10.

検出部12は、集中度評価装置10に入力された視線データを取得し、視線データが示すユーザ40の視線方向に基づいて、動画を構成するフレーム毎に、画面38に対するユーザ40の視線位置を、画面38上の座標位置として検出する。検出部12は、検出した視線位置を、その視線位置を検出したフレームの識別情報であるフレーム番号と対応付けて、例えば図6に示すような視線位置テーブル22に逐次記録する。なお、図6において、「視線位置」がブランク(図6では「−」で表記)の場合は、そのフレームにおいて、画面38に対する視線位置が検出されなかったこと、すなわち、ユーザ40の視線が画面38から外れていることを表している。なお、以下では、フレーム番号がiのフレームを、「フレームi」と表記する。   The detection unit 12 acquires the line-of-sight data input to the concentration evaluation apparatus 10 and, based on the line-of-sight direction of the user 40 indicated by the line-of-sight data, determines the position of the line of sight of the user , On the screen 38. The detecting unit 12 sequentially records the detected line-of-sight position in a line-of-sight position table 22 as shown in FIG. 6, for example, in association with a frame number which is identification information of a frame in which the line-of-sight position is detected. In FIG. 6, when the “line of sight” is blank (in FIG. 6, indicated by “−”), no line of sight with respect to the screen 38 was detected in that frame, that is, the line of sight of the user 40 38. Hereinafter, the frame with the frame number i is referred to as “frame i”.

評価部14は、検出部12によって、画面38に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、画面38に対する視線位置が検出されなくなり、再び画面38に対する視線位置が検出された際の第2視線位置とを特定する。そして、評価部14は、第1視線位置及び第2視線位置に基づいて、動画視聴に対するユーザ40の集中度を評価する。具体的には、評価部14は、第1視線位置と第2視線位置との距離、並びに第1視線位置及び第2視線位置と注目領域との関係に基づいて、集中度を評価する。   The evaluation unit 14 detects the first line-of-sight position, which is the line-of-sight position immediately before the line-of-sight position on the screen 38 is no longer detected, and the line-of-sight position on the screen 38, and detects the line-of-sight position on the screen 38 again. The second line-of-sight position at the time of being performed is specified. Then, the evaluation unit 14 evaluates the degree of concentration of the user 40 in viewing the moving image based on the first line-of-sight position and the second line-of-sight position. Specifically, the evaluation unit 14 evaluates the degree of concentration based on the distance between the first gaze position and the second gaze position and the relationship between the first gaze position and the second gaze position and the attention area.

ここで、注目領域とは、動画中の黒板やスライドなどに含まれる文字や図などの情報、話者の動きの変化が起きた部分、動画中に表示されている人の顔、表示の変化が起きた部分、音声情報中の発話内容と関連性が高い部分等である。これらの注目領域は、動画の制作者によって手動で設定されたり、画像処理技術を用いて自動で設定されたりした上で、設定された注目領域の情報が、注目領域DB20に記憶される。   Here, the attention area is information such as characters and figures included in a blackboard or a slide in the video, a portion where a change in the speaker's movement has occurred, a person's face displayed in the video, or a change in display. Is a part where the utterance has occurred, a part highly relevant to the utterance content in the voice information, and the like. These attention areas are manually set by the creator of the moving image, or are automatically set by using an image processing technique, and information of the set attention areas is stored in the attention area DB 20.

図7に、注目領域DB20の一例を示す。図7の例では、「フレーム番号」で特定されるフレーム毎に、注目領域を特定する情報(例えば、矩形の注目領域の対角線上の角の座標)が「注目領域」として記憶されている。   FIG. 7 shows an example of the attention area DB 20. In the example of FIG. 7, information (for example, coordinates of a diagonal corner of a rectangular region of interest) for specifying a region of interest is stored as a “region of interest” for each frame specified by a “frame number”.

より具体的には、評価部14は、視線位置テーブル22において、「視線位置」がブランクになったフレームの直前のフレームにおける視線位置を、第1視線位置として特定する。また、評価部14は、視線位置テーブル22において、「視線位置」がブランクの状態から視線位置を示す座標が記録された状態になったフレームにおける視線位置を、第2視線位置として特定する。図6の例では、評価部14は、フレーム2における視線位置「(x2,y2)」を第1視線位置、及びフレームnにおける視線位置「(xn,yn)」を第2視線位置として特定する。   More specifically, the evaluation unit 14 specifies, as the first line-of-sight position, the line-of-sight position in the frame immediately before the frame in which the line-of-sight position is blank in the line-of-sight position table 22. Further, the evaluation unit 14 specifies, as the second line-of-sight position, the line-of-sight position in the frame in which the coordinates indicating the line-of-sight position have been recorded from the blank state in the line-of-sight position table 22. In the example of FIG. 6, the evaluation unit 14 specifies the gaze position “(x2, y2)” in the frame 2 as the first gaze position and the gaze position “(xn, yn)” in the frame n as the second gaze position. .

また、評価部14は、集中度を評価するための評価値aを算出する。この際、評価部14は、第1視線位置と第2視線位置との距離が小さいほど高くなるように、評価値aを算出する。また、評価部14は、第1視線位置及び第2視線位置の各々が予め定めた注目領域に含まれる場合に、第1視線位置及び第2視線位置の各々が予め定めた注目領域に含まれない場合に比べて評価値aが高くなるように算出する。   In addition, the evaluation unit 14 calculates an evaluation value a for evaluating the degree of concentration. At this time, the evaluation unit 14 calculates the evaluation value a so that the evaluation value a increases as the distance between the first line-of-sight position and the second line-of-sight position decreases. Further, when each of the first line-of-sight position and the second line-of-sight position is included in the predetermined region of interest, the evaluation unit 14 includes each of the first line-of-sight position and the second line-of-sight position in the predetermined region of interest. The calculation is performed such that the evaluation value a becomes higher than the case where there is no evaluation value a.

以下、評価値aの算出の一例を示す。ここでは、0〜s(sは、s>0の任意の定数、例えば100)の評価値aを算出する場合について説明する。   Hereinafter, an example of calculation of the evaluation value a will be described. Here, a case where the evaluation value a of 0 to s (s is an arbitrary constant satisfying s> 0, for example, 100) will be described.

評価部14は、第1視線位置が注目領域に含まれない場合には、評価値a=sと算出する。   When the first line-of-sight position is not included in the attention area, the evaluation unit 14 calculates the evaluation value a = s.

また、評価部14は、第2視線位置が、第1視線位置が含まれる注目領域と同じ注目領域内で検出されている場合には、第1視線位置と第2視線位置との距離d1を、正規化前の評価値a’として算出する。   When the second line-of-sight position is detected in the same region of interest as the region of interest including the first line-of-sight position, the evaluation unit 14 determines the distance d1 between the first line-of-sight position and the second line-of-sight position. , As the evaluation value a ′ before normalization.

また、評価部14は、第2視線位置が、第1視線位置が含まれる注目領域と異なる他の注目領域内で検出されている場合には、第2視線位置が含まれる注目領域の中心位置と第2視線位置との距離d2を、正規化前の評価値a’として算出する。   When the second line-of-sight position is detected in another region of interest different from the region of interest including the first line-of-sight position, the evaluation unit 14 determines the center position of the region of interest including the second line-of-sight position. The distance d2 between the position and the second line-of-sight position is calculated as an evaluation value a 'before normalization.

また、評価部14は、第1視線位置は注目領域に含まれているが、第2視線位置が注目領域に含まれていない場合には、正規化前の評価値a’を、a’=d1+p*d3と算出する。ここで、d3は、第1視線位置を含む注目領域の外周部と第2視線位置との最短距離であり、pは、p>0の任意の定数(例えば、0.6)である。この評価値a’の意味は、第1視線位置と第2視線位置との距離d1に、第2視線位置が注目領域を外れていることに対するペナルティを表す項「p*d3」を加算したものである。   In addition, when the first line-of-sight position is included in the region of interest but the second line-of-sight position is not included in the region of interest, the evaluation unit 14 calculates the evaluation value a ′ before normalization as a ′ = It is calculated as d1 + p * d3. Here, d3 is the shortest distance between the outer periphery of the attention area including the first line-of-sight position and the second line-of-sight position, and p is an arbitrary constant of p> 0 (for example, 0.6). The meaning of the evaluation value a ′ is obtained by adding a term “p * d3” representing a penalty for the fact that the second gaze position is out of the attention area to the distance d1 between the first gaze position and the second gaze position. It is.

評価部14は、正規化前の評価値a’を、0〜sで正規化して評価値aとする。例えば、正規化前の評価値a’として取り得る値の最大値をa’maxとすると、評価部14は、a=s×a’/a’maxで正規化する。   The evaluation unit 14 normalizes the evaluation value a 'before normalization from 0 to s to obtain an evaluation value a. For example, assuming that the maximum value that can be taken as the evaluation value a 'before normalization is a'max, the evaluation unit 14 normalizes by a = s * a' / a'max.

評価部14は、評価値aを、現在の集中度Vとする。この場合、集中度Vは、値が小さいほど集中度が高いことを示す。評価部14は、集中度Vを、ユーザ40が動画視聴に集中しているか否かを示す閾値T(例えば、T=s×0.8)と比較する。評価部14は、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。   The evaluation unit 14 sets the evaluation value a as the current degree of concentration V. In this case, the concentration V indicates that the smaller the value, the higher the concentration. The evaluation unit 14 compares the degree of concentration V with a threshold T (for example, T = s × 0.8) indicating whether or not the user 40 is concentrated on watching the moving image. The evaluation unit 14 outputs an evaluation result indicating that the user is concentrated when V> T, and outputs an evaluation result indicating that the user is not concentrated when V ≦ T.

集中度評価装置10は、例えば図8に示すコンピュータ50で実現することができる。コンピュータ50は、CPU(Central Processing Unit)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、視線計測装置30、入力装置、表示装置等が接続される入出力I/F(Interface)54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部55とを備える。また、コンピュータ50は、インターネット等のネットワークに接続される通信I/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。   The concentration evaluation device 10 can be realized by, for example, a computer 50 shown in FIG. The computer 50 includes a CPU (Central Processing Unit) 51, a memory 52 as a temporary storage area, and a nonvolatile storage unit 53. In addition, the computer 50 includes an input / output I / F (Interface) 54 to which the eye gaze measuring device 30, the input device, the display device, and the like are connected, and an R / W (Read / Write) that controls reading and writing of data from and to the storage medium 59. Write) unit 55. The computer 50 includes a communication I / F 56 connected to a network such as the Internet. The CPU 51, the memory 52, the storage unit 53, the input / output I / F 54, the R / W unit 55, and the communication I / F 56 are connected to each other via a bus 57.

記憶部53は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、集中度評価装置10として機能させるための集中度評価プログラム60が記憶される。集中度評価プログラム60は、検出プロセス62と、評価プロセス64とを有する。また、記憶部53は、注目領域DB20を構成する情報が記憶される情報記憶領域70を有する。   The storage unit 53 can be realized by a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like. The storage unit 53 serving as a storage medium stores a concentration evaluation program 60 for causing the computer 50 to function as the concentration evaluation device 10. The concentration evaluation program 60 has a detection process 62 and an evaluation process 64. The storage unit 53 has an information storage area 70 in which information configuring the attention area DB 20 is stored.

CPU51は、集中度評価プログラム60を記憶部53から読み出してメモリ52に展開し、集中度評価プログラム60が有するプロセスを順次実行する。CPU51は、検出プロセス62を実行することで、図2に示す検出部12として動作する。また、CPU51は、評価プロセス64を実行することで、図2に示す評価部14として動作する。また、CPU51は、検出プロセス62の実行時に、メモリ52に視線位置テーブル22を作成する。また、CPU51は、情報記憶領域70から情報を読み出して、注目領域DB20をメモリ52に展開する。これにより、集中度評価プログラム60を実行したコンピュータ50が、集中度評価装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。   The CPU 51 reads the concentration evaluation program 60 from the storage unit 53 and expands it in the memory 52, and sequentially executes the processes of the concentration evaluation program 60. The CPU 51 operates as the detection unit 12 illustrated in FIG. 2 by executing the detection process 62. The CPU 51 operates as the evaluation unit 14 illustrated in FIG. 2 by executing the evaluation process 64. The CPU 51 creates the line-of-sight position table 22 in the memory 52 when the detection process 62 is executed. Further, the CPU 51 reads information from the information storage area 70 and expands the attention area DB 20 in the memory 52. Thus, the computer 50 that has executed the concentration degree evaluation program 60 functions as the concentration degree evaluation device 10. Note that the CPU 51 that executes the program is hardware.

なお、集中度評価プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   The function realized by the concentration evaluation program 60 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit).

次に、第1実施形態に係る集中度評価システム100の作用について説明する。   Next, an operation of the concentration evaluation system 100 according to the first embodiment will be described.

集中度評価システム100が起動されると、視線計測装置30により、ユーザ40の視線方向の計測が開始され、計測された視線方向を示す視線データが、視線計測装置30から集中度評価装置10へ入力される。そして、集中度評価装置10において、図9に示す集中度評価処理が実行される。なお、集中度評価処理は、開示の技術の集中度評価方法の一例である。   When the concentration evaluation system 100 is started, the gaze measurement device 30 starts measuring the gaze direction of the user 40, and gaze data indicating the measured gaze direction is sent from the gaze measurement device 30 to the concentration evaluation device 10. Will be entered. Then, the concentration evaluation apparatus 10 executes the concentration evaluation processing shown in FIG. The concentration evaluation process is an example of the concentration evaluation method of the disclosed technology.

図9に示す集中度評価処理のステップS12で、検出部12が、集中度評価装置10に入力された視線データを取得する。そして、検出部12は、視線データが示すユーザ40の視線方向に基づいて、現在表示されているフレームの画面38に対するユーザ40の視線位置を、画面38上の座標位置として検出する。さらに、検出部12は、検出した視線位置を、その視線位置を検出したフレームのフレーム番号と対応付けて、例えば図6に示すような視線位置テーブル22に記録する。なお、検出部12は、画面38に対する視線位置が検出されなかった場合には、視線位置テーブル22の「視線位置」をブランクとする。   In step S12 of the concentration level evaluation process illustrated in FIG. 9, the detection unit 12 acquires the line-of-sight data input to the concentration level evaluation device 10. Then, the detection unit 12 detects the gaze position of the user 40 with respect to the screen 38 of the currently displayed frame as a coordinate position on the screen 38 based on the gaze direction of the user 40 indicated by the gaze data. Further, the detection unit 12 records the detected line-of-sight position in the line-of-sight position table 22 as shown in FIG. 6, for example, in association with the frame number of the frame in which the line-of-sight position is detected. In addition, when the gaze position with respect to the screen 38 is not detected, the detection unit 12 sets the “gaze position” in the gaze position table 22 to be blank.

次に、ステップS14で、評価部14が、ユーザ40の視線が画面38から外れたか否かを判定する。この判定は、視線位置テーブル22において、1フレーム前の「視線位置」がブランクではなく、かつ、上記ステップS12において、現フレームの「視線位置」がブランクとなったか否かにより行うことができる。ユーザ40の視線が画面38から外れていない場合には、処理はステップS12に戻る。ユーザ40の視線が画面38から外れた場合には、評価部14は、1フレーム前の「視線位置」を第1視線位置として特定し、処理はステップS16へ移行する。   Next, in step S14, the evaluation unit 14 determines whether or not the line of sight of the user 40 has deviated from the screen 38. This determination can be made based on whether the “line-of-sight position” one frame before is not blank in the line-of-sight position table 22 and the “line-of-sight position” of the current frame is blank in step S12. If the user's line of sight does not deviate from the screen 38, the process returns to step S12. When the line of sight of the user 40 deviates from the screen 38, the evaluation unit 14 specifies the “line of sight” one frame before as the first line of sight, and the process proceeds to step S16.

ステップS16では、上記ステップS12と同様に、検出部12が、現在表示されているフレームの画面38に対するユーザ40の視線位置を検出し、視線位置テーブル22に記録する。   In step S16, the detection unit 12 detects the gaze position of the user 40 with respect to the screen 38 of the currently displayed frame and records it in the gaze position table 22, as in step S12.

次に、ステップS18で、評価部14が、ユーザ40の視線が画面38上に戻ったか否かを判定する。この判定は、視線位置テーブル22において、1フレーム前の「視線位置」がブランクで、かつ、上記ステップS16において、現フレームの「視線位置」に座標が記録されたか否かにより行うことができる。ユーザ40の視線が画面38上に戻っていない場合には、処理はステップS16に戻る。ユーザ40の視線が画面38上に戻った場合には、評価部14は、現フレームの「視線位置」を第2視線位置として特定し、処理はステップS20へ移行する。   Next, in step S18, the evaluation unit 14 determines whether or not the line of sight of the user 40 has returned to the screen 38. This determination can be made based on whether the “line-of-sight position” one frame before in the line-of-sight position table 22 is blank, and whether the coordinates have been recorded in the “line-of-sight position” of the current frame in step S16. If the line of sight of the user 40 has not returned to the screen 38, the process returns to step S16. When the line of sight of the user 40 returns to the screen 38, the evaluation unit 14 specifies the “line of sight” of the current frame as the second line of sight, and the process proceeds to step S20.

ステップS20では、図10に示す評価値a算出処理が実行される。   In step S20, an evaluation value a calculation process shown in FIG. 10 is executed.

図10に示す評価値a算出処理のステップS22で、評価部14が、上記ステップS14で特定された第1視線位置が注目領域に含まれるか否かを、注目領域DB20を参照して判定する。具体的には、フレーム2から検出された第1視線位置が(x2,y2)であり、また、図7に示す注目領域DB20を用いるとする。この場合、評価部14は、「(x11,y11),(x12,y12)」で特定されるフレーム2の注目領域に、第1視線位置(x2,y2)が含まれるか否かを判定する。第1視線位置が注目領域に含まれない場合には、処理はステップS24へ移行し、含まれる場合には、処理はステップS26へ移行する。   In step S22 of the evaluation value a calculation process illustrated in FIG. 10, the evaluation unit 14 determines whether or not the first line-of-sight position specified in step S14 is included in the attention area with reference to the attention area DB 20. . Specifically, the first line-of-sight position detected from the frame 2 is (x2, y2), and the attention area DB20 shown in FIG. 7 is used. In this case, the evaluation unit 14 determines whether or not the attention area of the frame 2 specified by “(x11, y11), (x12, y12)” includes the first line-of-sight position (x2, y2). . If the first line-of-sight position is not included in the attention area, the process proceeds to step S24, and if it is included, the process proceeds to step S26.

ステップS24では、評価部14が、評価値a=sと算出し、処理は集中度評価処理(図9)へ戻る。   In step S24, the evaluation unit 14 calculates the evaluation value a = s, and the processing returns to the concentration evaluation processing (FIG. 9).

ステップS26では、評価部14が、上記ステップS18で特定された第2視線位置が、上記ステップS22で判定された第1視線位置が含まれる注目領域と同じ注目領域内で検出されているか否かを判定する。第2視線位置と注目領域との関係は、上記ステップS22と同様に判定することができる。第2視線位置が第1視線位置と同じ注目領域内で検出されている場合には、処理はステップS28へ移行し、第2視線位置が第1視線位置と同じ注目領域内で検出されていない場合には、処理はステップS30へ移行する。   In step S26, the evaluation unit 14 determines whether the second line-of-sight position specified in step S18 is detected in the same region of interest as the region of interest including the first line-of-sight position determined in step S22. Is determined. The relationship between the second line-of-sight position and the attention area can be determined in the same manner as in step S22. If the second line-of-sight position is detected in the same region of interest as the first line-of-sight position, the process proceeds to step S28, and the second line-of-sight position is not detected in the same region of interest as the first line-of-sight position. In this case, the process proceeds to step S30.

ステップS28では、評価部14が、第1視線位置と第2視線位置との距離d1を、正規化前の評価値a’として算出し、処理はステップS36へ移行する。   In step S28, the evaluation unit 14 calculates the distance d1 between the first line-of-sight position and the second line-of-sight position as the evaluation value a 'before normalization, and the process proceeds to step S36.

ステップS30では、評価部14が、第1視線位置が含まれる注目領域と異なる他の注目領域内で第2視線位置が検出されているか否かを判定する。第2視線位置が他の注目領域に含まれる場合には、処理はステップS32へ移行し、他の注目領域にも含まれない場合には、処理はステップS34へ移行する。   In step S30, the evaluation unit 14 determines whether the second line-of-sight position is detected in another region of interest different from the region of interest including the first line-of-sight position. If the second line-of-sight position is included in another region of interest, the process proceeds to step S32; otherwise, the process proceeds to step S34.

ステップS32では、評価部14が、第2視線位置が含まれる注目領域の中心位置と第2視線位置との距離d2を、正規化前の評価値a’として算出し、処理はステップS36へ移行する。   In step S32, the evaluation unit 14 calculates a distance d2 between the center position of the attention area including the second line-of-sight position and the second line-of-sight position as an evaluation value a 'before normalization, and the process proceeds to step S36. I do.

ステップS34では、評価部14が、第1視線位置と第2視線位置との距離d1と、第1視線位置を含む注目領域の外周部と第2視線位置との最短距離d3とを用いて、正規化前の評価値a’を、a’=d1+p*d3と算出し、処理はステップS36へ移行する。   In step S34, the evaluation unit 14 uses the distance d1 between the first line-of-sight position and the second line-of-sight position and the shortest distance d3 between the outer periphery of the attention area including the first line-of-sight position and the second line-of-sight position, The evaluation value a ′ before normalization is calculated as a ′ = d1 + p * d3, and the process proceeds to step S36.

ステップS36では、評価部14が、上記ステップS28、S32、又はS34で算出した正規化前の評価値a’を、0〜sで正規化して、評価値aとする。そして、処理は集中度評価処理(図9)へ戻る。   In step S36, the evaluation unit 14 normalizes the evaluation value a 'before normalization calculated in step S28, S32, or S34 from 0 to s to obtain an evaluation value a. Then, the process returns to the concentration evaluation process (FIG. 9).

次に、図9に示す集中度評価処理のステップS40で、評価部14が、評価値aを、現在の集中度Vとし、ユーザ40が動画視聴に集中しているか否かを示す閾値Tと比較する。評価部14は、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。   Next, in step S40 of the concentration evaluation process shown in FIG. 9, the evaluation unit 14 sets the evaluation value a to the current concentration V, and sets a threshold T indicating whether or not the user 40 is concentrated on watching the moving image. Compare. The evaluation unit 14 outputs an evaluation result indicating that the user is concentrated when V> T, and outputs an evaluation result indicating that the user is not concentrated when V ≦ T.

次に、ステップS42で、検出部12が、動画が終了したか否かを判定する。例えば、動画の再生中に視線計測装置30による視線方向の計測が行われるように連動させておき、視線計測装置30から視線データが入力されなくなった場合に、動画が終了したと判定することができる。動画が終了していない場合には、処理はステップS12に戻り、動画が終了した場合には、集中度評価処理は終了する。   Next, in step S42, the detection unit 12 determines whether the moving image has ended. For example, when the gaze direction is measured by the gaze measurement device 30 while the moving image is being reproduced, it is determined that the moving image has ended when gaze data is no longer input from the gaze measurement device 30. it can. If the moving image has not ended, the process returns to step S12, and if the moving image has ended, the concentration evaluation process ends.

以上説明したように、第1実施形態に係る集中度評価システムによれば、集中度評価装置が、画面から視線が外れる直前の第1視線位置と、視線が画面に戻ってきた際の第2視線位置との距離に基づいて、集中度を評価する。また、集中度評価装置は、第1視線位置及び第2視線位置の各々と注目領域との関係に基づいて、集中度を評価する。これにより、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる。   As described above, according to the concentration evaluation system according to the first embodiment, the concentration evaluation device performs the first gaze position immediately before the line of sight deviates from the screen and the second line of sight when the line of sight returns to the screen. The degree of concentration is evaluated based on the distance from the line of sight. The concentration evaluation device evaluates the concentration based on the relationship between each of the first line-of-sight position and the second line-of-sight position and the attention area. Accordingly, even when the user's line of sight is off the screen, the degree of concentration on viewing a moving image can be appropriately evaluated.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る集中度評価システムにおいて、第1実施形態に係る集中度評価システム100と同様の部分については、同一符号を付して、詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In the concentration evaluation system according to the second embodiment, the same parts as those in the concentration evaluation system 100 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted.

図1に示すように、第2実施形態に係る集中度評価システム200は、集中度評価装置210と、視線計測装置30とを含む。   As shown in FIG. 1, the concentration evaluation system 200 according to the second embodiment includes a concentration evaluation device 210 and a gaze measurement device 30.

集中度評価装置210は、機能的には、図2に示すように、検出部12と、評価部214とを含む。また、集中度評価装置210の所定の記憶領域には、注目領域DB220が記憶される。   Functionally, the concentration evaluation device 210 includes a detection unit 12 and an evaluation unit 214, as shown in FIG. In addition, an attention area DB 220 is stored in a predetermined storage area of the concentration evaluation apparatus 210.

第2実施形態では、第1実施形態で説明した特徴に加え、視線が画面38から外れる前、及び視線が画面38に戻ってきた後の各々における視線の動きのパターンの特徴も利用して、視線が画面38ら外れた場合の集中度の評価について説明する。視線が画面38から外れる前、及び視線が画面38に戻ってきた後の各々における視線の動きのパターンには、以下の特徴がある。   In the second embodiment, in addition to the features described in the first embodiment, utilizing the features of the pattern of the movement of the line of sight before and after the line of sight departs from the screen 38 and after the line of sight returns to the screen 38, Evaluation of the degree of concentration when the line of sight deviates from the screen 38 will be described. The gaze movement patterns before the gaze deviates from the screen 38 and after the gaze returns to the screen 38 have the following characteristics.

黒板やスライドに表示された図や文章をノートに取る場合などには、注目領域の確認をするため、視線を画面38から外す前の視線の動きとして、図に視線が集中したり、文章を読む方向に対する視線の動きが一定の方向に安定したりするという特徴がある。また、視線を画面38に戻した後の視線の動きとして、動画視聴に集中していない場合には、視線が注目領域から外れ、大きく動くという特徴がある。   When taking a note on a diagram or text displayed on a blackboard or a slide, for example, to check the attention area, the gaze is focused on the diagram as a movement of the gaze before the gaze is removed from the screen 38. The feature is that the movement of the line of sight in the reading direction is stabilized in a certain direction. Further, as the movement of the line of sight after returning the line of sight to the screen 38, if the user is not concentrated on watching a moving image, the line of sight moves out of the attention area and moves greatly.

そこで、評価部214は、集中度を評価するための評価値b1であって、画面38に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど高くなる評価値b1を算出する。   Therefore, the evaluation unit 214 determines the evaluation value b1 for evaluating the degree of concentration, and determines the movement of the gaze at a predetermined time before the gaze position with respect to the screen 38 is no longer detected and the movement of checking the attention area. An evaluation value b1 that becomes higher as the degree of coincidence with the pattern becomes higher is calculated.

以下、評価値b1の算出の一例を示す。ここでは、0〜r(rは、r>0の任意の定数、例えば100)の評価値b1を算出する場合について説明する。   Hereinafter, an example of calculation of the evaluation value b1 will be described. Here, a case where the evaluation value b1 of 0 to r (r is an arbitrary constant of r> 0, for example, 100) will be described.

注目領域が図の場合、評価部214は、画面38に対する視線位置が検出されなくなる前の所定時間において視線が動いた範囲と注目領域との重複範囲が多いほど高くなるように、評価値b1を算出する。これは、図の確認時には、図の全体に対して網羅的に視線を動かすという特徴を捉えたものである。   In the case where the attention area is a diagram, the evaluation unit 214 sets the evaluation value b1 such that the evaluation value b1 becomes higher as the overlapping range of the attention area and the range in which the eyes move in a predetermined time before the gaze position on the screen 38 is no longer detected. calculate. This captures the characteristic of moving the line of sight to the entire figure when checking the figure.

例えば、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内の場合、評価部214は、注目領域の中心位置(xm,ym)と、M秒間での視線の動きの中心位置との距離d4を、正規化前の評価値b1’として算出する。   For example, when the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38 is within the attention area, the evaluation unit 214 determines the center position (xm, ym) of the attention area and M The distance d4 from the center of the line of sight movement in seconds is calculated as the evaluation value b1 'before normalization.

また、評価部214は、図11に示すように、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)と、M秒間での視線位置のx方向の分散σx及びy方向の分散σyを算出する。そして、評価部214は、縦2σy、横2σx、中心(xm,ym)の矩形領域を、視線が動いた領域として特定し、注目領域と視線が動いた領域との共通領域が、注目領域中に占める割合の逆数を、正規化前の評価値b1’として算出する。   Further, as shown in FIG. 11, the evaluation unit 214 calculates the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38, and the variance in the x direction of the line of sight for M seconds. Calculate σx and variance σy in the y direction. Then, the evaluation unit 214 specifies a rectangular region having a length of 2σy, a width of 2σx, and a center (xm, ym) as a region in which the line of sight has moved, and determines a common region between the region of interest and the region in which the line of sight has moved in the region of interest. Is calculated as the evaluation value b1 ′ before normalization.

また、注目領域が文章の場合、評価部214は、画面38に対する視線位置が検出されなくなる前の所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど高くなるように、評価値b1を算出する。これは、文章の確認時には、文章の方向に沿って視線を動かすという特徴を捉えたものである。   Further, when the attention area is a sentence, the evaluation unit 214 increases as the difference between the variance in the vertical direction and the variance in the horizontal direction of the gaze movement for a predetermined time before the gaze position on the screen 38 is not detected is increased. Next, the evaluation value b1 is calculated. This captures the feature of moving the line of sight along the direction of the sentence when checking the sentence.

例えば、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内の場合、評価部214は、M秒間における、所定単位時間毎の視線の動きを示すベクトルであるスキャンパスを特定する。図12中のKに示すように、文章を確認している場合には、文章の注目領域に沿って、近似したスキャンパスが表れる。すなわち、文章に沿った方向への視線の動きの分散は大きくなり、文章に沿った方向と直交する方向への視線の動きの分散は小さくなる。一方、図12中のLに示すように、文章を確認していない場合には、文章の注目領域とは関係なくスキャンパスが表れる。すなわち、視線の動きの縦方向の分散と横方向の分散との差が小さくなる。   For example, when the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38 is within the attention area, the evaluation unit 214 determines the movement of the line of sight for every predetermined unit time during M seconds. A scan path, which is a vector to be indicated, is specified. As shown by K in FIG. 12, when a sentence is checked, an approximate scan path appears along the attention area of the sentence. That is, the variance of the movement of the line of sight in the direction along the sentence increases, and the variance of the movement of the line of sight in the direction orthogonal to the direction along the sentence decreases. On the other hand, as shown by L in FIG. 12, when the text is not confirmed, the scan path appears regardless of the attention area of the text. That is, the difference between the vertical variance and the horizontal variance of the line-of-sight movement is reduced.

そこで、評価部214は、視線が画面38から外れる前のM秒間に含まれるスキャンパスの全ての組み合わせ、又は隣接するスキャンパス同士のコサイン類似度を算出し、算出したコサイン類似度の平均の逆数を、正規化前の評価値b1’として算出する。   Thus, the evaluation unit 214 calculates all combinations of scan paths included in the M seconds before the line of sight deviates from the screen 38 or the cosine similarity between adjacent scan paths, and calculates the reciprocal of the average of the calculated cosine similarities. Is calculated as the evaluation value b1 ′ before normalization.

また、評価部214は、視線が画面38から外れる前のM秒間での視線位置のx方向の分散σxとy方向の分散σyとの差の逆数を、正規化前の評価値b1’として算出してもよい。なお、評価部214は、上記のスキャンパスのコサイン類似度の平均が0の場合、又は分散の差が0の場合、正規化前の評価値b1’を、b1’=rとすればよい。   Further, the evaluation unit 214 calculates the reciprocal of the difference between the variance σx in the x direction and the variance σy in the y direction of the gaze position for M seconds before the gaze deviates from the screen 38 as the evaluation value b1 ′ before normalization. May be. When the average of the cosine similarities of the scan paths is 0 or the difference in variance is 0, the evaluation unit 214 may set the evaluation value b1 'before normalization to b1' = r.

上記のように、第2実施形態では、注目領域の種類によって、評価値b1の算出方法が異なる。そこで、例えば、図13に示すように、注目領域DB220に、注目領域の種類の情報も付与しておき、評価部214は、この情報を参照して、注目領域が図か、文章か、その他かを判定するようにすればよい。   As described above, in the second embodiment, the method of calculating the evaluation value b1 differs depending on the type of the attention area. Therefore, for example, as shown in FIG. 13, information of the type of the attention area is also added to the attention area DB 220, and the evaluation unit 214 refers to this information to determine whether the attention area is a figure, a sentence, or the like. May be determined.

また、評価部214は、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内ではない場合、評価値b1を、b1=rとする。また、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)を含む注目領域が図でも文章でもない場合には、評価部214は、評価値b1を、b1=q×r(qは、0<q<1の任意の定数、例えば0.5)と算出する。評価部214は、正規化前の評価値b’を、0〜rで正規化して評価値b1とする。   When the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38 is not within the attention area, the evaluation unit 214 sets the evaluation value b1 to b1 = r. When the attention area including the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38 is neither a figure nor a text, the evaluation unit 214 sets the evaluation value b1 to b1 = Q × r (q is an arbitrary constant of 0 <q <1, for example, 0.5). The evaluation unit 214 normalizes the evaluation value b 'before normalization from 0 to r to obtain an evaluation value b1.

また、評価部214は、集中度を評価するための評価値b2であって、第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど高くなる評価値b2を算出する。   In addition, the evaluation unit 214 evaluates the evaluation value b2 for evaluating the degree of concentration, the evaluation value b2 being higher as the variance of the line-of-sight position detected during a predetermined time after the detection of the second line-of-sight position is smaller. calculate.

例えば、評価部214は、第2視線位置が検出されてからのN秒間での視線位置のx方向の分散σx、及びy方向の分散σyを算出し、評価値b2を、b2=σx+σyと算出する。   For example, the evaluation unit 214 calculates the variance σx in the x direction and the variance σy in the y direction of the gaze position for N seconds after the detection of the second gaze position, and calculates the evaluation value b2 as b2 = σx + σy. I do.

評価部214は、第1実施形態と同様に算出した評価値aと、上記のように算出した評価値b1と、評価値b2とを用いて、例えば、下記(1)式に示すように集中度Vを算出する。   The evaluation unit 214 uses the evaluation value a calculated in the same manner as in the first embodiment, the evaluation value b1 calculated as described above, and the evaluation value b2, for example, as shown in the following equation (1). The degree V is calculated.

なお、φ及びωiは重み定数であり、事前に定義される。例えば、φ=0.5、ω1=0.3、ω2=0.002のように定義することができる。   Note that φ and ωi are weight constants, which are defined in advance. For example, it can be defined as φ = 0.5, ω1 = 0.3, ω2 = 0.002.

評価部214は、第1実施形態と同様に、算出した集中度Vと閾値Tとを比較した評価結果を出力する。   The evaluation unit 214 outputs an evaluation result obtained by comparing the calculated degree of concentration V with the threshold T, as in the first embodiment.

集中度評価装置210は、例えば図8に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を、集中度評価装置210として機能させるための集中度評価プログラム260が記憶される。集中度評価プログラム260は、検出プロセス62と、評価プロセス264とを有する。また、記憶部53は、注目領域DB220を構成する情報が記憶される情報記憶領域70を有する。   The concentration evaluation apparatus 210 can be realized by, for example, the computer 50 shown in FIG. The storage unit 53 of the computer 50 stores a concentration evaluation program 260 for causing the computer 50 to function as the concentration evaluation device 210. The concentration evaluation program 260 has a detection process 62 and an evaluation process 264. The storage unit 53 has an information storage area 70 in which information configuring the attention area DB 220 is stored.

CPU51は、集中度評価プログラム260を記憶部53から読み出してメモリ52に展開し、集中度評価プログラム260が有するプロセスを順次実行する。CPU51は、検出プロセス62を実行することで、図2に示す検出部12として動作する。また、CPU51は、評価プロセス264を実行することで、図2に示す評価部214として動作する。また、CPU51は、検出プロセス62の実行時に、メモリ52に視線位置テーブル22を作成する。また、CPU51は、情報記憶領域70から情報を読み出して、注目領域DB220をメモリ52に展開する。これにより、集中度評価プログラム260を実行したコンピュータ50が、集中度評価装置210として機能することになる。   The CPU 51 reads out the concentration evaluation program 260 from the storage unit 53 and expands it in the memory 52, and sequentially executes the processes of the concentration evaluation program 260. The CPU 51 operates as the detection unit 12 illustrated in FIG. 2 by executing the detection process 62. The CPU 51 operates as the evaluation unit 214 illustrated in FIG. 2 by executing the evaluation process 264. The CPU 51 creates the line-of-sight position table 22 in the memory 52 when the detection process 62 is executed. Further, the CPU 51 reads information from the information storage area 70 and expands the attention area DB 220 in the memory 52. Thus, the computer 50 that has executed the concentration degree evaluation program 260 functions as the concentration degree evaluation device 210.

なお、集中度評価プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。   The function realized by the concentration evaluation program 260 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第2実施形態に係る集中度評価システム200の作用について説明する。   Next, an operation of the concentration evaluation system 200 according to the second embodiment will be described.

第2実施形態では、集中度評価装置210において、図14に示す集中度評価処理が実行される。なお、集中度評価処理は、開示の技術の集中度評価方法の一例である。図14に示す集中度評価処理において、第1実施形態における集中度評価処理(図9)と同様の処理については、同一符号を付して詳細な説明を省略する。   In the second embodiment, the concentration evaluation apparatus 210 executes the concentration evaluation processing shown in FIG. The concentration evaluation process is an example of the concentration evaluation method of the disclosed technology. In the concentration evaluation process shown in FIG. 14, the same reference numerals are given to the same processes as the concentration evaluation process (FIG. 9) in the first embodiment, and the detailed description will be omitted.

ステップS14を経て、次のステップS50で、図15に示す評価値b1算出処理が実行される。   After step S14, in the next step S50, an evaluation value b1 calculation process shown in FIG. 15 is executed.

図15に示す評価値b1算出処理のステップS52で、評価部214が、画面38から視線が外れる前に、ユーザ40が注目領域を見ていたか否かを判定する。具体的には、評価部214は、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が、現在のフレームに含まれる注目領域として注目領域DB220に規定されている範囲に含まれるか否かを判定する。ユーザ40が注目領域を見ていなかった場合には、処理はステップS54へ移行し、ユーザ40が注目領域を見ていた場合には、処理はステップS56へ移行する。   In step S52 of the evaluation value b1 calculation process illustrated in FIG. 15, the evaluation unit 214 determines whether or not the user 40 is looking at the attention area before the line of sight is removed from the screen 38. Specifically, the evaluation unit 214 determines the center position (xm, ym) of the movement of the line of sight for M seconds before the line of sight deviates from the screen 38 as the region of interest included in the current frame in the region of interest DB 220. It is determined whether or not it is included in the range. If the user 40 has not seen the region of interest, the process proceeds to step S54, and if the user 40 has seen the region of interest, the process proceeds to step S56.

ステップS54では、評価部214が、評価値b1を、b1=rと算出し、処理は集中度評価処理(図14)へ戻る。   In step S54, the evaluation unit 214 calculates the evaluation value b1 as b1 = r, and the processing returns to the concentration evaluation processing (FIG. 14).

ステップS56では、評価部214が、上記ステップS52でユーザ40が見ていたと判定した注目領域の種類を、注目領域DB220を参照して特定し、特定した注目領域の種類が図か否かを判定する。注目領域が図の場合には、処理はステップS58へ移行し、注目領域が図ではない場合には、処理はステップS60へ移行する。   In step S56, the evaluation unit 214 specifies the type of the attention area determined to have been viewed by the user 40 in step S52 with reference to the attention area DB 220, and determines whether the identified type of the attention area is a diagram. I do. If the region of interest is a diagram, the process proceeds to step S58; if the region of interest is not a diagram, the process proceeds to step S60.

ステップS58では、評価部214が、注目領域の中心位置と、視線が画面38から外れる前のM秒間での視線の動きの中心位置との距離d4を、正規化前の評価値b1’として算出する。又は、評価部214が、視線が画面38から外れる前のM秒間で視線が動いた領域と注目領域との共通領域が、注目領域中に占める割合の逆数を、正規化前の評価値b1’として算出してもよい。そして、処理はステップS66へ移行する。   In step S58, the evaluation unit 214 calculates the distance d4 between the center position of the attention area and the center position of the line of sight movement for M seconds before the line of sight deviates from the screen 38 as the evaluation value b1 'before normalization. I do. Alternatively, the evaluation unit 214 determines the reciprocal of the ratio of the common area of the area in which the line of sight has moved for M seconds before the line of sight deviates from the screen 38 and the attention area in the attention area by the evaluation value b1 ′ before normalization. May be calculated as Then, the process proceeds to step S66.

ステップS60では、評価部214が、上記ステップS52でユーザ40が見ていたと判定した注目領域の種類が文章か否かを判定する。注目領域が文章の場合には、処理はステップS62へ移行し、注目領域が文章ではない場合には、処理はステップS64へ移行する。   In step S60, the evaluation unit 214 determines whether the type of the attention area determined to have been viewed by the user 40 in step S52 is a sentence. If the attention area is text, the process proceeds to step S62. If the attention area is not text, the process proceeds to step S64.

ステップS62では、評価部214が、視線が画面38から外れる前のM秒間に含まれるスキャンパスの全ての組み合わせ、又は隣接するスキャンパス同士のコサイン類似度を算出する。そして、評価部214は、算出したコサイン類似度の平均の逆数を、正規化前の評価値b1’として算出する。又は、評価部214は、視線が画面38から外れる前のM秒間での視線位置のx方向の分散σxとy方向の分散σyとの差の逆数を、正規化前の評価値b1’として算出してもよい。そして、処理はステップS66へ移行する。   In step S62, the evaluation unit 214 calculates all combinations of scan paths included in M seconds before the line of sight deviates from the screen 38, or the cosine similarity between adjacent scan paths. Then, the evaluation unit 214 calculates the reciprocal of the average of the calculated cosine similarities as the evaluation value b1 'before normalization. Alternatively, the evaluation unit 214 calculates the reciprocal of the difference between the variance σx in the x direction and the variance σy in the y direction of the gaze position for M seconds before the gaze deviates from the screen 38 as the evaluation value b1 ′ before normalization. May be. Then, the process proceeds to step S66.

ステップS64では、評価部214が、評価値b1を、b1=q×rと算出し、処理は集中度評価処理(図14)へ戻る。   In step S64, the evaluation unit 214 calculates the evaluation value b1 as b1 = q × r, and the processing returns to the concentration evaluation processing (FIG. 14).

ステップS66では、評価部214が、上記ステップS58又はS62で算出した正規化前の評価値b1’を、0〜rで正規化して、評価値b1とする。そして、処理は集中度評価処理(図14)へ戻る。   In step S66, the evaluation unit 214 normalizes the evaluation value b1 'before normalization calculated in step S58 or S62 from 0 to r to obtain an evaluation value b1. Then, the process returns to the concentration evaluation process (FIG. 14).

図14に示す集中度評価処理に戻って、ステップS16、S18、及びS20を経て、次のステップS70へ移行する。ステップS70では、評価部214が、第2視線位置が検出されてからのN秒間での視線位置のx方向の分散σx、及びy方向の分散σyを算出し、評価値b2を、b2=σx+σyと算出する。   Returning to the concentration evaluation process shown in FIG. 14, the process goes to the next step S70 via steps S16, S18, and S20. In step S70, the evaluation unit 214 calculates the variance σx in the x direction and the variance σy in the y direction of the gaze position for N seconds after the detection of the second gaze position, and calculates the evaluation value b2 as b2 = σx + σy Is calculated.

次に、ステップS240で、評価部214が、上記ステップS20で算出した評価値a、上記ステップS50で算出した評価値b1、及び上記ステップS70で算出した評価値b2を用いて、例えば(1)式に示す集中度Vを算出する。そして、評価部214が、集中度Vと閾値Tとを比較し、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。   Next, in step S240, the evaluation unit 214 uses the evaluation value a calculated in step S20, the evaluation value b1 calculated in step S50, and the evaluation value b2 calculated in step S70, for example, (1) The degree of concentration V shown in the equation is calculated. Then, the evaluation unit 214 compares the degree of concentration V with the threshold value T, and outputs an evaluation result indicating that the user is concentrated when V> T, and outputs the evaluation result when V ≦ T. Outputs the evaluation result indicating that there is none.

以上説明したように、第2実施形態に係る集中度評価システムによれば、集中度評価装置が、画面から視線が外れる直前の第1視線位置と、視線が画面に戻ってきた際の第2視線位置との距離に基づいて、集中度を評価する。また、集中度評価装置は、第1視線位置及び第2視線位置の各々と注目領域との関係に基づいて、集中度を評価する。さらに、視線が画面から外れる前、及び画面に戻ってきた後の視線の動きのパターンに基づいて、集中度を評価する。これにより、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる。   As described above, according to the concentration evaluation system according to the second embodiment, the concentration evaluation device determines the first gaze position immediately before the line of sight deviates from the screen and the second line of sight when the line of sight returns to the screen. The degree of concentration is evaluated based on the distance from the line of sight. The concentration evaluation device evaluates the concentration based on the relationship between each of the first line-of-sight position and the second line-of-sight position and the attention area. Further, the degree of concentration is evaluated based on the pattern of the movement of the gaze before the gaze deviates from the screen and after returning to the screen. Accordingly, even when the user's line of sight is off the screen, the degree of concentration on viewing a moving image can be appropriately evaluated.

なお、上記各実施形態において、ユーザの視線が画面上にある間は、画面に対する視線位置を用いた従来既知の手法により、集中度を評価するようにしてもよい。   In each of the above embodiments, while the user's line of sight is on the screen, the degree of concentration may be evaluated by a conventionally known method using the line of sight with respect to the screen.

また、上記各実施形態では、動画の制作者によって手動で設定されたり、画像処理技術を用いて自動で設定されたりした注目領域の情報を、注目領域DBに記憶しておく場合について説明したが、これに限定されない。   Further, in each of the above embodiments, a case has been described in which the information of the attention area manually set by the creator of the moving image or automatically set using the image processing technique is stored in the attention area DB. , But is not limited to this.

例えば、動画中の重要な注目すべき領域には、集中して視聴している多くのユーザの視線が集まると考えられる。そこで、図16に示すように、集中度評価装置310を、検出部12と、評価部314と、設定部16とを含む構成とする。そして、評価部314は、複数のユーザについてのフレーム毎の集中度の評価結果を、評価結果DB24に記憶しておく。そして、設定部16が、評価結果DB24を参照して、集中度の高い所定数以上のユーザ40を特定し、それらのユーザ40の視線位置が集まっている領域を、視線位置テーブル22から特定する。そして、設定部16は、特定した領域を注目領域として設定し、注目領域DB20(又は220)に記憶するようにしてもよい。   For example, it is conceivable that the gaze of many users who concentrate and watch is gathered in an important area of interest in a moving image. Therefore, as shown in FIG. 16, the concentration evaluation apparatus 310 is configured to include the detection unit 12, the evaluation unit 314, and the setting unit 16. Then, the evaluation unit 314 stores, in the evaluation result DB 24, the evaluation result of the degree of concentration for each of the plurality of users for each frame. Then, the setting unit 16 refers to the evaluation result DB 24, specifies a predetermined number or more of users 40 with a high degree of concentration, and specifies an area where the gaze positions of those users 40 are gathered from the gaze position table 22. . Then, the setting unit 16 may set the specified region as a region of interest and store the region in the region of interest DB 20 (or 220).

また、上記各実施形態では、説明を簡単にするために、1フレームに1つの注目領域が存在する場合を例に説明したが、1フレーム中に複数の注目領域が含まれていてもよい。   Further, in each of the above embodiments, for simplicity of description, a case where one attention area exists in one frame has been described as an example. However, a plurality of attention areas may be included in one frame.

また、上記各実施形態では、算出した集中度と閾値とを比較して、集中しているか否かを評価結果として出力する場合について説明したが、これに限定されない。例えば、算出した集中度をそのまま出力してもよいし、算出した集中度を複数段階の評価(例えば、高、中、低の3段階の評価)に換算した評価結果を出力してもよい。   Further, in each of the above-described embodiments, the case where the calculated degree of concentration is compared with the threshold value to output whether or not concentration has occurred as an evaluation result has been described. However, the present invention is not limited to this. For example, the calculated degree of concentration may be output as it is, or an evaluation result obtained by converting the calculated degree of concentration into a plurality of levels of evaluation (for example, three levels of high, medium, and low) may be output.

また、上記実施形態では、集中度評価プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。   Further, in the above embodiment, the mode in which the concentration evaluation program is stored (installed) in the storage unit in advance has been described, but the present invention is not limited to this. The program according to the disclosed technology can be provided in a form stored in a storage medium such as a CD-ROM, a DVD-ROM, and a USB memory.

以上の各実施形態に関し、更に以下の付記を開示する。   Regarding each of the above embodiments, the following supplementary notes are further disclosed.

(付記1)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
(Appendix 1)
Detects the gaze position with respect to the screen of the user watching the video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position is no longer detected, and a second line-of-sight position when the line-of-sight position for the screen is no longer detected and the line-of-sight position for the screen is detected again. A concentration evaluation program for causing a computer to execute a process including evaluating a degree of concentration of the user with respect to the video viewing based on the video.

(付記2)
前記第1視線位置と前記第2視線位置との距離が小さいほど、前記集中度を高く評価する付記1に記載の集中度評価プログラム。
(Appendix 2)
2. The concentration evaluation program according to claim 1, wherein the smaller the distance between the first line-of-sight position and the second line-of-sight position, the higher the degree of concentration.

(付記3)
前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する付記1又は付記2に記載の集中度評価プログラム。
(Appendix 3)
When each of the first line-of-sight position and the second line-of-sight position is included in a predetermined region of interest, compared to the case where each of the first line-of-sight position and the second line-of-sight position is not included in the region of interest, 3. The concentration evaluation program according to Supplementary Note 1 or 2, wherein the degree of concentration is highly evaluated.

(付記4)
前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する付記1〜付記3のいずれか1項に記載の集中度評価プログラム。
(Appendix 4)
The higher the degree of coincidence between the movement of the gaze at a predetermined time before the gaze position on the screen is no longer detected and the predetermined pattern indicating the movement of checking the attention area, the higher the concentration is evaluated. 3. The concentration evaluation program according to any one of 3.

(付記5)
前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する付記4に記載の集中度評価プログラム。
(Appendix 5)
5. The concentration evaluation program according to claim 4, wherein when the attention area is a diagram, the degree of concentration is evaluated to be higher as the range in which the line of sight moves during the predetermined time and the overlap area of the attention area are larger.

(付記6)
前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する付記4に記載の集中度評価プログラム。
(Appendix 6)
5. The concentration evaluation program according to claim 4, wherein, when the attention area is a sentence, the degree of concentration is evaluated to be higher as the difference between the vertical variance and the horizontal variance of the line of sight movement in the predetermined time is larger.

(付記7)
前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する付記1〜付記6のいずれか1項に記載の集中度評価プログラム。
(Appendix 7)
The concentration evaluation program according to any one of Supplementary notes 1 to 6, wherein the smaller the variance of the line-of-sight positions detected during a predetermined time after the detection of the second line-of-sight position, the higher the degree of concentration.

(付記8)
集中度が高いと評価された際の視線位置に基づいて注目領域を設定する付記1〜付記7のいずれか1項に記載の集中度評価プログラム。
(Appendix 8)
8. The concentration evaluation program according to any one of Supplementary Notes 1 to 7, wherein an attention area is set based on a line of sight when the degree of concentration is evaluated to be high.

(付記9)
前記画面が表示される表示装置、又は前記ユーザに取り付けられた、視線方向を計測する視線計測装置により計測された視線方向に基づいて、前記画面に対する視線位置を検出する付記1〜付記8のいずれか1項に記載の集中度評価プログラム。
(Appendix 9)
Any one of Supplementary notes 1 to 8, wherein the display device on which the screen is displayed, or the gaze direction with respect to the screen is detected based on a gaze direction measured by a gaze measurement device attached to the user and measuring a gaze direction. Or the concentration evaluation program according to item 1.

(付記10)
前記画面上の座標値として前記視線位置を検出する付記1〜付記9のいずれか1項に記載の集中度評価プログラム。
(Appendix 10)
The concentration evaluation program according to any one of Supplementary Notes 1 to 9, wherein the line-of-sight position is detected as a coordinate value on the screen.

(付記11)
動画視聴中のユーザの画面に対する視線位置を検出する検出部と、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する評価部と、
を含む集中度評価装置。
(Appendix 11)
A detection unit that detects a gaze position with respect to a screen of a user who is watching a video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position on the screen is no longer detected, and a second line-of-sight position when the line-of-sight position on the screen is no longer detected and the line-of-sight position on the screen is detected again An evaluation unit that evaluates the degree of concentration of the user on the video viewing based on the
Concentration evaluation device including.

(付記12)
前記評価部は、前記第1視線位置と前記第2視線位置との距離が小さいほど、前記集中度を高く評価する付記11に記載の集中度評価装置。
(Appendix 12)
12. The concentration evaluation apparatus according to claim 11, wherein the evaluation unit evaluates the concentration higher as the distance between the first line-of-sight position and the second line-of-sight position is smaller.

(付記13)
前記評価部は、前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する付記11又は付記12に記載の集中度評価装置。
(Appendix 13)
The evaluation unit is configured such that, when each of the first line-of-sight position and the second line-of-sight position is included in a predetermined region of interest, each of the first line-of-sight position and the second line-of-sight position is included in the region of interest. 13. The concentration evaluation device according to appendix 11 or 12, wherein the degree of concentration is evaluated to be higher than in a case where there is no concentration.

(付記14)
前記評価部は、前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する付記11〜付記13のいずれか1項に記載の集中度評価装置。
(Appendix 14)
The evaluation unit evaluates the degree of concentration higher as the degree of coincidence between the movement of the line of sight at a predetermined time before the line of sight position on the screen is no longer detected and a predetermined pattern indicating the movement of confirming the attention area is higher. 14. The concentration evaluation apparatus according to any one of Supplementary Notes 11 to 13.

(付記15)
前記評価部は、前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する付記14に記載の集中度評価装置。
(Appendix 15)
15. The concentration evaluation apparatus according to claim 14, wherein, when the region of interest is a diagram, the degree of concentration increases as the range of overlap between the range of movement of the line of sight at the predetermined time and the region of interest increases. .

(付記16)
前記評価部は、前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する付記14に記載の集中度評価装置。
(Appendix 16)
The concentration according to Supplementary Note 14, wherein the evaluation unit evaluates the degree of concentration higher as the difference between the variance in the vertical direction and the variance in the horizontal direction of the line-of-sight movement at the predetermined time is larger when the attention area is a sentence. Degree evaluation device.

(付記17)
前記評価部は、前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する付記11〜付記16のいずれか1項に記載の集中度評価装置。
(Appendix 17)
The evaluation unit according to any one of Supplementary Note 11 to Supplementary Note 16, which evaluates the degree of concentration higher as the variance of the line-of-sight position detected at a predetermined time after the second line-of-sight position is detected is smaller. Concentration evaluation device.

(付記18)
集中度が高いと評価された際の視線位置に基づいて注目領域を設定する設定部を含む付記11〜付記17のいずれか1項に記載の集中度評価装置。
(Appendix 18)
18. The degree-of-concentration evaluation apparatus according to any one of appendices 11 to 17, further comprising a setting unit configured to set a region of interest based on a gaze position when the degree of concentration is evaluated to be high.

(付記19)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータが実行する集中度評価方法。
(Appendix 19)
Detects the gaze position with respect to the screen of the user watching the video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position on the screen is no longer detected, and a second line-of-sight position when the line-of-sight position on the screen is no longer detected and the line-of-sight position on the screen is detected again A computer-executable process for evaluating the degree of concentration of the user based on the video viewing based on the method.

(付記20)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラムを記憶した記憶媒体。
(Appendix 20)
Detects the gaze position with respect to the screen of the user watching the video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position is no longer detected, and a second line-of-sight position when the line-of-sight position for the screen is no longer detected and the line-of-sight position for the screen is detected again. A storage medium storing a concentration evaluation program for causing a computer to execute a process including evaluating the user's concentration with respect to the moving image viewing based on the video.

10、210、310 集中度評価装置
12 検出部
14、214、314 評価部
16 設定部
20、220 注目領域DB
22 視線位置テーブル
30 視線計測装置
36 表示装置
38 画面
40 ユーザ
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 集中度評価プログラム
100、200 集中度評価システム
10, 210, 310 Concentration evaluation device 12 Detectors 14, 214, 314 Evaluator 16 Setting units 20, 220 Attention area DB
22 gaze position table 30 gaze measurement device 36 display device 38 screen 40 user 50 computer 51 CPU
52 memory 53 storage unit 59 storage medium 60, 260 concentration evaluation program 100, 200 concentration evaluation system

Claims (10)

動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
Detects the gaze position with respect to the screen of the user watching the video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position on the screen is no longer detected, and a second line-of-sight position when the line-of-sight position on the screen is no longer detected and the line-of-sight position on the screen is detected again A concentration evaluation program for causing a computer to execute a process including evaluating a degree of concentration of the user with respect to the video viewing based on the video.
前記第1視線位置と前記第2視線位置との距離が小さいほど、前記集中度を高く評価する請求項1に記載の集中度評価プログラム。   The concentration degree evaluation program according to claim 1, wherein the concentration degree is evaluated to be higher as the distance between the first line-of-sight position and the second line-of-sight position is smaller. 前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する請求項1又は請求項2に記載の集中度評価プログラム。   When each of the first line-of-sight position and the second line-of-sight position is included in a predetermined region of interest, compared to the case where each of the first line-of-sight position and the second line-of-sight position is not included in the region of interest, The concentration evaluation program according to claim 1, wherein the concentration is evaluated to be high. 前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する請求項1〜請求項3のいずれか1項に記載の集中度評価プログラム。   The concentration level is evaluated to be higher as the degree of coincidence between the movement of the line of sight at a predetermined time before the line of sight position on the screen is no longer detected and a predetermined pattern indicating the movement of confirming the attention area is higher. The concentration evaluation program according to claim 3. 前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する請求項4に記載の集中度評価プログラム。   The concentration evaluation program according to claim 4, wherein, when the attention area is a diagram, the degree of concentration is evaluated to be higher as the range in which the line of sight moves during the predetermined time and the overlap area of the attention area are larger. 前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する請求項4に記載の集中度評価プログラム。   The concentration evaluation program according to claim 4, wherein when the attention area is a sentence, the degree of concentration is evaluated to be higher as the difference between the vertical variance and the horizontal variance of the line of sight movement in the predetermined time is larger. 前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する請求項1〜請求項6のいずれか1項に記載の集中度評価プログラム。   The degree of concentration evaluation according to any one of claims 1 to 6, wherein the degree of concentration is evaluated to be higher as the variance of the line-of-sight positions detected at a predetermined time after the detection of the second line-of-sight position is smaller. program. 集中度が高いと評価された際の視線位置に基づいて注目領域を設定する請求項1〜請求項7のいずれか1項に記載の集中度評価プログラム。   The concentration evaluation program according to any one of claims 1 to 7, wherein the attention area is set based on a line of sight when the concentration is evaluated to be high. 動画視聴中のユーザの画面に対する視線位置を検出する検出部と、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する評価部と、
を含む集中度評価装置。
A detection unit that detects a gaze position with respect to a screen of a user who is watching a video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position is no longer detected, and a second line-of-sight position when the line-of-sight position for the screen is no longer detected and the line-of-sight position for the screen is detected again. An evaluation unit that evaluates the degree of concentration of the user on the video viewing based on the
Concentration evaluation device including.
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータが実行する集中度評価方法。
Detects the gaze position with respect to the screen of the user watching the video,
A first line-of-sight position that is a line-of-sight position immediately before the line-of-sight position is no longer detected, and a second line-of-sight position when the line-of-sight position for the screen is no longer detected and the line-of-sight position for the screen is detected again. A concentration evaluation method in which a computer executes a process including evaluating a degree of concentration of the user with respect to the video viewing based on the video.
JP2018112854A 2018-06-13 2018-06-13 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD Active JP7139704B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112854A JP7139704B2 (en) 2018-06-13 2018-06-13 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112854A JP7139704B2 (en) 2018-06-13 2018-06-13 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Publications (2)

Publication Number Publication Date
JP2019215731A true JP2019215731A (en) 2019-12-19
JP7139704B2 JP7139704B2 (en) 2022-09-21

Family

ID=68919578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112854A Active JP7139704B2 (en) 2018-06-13 2018-06-13 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Country Status (1)

Country Link
JP (1) JP7139704B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220018811A (en) * 2020-08-07 2022-02-15 이화여자대학교 산학협력단 Video lesson system and method for monitoring user's attention based on user's visual behavior
JP7398853B1 (en) * 2023-06-30 2023-12-15 ヴィアゲート株式会社 Video viewing analysis system, video viewing analysis method, and video viewing analysis program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Method and device for transmitting computer support information
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
KR20130082839A (en) * 2011-12-20 2013-07-22 두산동아 주식회사 Apparatus and method for providing user customised cotent
JP2014077814A (en) * 2011-02-14 2014-05-01 Panasonic Corp Display control device and display control method
JP2016224142A (en) * 2015-05-28 2016-12-28 富士通株式会社 Evaluation method, program and evaluation system
JP2018010702A (en) * 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント Terminal device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Method and device for transmitting computer support information
JP2006277192A (en) * 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International Image display system
JP2014077814A (en) * 2011-02-14 2014-05-01 Panasonic Corp Display control device and display control method
KR20130082839A (en) * 2011-12-20 2013-07-22 두산동아 주식회사 Apparatus and method for providing user customised cotent
JP2016224142A (en) * 2015-05-28 2016-12-28 富士通株式会社 Evaluation method, program and evaluation system
JP2018010702A (en) * 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント Terminal device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220018811A (en) * 2020-08-07 2022-02-15 이화여자대학교 산학협력단 Video lesson system and method for monitoring user's attention based on user's visual behavior
KR102502766B1 (en) * 2020-08-07 2023-02-22 이화여자대학교 산학협력단 Video lesson system and method for monitoring user's attention based on user's visual behavior
JP7398853B1 (en) * 2023-06-30 2023-12-15 ヴィアゲート株式会社 Video viewing analysis system, video viewing analysis method, and video viewing analysis program

Also Published As

Publication number Publication date
JP7139704B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
CN109325933B (en) Method and device for recognizing copied image
CN105981368B (en) Picture composition and position guidance in an imaging device
WO2021135827A1 (en) Line-of-sight direction determination method and apparatus, electronic device, and storage medium
US8432357B2 (en) Tracking object selection apparatus, method, program and circuit
US10488195B2 (en) Curated photogrammetry
CN109614910B (en) Face recognition method and device
US10254831B2 (en) System and method for detecting a gaze of a viewer
CN106851087A (en) Information processor and information processing method
WO2020042542A1 (en) Method and apparatus for acquiring eye movement control calibration data
JP2007006427A (en) Video monitor
US20200202496A1 (en) Image processing apparatus, image processing method and storage medium
CN102332091A (en) Camera head and control method thereof, shooting back-up system and individual evaluation method
Vázquez et al. An assisted photography framework to help visually impaired users properly aim a camera
US11226785B2 (en) Scale determination service
US20160353021A1 (en) Control apparatus, display control method and non-transitory computer readable medium
JP7139704B2 (en) CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD
JP2020123884A (en) Concentration evaluation program, device, and method
CN112990009B (en) End-to-end lane line detection method, device, equipment and storage medium
Zanca et al. FixaTons: A collection of human fixations datasets and metrics for scanpath similarity
JP2018036536A (en) System, device, program, and method for calculating a participation level
JP2020107216A (en) Information processor, control method thereof, and program
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
CN115953813B (en) Expression driving method, device, equipment and storage medium
CN117218703A (en) Intelligent learning emotion analysis method and system
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7139704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150