JP2020123884A - Concentration evaluation program, device, and method - Google Patents

Concentration evaluation program, device, and method Download PDF

Info

Publication number
JP2020123884A
JP2020123884A JP2019015354A JP2019015354A JP2020123884A JP 2020123884 A JP2020123884 A JP 2020123884A JP 2019015354 A JP2019015354 A JP 2019015354A JP 2019015354 A JP2019015354 A JP 2019015354A JP 2020123884 A JP2020123884 A JP 2020123884A
Authority
JP
Japan
Prior art keywords
degree
concentration
head
target user
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019015354A
Other languages
Japanese (ja)
Other versions
JP7243235B2 (en
Inventor
亮介 川村
Ryosuke Kawamura
亮介 川村
森岡 清訓
Kiyonori Morioka
清訓 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019015354A priority Critical patent/JP7243235B2/en
Publication of JP2020123884A publication Critical patent/JP2020123884A/en
Application granted granted Critical
Publication of JP7243235B2 publication Critical patent/JP7243235B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To appropriately evaluate the degree of concentration of a user on watching a video even when the user's face does not face a screen in many cases.SOLUTION: When multiple users watch the same content, many users take notes at the same timing (t1 and t2) in an important portion in terms of content, and users who are not concentrated may delay their reaction, and do not take notes, and therefore, the movements of the heads of the target users who are watching a video are detected, the degree of correlation to the movements of the heads of multiple users is calculated, and the degree of concentration of the target user for watching the video is evaluated on the basis of the calculated degree of correlations.SELECTED DRAWING: Figure 1

Description

開示の技術は、集中度評価プログラム、集中度評価装置、及び集中度評価方法に関する。 The disclosed technology relates to a concentration degree evaluation program, a concentration degree evaluation device, and a concentration degree evaluation method.

通信技術の発達によって、質の高い動画を配信する様々なサービスが増加している。例えば、学習コンテンツとして、学習塾などの講義を収録した動画を配信し、生徒はその動画を視聴することにより講義を受講することが行われている。このような受講形式では、講師が生徒個々人の受講状況を見守ることが難しく、生徒の講義に対する集中度を把握することが困難である。 With the development of communication technology, various services for delivering high-quality video are increasing. For example, as a learning content, a video in which a lecture such as a study cram school is recorded is distributed, and a student attends the lecture by viewing the video. In this type of attendance, it is difficult for the instructor to watch the attendance of each student, and it is difficult for the instructor to grasp the degree of concentration of the student in the lecture.

そこで、講義動画を視聴する生徒の表情によって集中度を把握することが考えられる。例えば、動画を視聴中のユーザの画像を取得して顔領域を切り取り、切り取った顔領域からボックスフィルタ又はガボールフィルタにより抽出した特徴と、機械学習した識別器とを用いて表情を識別する技術が提案されている。この技術では、識別した表情の変化を用いて集中度を推定する。 Therefore, it is possible to grasp the degree of concentration by the facial expressions of the students who watch the lecture video. For example, there is a technique for identifying facial expressions by using a feature obtained by acquiring an image of a user who is watching a moving image, cutting out a face area, and extracting from the cut face area by a box filter or a Gabor filter, and a machine-learned classifier. Proposed. In this technique, the degree of concentration is estimated using the change in the identified facial expression.

また、講義中のユーザの状況を評価する技術として、対象を観察する観察者の対象への評価を算出する情報処理システムが提案されている。このシステムは、対象を観察する観察者の笑顔を検出し、観察者の顔が略下方向を向いている度合いを検出し、笑顔の度合いと下向きの度合いとに応じて、観察者に対する評価を算出する。 Further, as a technique for evaluating the situation of a user in a lecture, an information processing system for calculating an evaluation of an object by an observer who observes the object has been proposed. This system detects the smile of the observer who observes the object, detects the degree to which the face of the observer faces substantially downward, and evaluates the observer according to the degree of smile and the degree of downward. calculate.

また、会議中のユーザの頭部の上下動のふれ幅、頭部の上下動の回数、周期等に基づいて、ユーザの集中度を判定する技術が提案されている。 In addition, a technique has been proposed in which the degree of concentration of a user is determined based on the fluctuation range of the vertical movement of the head of the user during a conference, the number of vertical movements of the head, the period, and the like.

また、周囲状況、顔向き、注目対象と顔向きとの連動性の度合い、及び注目対象判定ルールに基づいて注目対象の方向を算出する注目対象判定装置が提案されている。この装置は、周囲状況の変化のタイミングと顔向きの変化のタイミングとが一致する場合には連動性が高いと評価する。 Further, there has been proposed an attention target determination device that calculates the direction of the attention target based on the surrounding conditions, the face orientation, the degree of interlocking between the attention target and the face orientation, and the attention target determination rule. This device evaluates that the interlocking property is high when the timing of the change in the surrounding conditions and the timing of the change in the face direction match.

国際公開第2017/018012号International Publication No. 2017/018012 特開2010−141843号公報JP, 2010-141843, A 特開2009−26190号公報JP, 2009-26190, A

Jacob Whitehill, Zewelanji Serpell, Yi-Ching Lin, Aysha Foster, Javier R. Movellan, "The Faces of Engagement: Automatic Recognition of Student Engagement from Facial Expressions", IEEE Transactions on Affective Computing, Volume 5, 2014Jacob Whitehill, Zewelanji Serpell, Yi-Ching Lin, Aysha Foster, Javier R. Movellan, "The Faces of Engagement: Automatic Recognition of Student Engagement from Facial Expressions", IEEE Transactions on Affective Computing, Volume 5, 2014

例えば、上述したような講義動画の視聴時には、ユーザがノートをとったり、動画とは別に配布されている手元の資料を見たりする場合など、ユーザが下を向く機会、すなわち、顔が画面に正対していない機会が多く存在する。 For example, when watching a lecture video as described above, when the user takes notes or looks at the material at hand that is distributed separately from the video, the user has the opportunity to look down, that is, the face should be right on the screen. There are many opportunities not to meet.

表情の変化で集中度を推定する従来技術では、画面を常に見ていることを前提としており、上記のように顔が画面に対して正対していない機会が多く存在する場合には、集中度の推定ができない時間が多く存在してしまう。 The prior art that estimates the degree of concentration based on changes in facial expressions is based on the assumption that the screen is always viewed, and if there are many occasions where the face is not directly facing the screen, as described above, There are many times when it is impossible to estimate.

また、この従来技術では、ノートをとったり、手元の資料を見たりなどの動作中には、講義自体に集中しているにもかかわらず、顔が画面に対して正対していないことから表情を識別することができない。そのため、集中度の推定ができない、又は集中していないと推定されてしまう可能性がある。 In addition, with this conventional technology, the face is not directly facing the screen while the user is concentrating on the lecture itself while taking notes or looking at the material at hand Cannot be identified. Therefore, there is a possibility that the degree of concentration cannot be estimated, or that it is estimated that the person is not concentrated.

また、頭の動きなどによりユーザの状況を評価する従来技術では、動画視聴に対するユーザの集中度を評価することはできない。 Further, with the conventional technology that evaluates the situation of the user based on the movement of the head or the like, it is not possible to evaluate the degree of concentration of the user with respect to viewing a moving image.

一つの側面として、開示の技術は、ユーザの顔が画面に正対していない機会が多い場合でも、動画視聴に対するユーザの集中度を適切に評価することを目的とする。 As one aspect, the disclosed technique aims to appropriately evaluate the degree of concentration of a user with respect to viewing a moving image, even when the user's face often does not face the screen.

一つの態様として、開示の技術は、動画を視聴中の対象ユーザの頭部の動きを検出し、複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する。そして、開示の技術は、算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する。 As one aspect, the disclosed technique detects the movement of the head of the target user who is watching a moving image, and detects the head of each of the plurality of users detected when the plurality of users watch the moving image. The degree of correlation of the movement of the target user's head with respect to the movement is calculated. Then, the disclosed technology evaluates the degree of concentration of the target user with respect to viewing of the moving image, based on the calculated degree of correlation.

一つの側面として、ユーザの顔が画面に正対していない機会が多い場合でも、動画視聴に対するユーザの集中度を適切に評価することができる、という効果を有する。 As one aspect, there is an effect that it is possible to appropriately evaluate the degree of concentration of a user with respect to watching a moving image even when there are many occasions when the user's face is not directly facing the screen.

頭部の動きのタイミングと集中度との関係を説明するための図である。It is a figure for demonstrating the relationship between the timing of head movement, and the degree of concentration. 第1実施形態に係る集中度評価装置の機能ブロック図である。It is a functional block diagram of a concentration degree evaluation device concerning a 1st embodiment. 第1実施形態における平均パターンデータベース(DB)の一例を示す図である。It is a figure which shows an example of the average pattern database (DB) in 1st Embodiment. 頭部の動きの同期性について説明するための図である。It is a figure for demonstrating the synchrony of the motion of a head. 評価値DBの一例を示す図である。It is a figure which shows an example of evaluation value DB. 集中度評価装置として機能するコンピュータの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a computer which functions as a concentration degree evaluation device. 生成処理の一例を示すフローチャートである。It is a flow chart which shows an example of generation processing. 第1実施形態における評価処理の一例を示すフローチャートである。It is a flow chart which shows an example of evaluation processing in a 1st embodiment. 第2及び第3実施形態に係る集中度評価装置の機能ブロック図である。It is a functional block diagram of a concentration degree evaluation device concerning a 2nd and 3rd embodiment. 重要度DBの一例を示す図である。It is a figure which shows an example of importance DB. 一定時間における重要度の平均を説明するための図である。It is a figure for demonstrating the average of the importance degree in a fixed time. 重要度と相関度とを用いた評価値の算出を説明するための図である。It is a figure for demonstrating calculation of the evaluation value using an importance degree and a correlation degree. 第2実施形態における評価処理の一例を示すフローチャートである。It is a flow chart which shows an example of evaluation processing in a 2nd embodiment. 複数のユーザのパターンのクラスタリングを説明するための図である。It is a figure for explaining clustering of a pattern of a plurality of users. 複数のユーザのパターンのクラスタリングを説明するための図である。It is a figure for explaining clustering of a pattern of a plurality of users. 第3実施形態における平均パターンDBの一例を示す図である。It is a figure which shows an example of the average pattern DB in 3rd Embodiment. 第3実施形態における評価処理の一例を示すフローチャートである。It is a flow chart which shows an example of evaluation processing in a 3rd embodiment.

以下、図面を参照して、開示の技術に係る実施形態の一例を説明する。以下の各実施形態では、学習コンテンツとしての講義動画の視聴に対するユーザの集中度を評価する場合を例に説明する。 Hereinafter, an example of an embodiment according to the disclosed technology will be described with reference to the drawings. In each of the following embodiments, a case will be described as an example in which the degree of concentration of a user with respect to viewing a lecture video as learning content is evaluated.

まず、各実施形態の詳細について説明する前に、各実施形態に共通する動作原理について説明する。 First, before describing the details of each embodiment, the operation principle common to each embodiment will be described.

講義動画の視聴中には、ユーザはノートをとるなどのために下を向く場合が多々ある。このノートやメモをとるタイミングは、複数のユーザで同じようなタイミングになる。これは、図1に示すように、同一のコンテンツを複数のユーザが視聴する場合、内容的に重要な部分では、多数のユーザが同じようなタイミング(図1のt1及びt2)でノートをとる。一方、集中していないユーザは、その反応が遅れたり、ノートをとることをしなかったりする。 During viewing of a lecture video, the user often faces downward to take notes. The timing of taking notes and memos is the same for a plurality of users. As shown in FIG. 1, when the same content is viewed by a plurality of users, a large number of users take notes at the same timing (t1 and t2 in FIG. 1) in an important part in terms of content. .. On the other hand, a user who is not concentrated may have a delayed response or may not take notes.

そこで、以下の各実施形態では、ノートをとるなどのタイミングを、ユーザの頭部の動きにより把握し、そのタイミングを複数のユーザのタイミングと比較することにより、集中度を評価する。 Therefore, in each of the following embodiments, the degree of concentration is evaluated by grasping the timing of taking a note by the movement of the user's head and comparing the timing with the timings of a plurality of users.

以下、各実施形態について詳述する。 Hereinafter, each embodiment will be described in detail.

<第1実施形態>
図2に示すように、第1実施形態に係る集中度評価装置10には、講義動画を視聴するユーザを撮影した動画データであるユーザ画像が入力される。ユーザ画像は、例えば、講義動画が再生されるディスプレイの上部等に設置されたカメラにより撮影される。ユーザ画像には、視聴した講義動画の開始箇所からの経過時間と同期した時間情報が対応付けられている。集中度評価装置10は、ユーザ画像に基づいて、ユーザの集中度を評価し、評価結果を出力する。
<First Embodiment>
As shown in FIG. 2, a user image, which is moving image data of a user watching a lecture moving image, is input to the concentration evaluation apparatus 10 according to the first embodiment. The user image is captured by, for example, a camera installed above the display or the like where the lecture moving image is reproduced. The user image is associated with time information that is synchronized with the elapsed time from the start point of the lecture video that was viewed. The degree-of-concentration evaluation device 10 evaluates the degree of concentration of the user based on the user image and outputs the evaluation result.

集中度評価装置10は、機能的には、図2に示すように、検出部12と、生成部14と、算出部16と、評価部18とを含む。また、集中度評価装置10の所定の記憶領域には、平均パターンデータベース(DB)22と、評価値DB24とが記憶される。 As shown in FIG. 2, the concentration degree evaluation device 10 functionally includes a detection unit 12, a generation unit 14, a calculation unit 16, and an evaluation unit 18. An average pattern database (DB) 22 and an evaluation value DB 24 are stored in a predetermined storage area of the concentration degree evaluation device 10.

検出部12は、集中度評価装置10に入力されたユーザ画像から、ユーザの頭部の動きを検出する。具体的には、検出部12は、所定時間間隔の各時間に対応するユーザ画像の各フレームから、ユーザの頭部の向きを検出し、一定時間分の頭部の向きの時間的変化を、頭部の動きを示すパターンとして検出する。頭部の向きを検出するフレームは、ユーザ画像のフレーム毎でもよいし、所定数おきのフレーム毎でもよい。また、頭部の向きの検出方法は従来既知の手法を用いることができる。 The detection unit 12 detects the movement of the user's head from the user image input to the concentration degree evaluation device 10. Specifically, the detection unit 12 detects the orientation of the user's head from each frame of the user image corresponding to each time of the predetermined time interval, and detects the temporal change in the orientation of the head for a certain time. It is detected as a pattern indicating the movement of the head. The frame for detecting the orientation of the head may be every frame of the user image or every predetermined number of frames. As a method of detecting the orientation of the head, a conventionally known method can be used.

例えば、検出部12は、ユーザの頭部の向きを、画面に正対している向きを基準とした上下方向の角度として検出してもよいし、検出した角度を、画面に正対している頭部の向きを1、下向きの頭部の向きを0として2値化してもよい。 For example, the detection unit 12 may detect the orientation of the user's head as an angle in the vertical direction with respect to the orientation facing the screen, or the detected angle may be detected as the head facing the screen. The direction of the part may be 1, and the downward direction of the head may be 0 for binarization.

検出部12は、複数のユーザの各々についてのユーザ画像の各々から検出したパターンを生成部14へ受け渡す。また、検出部12は、集中度を評価する対象である対象ユーザについてのユーザ画像から検出したパターンを算出部16へ受け渡す。 The detection unit 12 transfers the pattern detected from each user image for each of the plurality of users to the generation unit 14. In addition, the detection unit 12 transfers the pattern detected from the user image of the target user whose concentration degree is evaluated to the calculation unit 16.

生成部14は、検出部12から受け渡された複数のユーザについてのパターンから、平均パターンを生成する。具体的には、生成部14は、複数のパターンにおいて、同じ時間に検出された頭部の向きを示す値(角度又は2値化した値など)を平均することにより、平均パターンを生成する。頭部の向きを示す値として2値化した値を用いる場合、平均値として得られた連続値が1に近いほど、多くのユーザの顔が画面に正対していることを表しており、0に近いほど、多くのユーザが下を向いていることを表している。 The generation unit 14 generates an average pattern from the patterns of a plurality of users passed from the detection unit 12. Specifically, the generation unit 14 generates an average pattern by averaging values (angles or binarized values) indicating the orientation of the head detected at the same time in a plurality of patterns. When a binarized value is used as the value indicating the orientation of the head, the closer the continuous value obtained as the average value is to 1, the more the user's face is directly facing the screen, and 0 The closer to, the more users are pointing down.

生成部14は、生成した平均パターンを平均パターンDB22に記憶する。図3に、平均パターンDB22の一例を示す。図3の例では、平均パターンDB22には、頭部の向きを示す値として2値化した値を用い、その平均である連続値が「頭部の向きの平均」として、各時間を示す「時間情報」と対応付けて記憶されている。なお、時間情報としては、ユーザ画像の時間情報と同期する講義動画の開始箇所からの経過時間を用いてもよいし、その時間に相当するフレームのフレーム番号を用いてもよい。 The generation unit 14 stores the generated average pattern in the average pattern DB 22. FIG. 3 shows an example of the average pattern DB 22. In the example of FIG. 3, a binarized value is used as the value indicating the head direction in the average pattern DB 22, and a continuous value that is the average is “average head direction”, which indicates each time. It is stored in association with "time information". As the time information, the elapsed time from the start point of the lecture moving image synchronized with the time information of the user image may be used, or the frame number of the frame corresponding to that time may be used.

算出部16は、複数のユーザの各々の頭部の動きに対する、対象ユーザの頭部の動きの相関度を算出する。具体的には、算出部16は、検出部12から受け渡された対象ユーザのパターンと、平均パターンDB22に記憶された平均パターンとの間の同期性を示す相関度を算出する。 The calculation unit 16 calculates the degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users. Specifically, the calculating unit 16 calculates the degree of correlation indicating the synchronism between the pattern of the target user passed from the detecting unit 12 and the average pattern stored in the average pattern DB 22.

図4に、頭部の動きの同期性について説明するための図を示す。図4に示すように、2つのパターン間で、頭部を下げる箇所など、パターンの変化が開始するタイミングの差(例えば、図4中のA)が小さい場合には、この2つのパターンは同期しているといえる。一方、複数のユーザのパターンとの間で、パターンの変化が開始するタイミングの差(例えば、図4中BA)が大きい場合には、このパターンは複数のユーザのパターンとは同期していないといえる。 FIG. 4 shows a diagram for explaining the synchronism of the movement of the head. As shown in FIG. 4, when there is a small difference (eg, A in FIG. 4) at which the change of the pattern starts, such as where the head is lowered, the two patterns are synchronized. It can be said that they are doing. On the other hand, when there is a large difference in the timing at which the pattern starts to change with respect to the patterns of a plurality of users (for example, BA in FIG. 4), this pattern is not synchronized with the patterns of a plurality of users. I can say.

例えば、算出部16は、対象ユーザについての一定時間分のパターンと時間情報が対応する平均パターンの部分を平均パターンDB22から読み出し、この一定時間分の対象ユーザのパターンと平均パターンとの相互相関係数を相関度として算出することができる。なお、相関度は、相互相関係数に限定されるものではなく、対象ユーザのパターンと平均パターンとの同期性が高いほど高くなる評価指標であればよい。 For example, the calculation unit 16 reads a part of the average pattern corresponding to the time information of the pattern of the target user and the time pattern from the average pattern DB 22, and the mutual relationship between the pattern of the target user of the constant time and the average pattern. The number can be calculated as the degree of correlation. The degree of correlation is not limited to the cross-correlation coefficient, and may be any evaluation index that increases as the synchronism between the pattern of the target user and the average pattern increases.

算出部16は、算出した相関度を評価部18へ受け渡す。 The calculation unit 16 transfers the calculated correlation degree to the evaluation unit 18.

評価部18は、算出部16から受け渡された相関度に基づいて、講義動画の視聴に対する対象ユーザの集中度を評価する。評価部18は、相関度が高いほど、対象ユーザの集中度が高いと評価する。 The evaluation unit 18 evaluates the degree of concentration of the target user with respect to viewing and listening to the lecture moving image, based on the degree of correlation passed from the calculation unit 16. The evaluation unit 18 evaluates that the higher the degree of correlation, the higher the degree of concentration of the target user.

例えば、評価部18は、算出部16から受け渡された相関度を0〜1の値で正規化し、図5に示すような評価値DB24を参照して、相関度に対応する評価値を導出する。 For example, the evaluation unit 18 normalizes the correlation degree passed from the calculation unit 16 with a value of 0 to 1 and refers to the evaluation value DB 24 as shown in FIG. 5 to derive an evaluation value corresponding to the correlation degree. To do.

評価部18は、ユーザ画像の開始から終了までの時間について、一定時間毎に導出した相関度に基づく評価値の集合を、集中度の評価結果として出力する。 The evaluation unit 18 outputs, as the evaluation result of the degree of concentration, a set of evaluation values based on the degree of correlation derived at regular time intervals for the time from the start to the end of the user image.

集中度評価装置10は、例えば図6に示すコンピュータ40で実現することができる。コンピュータ40は、CPU(Central Processing Unit)41と、一時記憶領域としてのメモリ42と、不揮発性の記憶部43とを備える。また、コンピュータ40は、入力部、表示部等の入出力装置44と、記憶媒体49に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部45とを備える。また、コンピュータ40は、インターネット等のネットワークに接続される通信I/F46を備える。CPU41、メモリ42、記憶部43、入出力装置44、R/W部45、及び通信I/F46は、バス47を介して互いに接続される。 The degree-of-concentration evaluation device 10 can be realized by, for example, a computer 40 shown in FIG. The computer 40 includes a CPU (Central Processing Unit) 41, a memory 42 as a temporary storage area, and a non-volatile storage unit 43. The computer 40 also includes an input/output device 44 such as an input unit and a display unit, and an R/W (Read/Write) unit 45 that controls reading and writing of data from and to the storage medium 49. The computer 40 also includes a communication I/F 46 connected to a network such as the Internet. The CPU 41, the memory 42, the storage unit 43, the input/output device 44, the R/W unit 45, and the communication I/F 46 are connected to each other via a bus 47.

記憶部43は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部43には、コンピュータ40を、集中度評価装置10として機能させるための集中度評価プログラム50が記憶される。集中度評価プログラム50は、検出プロセス52と、生成プロセス54と、算出プロセス56と、評価プロセス58とを有する。また、記憶部43は、平均パターンDB22及び評価値DB24の各々を構成する情報が記憶される情報記憶領域60を有する。 The storage unit 43 can be realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like. The storage unit 43 serving as a storage medium stores a concentration degree evaluation program 50 for causing the computer 40 to function as the concentration degree evaluation device 10. The concentration evaluation program 50 has a detection process 52, a generation process 54, a calculation process 56, and an evaluation process 58. In addition, the storage unit 43 has an information storage area 60 in which information constituting each of the average pattern DB 22 and the evaluation value DB 24 is stored.

CPU41は、集中度評価プログラム50を記憶部43から読み出してメモリ42に展開し、集中度評価プログラム50が有するプロセスを順次実行する。CPU41は、検出プロセス52を実行することで、図2に示す検出部12として動作する。また、CPU41は、生成プロセス54を実行することで、図2に示す生成部14として動作する。また、CPU41は、算出プロセス56を実行することで、図2に示す算出部16として動作する。また、CPU41は、評価プロセス58を実行することで、図2に示す評価部18として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、平均パターンDB22及び評価値DB24の各々をメモリ42に展開する。これにより、集中度評価プログラム50を実行したコンピュータ40が、集中度評価装置10として機能することになる。なお、プログラムを実行するCPU41はハードウェアである。 The CPU 41 reads the concentration degree evaluation program 50 from the storage unit 43, expands it in the memory 42, and sequentially executes the processes of the concentration degree evaluation program 50. The CPU 41 operates as the detection unit 12 illustrated in FIG. 2 by executing the detection process 52. Further, the CPU 41 operates as the generation unit 14 illustrated in FIG. 2 by executing the generation process 54. Further, the CPU 41 operates as the calculation unit 16 shown in FIG. 2 by executing the calculation process 56. Further, the CPU 41 operates as the evaluation unit 18 shown in FIG. 2 by executing the evaluation process 58. Further, the CPU 41 reads information from the information storage area 60 and loads each of the average pattern DB 22 and the evaluation value DB 24 in the memory 42. As a result, the computer 40 that executes the concentration degree evaluation program 50 functions as the concentration degree evaluation device 10. The CPU 41 that executes the program is hardware.

なお、集中度評価プログラム50により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。 The function realized by the concentration evaluation program 50 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、第1実施形態に係る集中度評価装置10の作用について説明する。集中度評価装置10に複数のユーザの各々のユーザ画像が入力されると、集中度評価装置10において、図7に示す生成処理が実行される。生成処理が実行されて平均パターンが平均パターンDB22に記憶された状態で、記憶された平均パターンに対応する講義動画と同一の講義動画を視聴した対象ユーザのユーザ画像が集中度評価装置10に入力される。そして、集中度評価装置10において、図8に示す評価処理が実行される。 Next, the operation of the concentration degree evaluation device 10 according to the first embodiment will be described. When the user images of the plurality of users are input to the concentration degree evaluation device 10, the generation process shown in FIG. 7 is executed in the concentration degree evaluation device 10. In the state where the generation process is executed and the average pattern is stored in the average pattern DB 22, the user image of the target user who views the same lecture moving image as the lecture moving image corresponding to the stored average pattern is input to the concentration degree evaluation device 10. To be done. Then, in the degree-of-concentration evaluation device 10, the evaluation process shown in FIG. 8 is executed.

以下、生成処理及び評価処理の各々について詳述する。なお、生成処理及び評価処理は、開示の技術の集中度評価方法の一例である。 Hereinafter, each of the generation processing and the evaluation processing will be described in detail. The generation processing and the evaluation processing are examples of the concentration degree evaluation method of the disclosed technology.

まず、生成処理について説明する。 First, the generation process will be described.

図7のステップS12で、検出部12が、複数のユーザの各々についてのユーザ画像の各々において、所定時間間隔の各時間に対応する各フレームから、ユーザの頭部の向きを検出し、頭部の向きの時間的変化を、頭部の動きを示すパターンとして検出する。検出部12は、複数のユーザの各々についてのユーザ画像の各々から検出したパターンを生成部14へ受け渡す。 In step S12 of FIG. 7, the detection unit 12 detects the orientation of the user's head from each frame corresponding to each time of the predetermined time interval in each of the user images of each of the plurality of users, and detects the head. The temporal change in the direction of is detected as a pattern indicating the movement of the head. The detection unit 12 transfers the pattern detected from each user image for each of the plurality of users to the generation unit 14.

次に、ステップS14で、生成部14が、検出部12から受け渡された複数のパターンにおいて、同じ時間に検出された頭部の向きを示す値(角度又は2値化した値など)を平均することにより、平均パターンを生成する。 Next, in step S14, the generation unit 14 averages the values (angles or binarized values) indicating the orientation of the head detected at the same time in the plurality of patterns transferred from the detection unit 12. By doing so, an average pattern is generated.

次に、ステップS16で、生成部14が、生成した平均パターンを平均パターンDB22に記憶し、生成処理は終了する。 Next, in step S16, the generation unit 14 stores the generated average pattern in the average pattern DB 22, and the generation process ends.

次に、評価処理について説明する。 Next, the evaluation process will be described.

図8のステップS22で、検出部12が、入力された対象ユーザのユーザ画像から、所定時間間隔の各時間に対応する各フレームを取得し、頭部の向きを検出して、そのフレームに対応する時間情報と対応付けて、所定の記録領域に記録する。 In step S22 of FIG. 8, the detection unit 12 acquires each frame corresponding to each time of the predetermined time interval from the input user image of the target user, detects the orientation of the head, and corresponds to the frame. It is recorded in a predetermined recording area in association with the time information to be recorded.

次に、ステップS24で、検出部12が、頭部の向きが一定時間分記録されたか否かを判定する。一定時間分記録された場合には、ステップS26へ移行し、記録されていない場合には、ステップS22に戻る。 Next, in step S24, the detection unit 12 determines whether or not the orientation of the head has been recorded for a certain period of time. If it has been recorded for a certain period of time, the process proceeds to step S26, and if it has not been recorded, the process returns to step S22.

ステップS26では、検出部12が、一定時間分記録された頭部の向きを、対象ユーザのパターンとして検出し、算出部16へ受け渡す。そして、算出部16が、対象ユーザについての一定時間分のパターンと時間情報が対応する平均パターンの部分を平均パターンDB22から読み出す。そして、算出部16が、一定時間分の対象ユーザのパターンと平均パターンとの相関度を算出する。算出部16は、算出した相関度を評価部18へ受け渡す。 In step S26, the detection unit 12 detects the orientation of the head recorded for a certain period of time as a pattern of the target user, and transfers it to the calculation unit 16. Then, the calculation unit 16 reads, from the average pattern DB 22, a portion of the average pattern in which the time information corresponds to the pattern for a certain time of the target user. Then, the calculation unit 16 calculates the degree of correlation between the pattern of the target user for a certain period of time and the average pattern. The calculation unit 16 transfers the calculated correlation degree to the evaluation unit 18.

次に、ステップS28で、評価部18が、算出部16から受け渡された相関度を0〜1の値で正規化し、図5に示すような評価値DB24を参照して、相関度に対応する評価値を導出する。評価部18は、一定時間を示す時間情報と、導出した評価値とを対応付けて、所定の記録領域に一旦記録する。 Next, in step S28, the evaluation unit 18 normalizes the correlation degree passed from the calculation unit 16 with a value of 0 to 1, and refers to the evaluation value DB 24 as shown in FIG. The evaluation value to be derived is derived. The evaluation unit 18 associates the time information indicating a certain time with the derived evaluation value, and temporarily records them in a predetermined recording area.

次に、ステップS30で、検出部12が、入力されたユーザ画像が終了箇所に到達したか否か、すなわち、ユーザ画像と時間情報が同期する講義動画が終了したか否かを判定する。講義動画が終了した場合には、ステップS32へ移行し、終了していない場合には、ステップS22に戻る。 Next, in step S30, the detection unit 12 determines whether or not the input user image has reached the end position, that is, whether or not the lecture moving image in which the user image and the time information are synchronized has ended. If the lecture moving image has ended, the process proceeds to step S32, and if not finished, the process returns to step S22.

ステップS32では、評価部18が、所定の記録領域に一旦記憶した、一定時間毎に導出した相関度に基づく評価値の集合を、集中度の評価結果として出力して、評価処理は終了する。 In step S32, the evaluation unit 18 outputs a set of evaluation values based on the degree of correlation, which is temporarily stored in a predetermined recording area and is derived at regular time intervals, as the evaluation result of the degree of concentration, and the evaluation process ends.

以上説明したように、第1実施形態に係る集中度評価装置は、講義動画を視聴中の対象ユーザの頭部の動きを示すパターンを検出する。集中度評価装置は、複数のユーザが同一の講義動画を視聴した際に検出された複数のユーザの各々のパターンを平均した平均パターンと、対象ユーザのパターンとの相関度を算出し、相関度に基づいて、講義動画の視聴に対する対象ユーザの集中度を評価する。このように、動画視聴に集中している場合には、多くのユーザが同じようなタイミングで頭部を下げることを利用して、ユーザの顔が画面に正対していない機会が多い場合でも、動画視聴に対するユーザの集中度を適切に評価することができる。 As described above, the concentration degree evaluation device according to the first embodiment detects a pattern indicating the movement of the head of the target user who is viewing the lecture video. The degree-of-concentration evaluation device calculates a correlation degree between an average pattern obtained by averaging patterns of a plurality of users detected when a plurality of users watch the same lecture video and a pattern of a target user, and calculates the correlation degree. Based on, we evaluate the degree of concentration of the target user for viewing the lecture video. As described above, when the user concentrates on watching the video, many users use the same technique of lowering their heads, and even when there are many occasions when the user's face is not directly facing the screen, It is possible to appropriately evaluate the degree of concentration of the user with respect to watching the video.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る集中度評価装置において、第1実施形態に係る集中度評価装置10と同一の部分については、同一符号を付して詳細な説明を省略する。
<Second Embodiment>
Next, a second embodiment will be described. In the concentration degree evaluation device according to the second embodiment, the same parts as those of the concentration degree evaluation device 10 according to the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

第2実施形態に係る集中度評価装置210は、機能的には、図9に示すように、検出部12と、生成部14と、算出部16と、評価部218とを含む。また、集中度評価装置210の所定の記憶領域には、平均パターンDB22と、重要度DB26とが記憶される。 The concentration evaluation device 210 according to the second embodiment functionally includes a detection unit 12, a generation unit 14, a calculation unit 16, and an evaluation unit 218, as shown in FIG. 9. Further, an average pattern DB 22 and an importance DB 26 are stored in a predetermined storage area of the concentration evaluation device 210.

上述したように、講義動画の視聴中には、ユーザはノートをとるなどのために下を向く場合が多々ある。このノートをとるタイミングは、複数のユーザで同じようなタイミングになる。この特徴は、講義動画の内容の重要性が高い箇所ほど顕著に現れる。 As described above, the user often looks down to take notes while watching the lecture video. The timing of taking this note is the same for a plurality of users. This feature becomes more prominent where the content of the lecture video is more important.

そこで、評価部218は、講義動画の内容に関する重要度が高いほど、かつ、平均パターンとの相関度が高いほど、対象ユーザの集中度が高いと評価する。 Therefore, the evaluation unit 218 evaluates that the higher the degree of importance of the content of the lecture video and the higher the degree of correlation with the average pattern, the higher the degree of concentration of the target user.

具体的には、評価部218は、重要度DB26を参照して、講義動画の区間毎の重要度を取得する。 Specifically, the evaluation unit 218 refers to the importance DB 26 and acquires the importance of each section of the lecture video.

図10に、重要度DB26の一例を示す。図10の例では、各「区間」について、その区間を示す「時間情報」と「重要度」とが対応付けて記憶されている。コンテンツが講義動画の場合、例えば、講師の発する言葉に重要なワードが含まれている箇所や、その際の音圧などの音声情報に変化があった箇所を含む区間を、重要度の高い区間と定義することができる。また、講師の顔がカメラ方向を見る、絵を板書する、板書の一部にマークをするなどの特定の動作を講師が行った箇所を含む区間を、重要度の高い区間と定義してもよい。 FIG. 10 shows an example of the importance DB 26. In the example of FIG. 10, for each “section”, “time information” indicating the section and “importance” are stored in association with each other. If the content is a lecture video, for example, a section that contains an important word in the words spoken by the instructor and a section that includes changes in audio information such as sound pressure at that time are highly important sections. Can be defined as Also, a section that includes a location where the teacher's face looks at the camera, draws a picture, or puts a mark on a part of the board is defined as a section with high importance. Good.

また、講義中の重要な箇所では、講義動画に集中している多くのユーザがノートをとるなどの行為をして頭部の上げ下げが起こる。そこで、所定数のユーザの頭部の上げ下げが集中している箇所を含む区間を、重要度の高い区間と定義してもよい。 Also, at important points during the lecture, many users who are concentrated on the lecture video move their heads up and down by taking notes and other actions. Therefore, a section including a portion where a predetermined number of users' heads are raised and lowered may be defined as a section with high importance.

上記のような重要度の定義に基づき、区間毎の重要度を、コンテンツ制作者が手作業で定義したり、画像処理及び音声処理を用いて自動で定義したりすることにより、事前に定義し、上述の重要度DB26に記憶しておく。重要度DB26に記憶する区間の区切り方は、所定時間間隔で均等に区切ってもよいし、重要度が変化するタイミングに応じて、不定の長さで区切ってもよい。 Based on the above definition of importance, the importance of each section is defined in advance by being manually defined by the content creator or automatically defined by using image processing and audio processing. , Are stored in the above-mentioned importance DB 26. The division of the sections stored in the importance DB 26 may be evenly divided at predetermined time intervals, or may be divided into indefinite lengths according to the timing at which the importance changes.

評価部218は、対象ユーザの一定時間分(以下、この一定時間を「一定時間S」という)のユーザ画像に基づいて集中度を評価する際、講義動画の一定時間Sに含まれる区間の各々の重要度を、重要度DB26から取得する。評価部218は、取得した重要度の平均を算出し、図11に示すように、一定時間Sにおける重要度の平均が予め定めた閾値以上の場合に、その一定時間Sにおける集中度の評価を行う。 When the evaluation unit 218 evaluates the degree of concentration based on the user image of the target user for a fixed time (hereinafter, this fixed time is referred to as “fixed time S”), each of the sections included in the fixed time S of the lecture video. Is acquired from the importance DB 26. The evaluation unit 218 calculates the average of the acquired degrees of importance, and as shown in FIG. 11, when the average of the degrees of importance at the constant time S is equal to or greater than a predetermined threshold value, the degree of concentration at the constant time S is evaluated. To do.

重要度の平均が閾値未満の一定時間Sについては、集中度の評価は行わない。なお、重要度の平均が閾値未満の一定時間S、すなわち、重要度が低い箇所では、ユーザがノートをとるために頭部を下げるなどの動作を行っている時間が少なく、ユーザの顔がカメラに正対している時間が長いと考えられる。そこで、重要度の平均が閾値未満の一定時間Sについては、顔の表情を用いて集中度を評価するなどの既存の手法を用いて、集中度を評価してもよい。 The evaluation of the degree of concentration is not performed for a certain period S when the average of the degrees of importance is less than the threshold value. It should be noted that, in a certain time S where the average importance level is less than a threshold value, that is, in a place where the importance level is low, the user does not spend much time doing his/her head down to take notes, and the user's face is on the camera. It is thought that the time to face is long. Therefore, for a certain period of time S in which the average importance degree is less than the threshold value, the concentration degree may be evaluated by using an existing method such as evaluating the concentration degree using a facial expression.

評価部218は、重要度が閾値以上の一定時間Sについては、その一定時間Sに含まれる区間の各々の重要度を用いて、評価値Vを算出する。例えば、図12に示すように、評価部218は、一定時間Sに含まれる区間Si(i=1,2,・・・,n、)の各々の重要度ωと、算出部16により算出された各区間の相関度aとを用いて、評価値Vを算出する。評価値Vは、例えば、下記に示すように、重要度ωと相関度aとの内積を、一定時間Sに含まれる区間数nで除算した値とすることができる。 The evaluation unit 218 calculates the evaluation value V using the importance of each of the sections included in the constant time S when the importance is equal to or higher than the threshold value. For example, as illustrated in FIG. 12, the evaluation unit 218 calculates the importance degree ω i of each of the sections Si (i=1, 2,..., N) included in the constant time S by the calculation unit 16. The evaluation value V is calculated using the correlation degree a i of each section. The evaluation value V can be, for example, a value obtained by dividing the inner product of the importance degree ω i and the correlation degree a i by the number of sections n included in the constant time S, as shown below.

V=(Σ(i=1〜n)ω・a)/n V=(Σ (i=1 to n) ω i ·a i )/n

評価部218は、ユーザ画像の開始から終了までの時間について、一定時間S毎に算出した重要度及び相関度に基づく評価値Vの集合を、集中度の評価結果として出力する。 The evaluation unit 218 outputs, as the evaluation result of the degree of concentration, a set of evaluation values V based on the degree of importance and the degree of correlation calculated for each constant time S for the time from the start to the end of the user image.

集中度評価装置210は、例えば図6に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、集中度評価装置210として機能させるための集中度評価プログラム250が記憶される。集中度評価プログラム250は、検出プロセス52と、生成プロセス54と、算出プロセス56と、評価プロセス258とを有する。また、記憶部43は、平均パターンDB22及び重要度DB26の各々を構成する情報が記憶される情報記憶領域60を有する。 The degree-of-concentration evaluation device 210 can be realized by the computer 40 shown in FIG. 6, for example. The storage unit 43 of the computer 40 stores a concentration degree evaluation program 250 for causing the computer 40 to function as the concentration degree evaluation device 210. The concentration evaluation program 250 has a detection process 52, a generation process 54, a calculation process 56, and an evaluation process 258. In addition, the storage unit 43 has an information storage area 60 in which information configuring each of the average pattern DB 22 and the importance DB 26 is stored.

CPU41は、集中度評価プログラム250を記憶部43から読み出してメモリ42に展開し、集中度評価プログラム250が有するプロセスを順次実行する。CPU41は、評価プロセス258を実行することで、図9に示す評価部218として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、平均パターンDB22及び重要度DB26の各々をメモリ42に展開する。他のプロセスについては、第1実施形態に係る集中度評価プログラム50と同様である。これにより、集中度評価プログラム250を実行したコンピュータ40が、集中度評価装置210として機能することになる。 The CPU 41 reads the concentration degree evaluation program 250 from the storage unit 43, expands it in the memory 42, and sequentially executes the processes of the concentration degree evaluation program 250. The CPU 41 operates as the evaluation unit 218 shown in FIG. 9 by executing the evaluation process 258. Further, the CPU 41 reads information from the information storage area 60 and loads each of the average pattern DB 22 and the importance DB 26 in the memory 42. Other processes are the same as those of the concentration degree evaluation program 50 according to the first embodiment. As a result, the computer 40 that executes the concentration degree evaluation program 250 functions as the concentration degree evaluation device 210.

なお、集中度評価プログラム250により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 The function realized by the concentration evaluation program 250 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第2実施形態に係る集中度評価装置210の作用について説明する。第2実施形態では、評価処理が第1実施形態と異なるため、図13を参照して、第2実施形態における評価処理について説明する。なお、第1実施形態における評価処理(図8)と同一の処理については、同一符号を付して詳細な説明を省略する。 Next, the operation of the concentration degree evaluation device 210 according to the second embodiment will be described. In the second embodiment, the evaluation process is different from that in the first embodiment. Therefore, the evaluation process in the second embodiment will be described with reference to FIG. The same processes as those of the evaluation process (FIG. 8) in the first embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

図13のステップS22及びS24を経て、一定時間S分の頭部の向きが、対象ユーザのパターンとして検出されると、次のステップS32へ移行する。 After the steps S22 and S24 of FIG. 13 are performed, when the head orientation for a certain time S is detected as the pattern of the target user, the process proceeds to the next step S32.

ステップS32では、評価部218が、講義動画の一定時間Sに含まれる各区間Siの重要度ωを重要度DB26から取得して、重要度の平均を算出する。そして、評価部218は、一定時間Sにおける重要度の平均が予め定めた閾値以上か否かを判定する。重要度の平均が閾値以上の場合には、ステップS34へ移行し、閾値未満の場合には、ステップS36へ移行する。 In step S32, the evaluation unit 218 acquires the importance ω i of each section Si included in the constant time S of the lecture video from the importance DB 26 and calculates the average of the importance. Then, the evaluation unit 218 determines whether or not the average of the degrees of importance in the constant time S is equal to or more than a predetermined threshold value. If the average importance level is equal to or higher than the threshold value, the process proceeds to step S34, and if it is less than the threshold value, the process proceeds to step S36.

ステップS36では、その一定時間Sについては、集中度の評価を行わないことを決定して、ステップS20へ移行する。 In step S36, it is determined that the degree of concentration is not evaluated for the certain time S, and the process proceeds to step S20.

ステップS34では、算出部16が、一定時間Sを、重要度DB26に記憶されている各区間に対応させた区間Si(i=1,2,・・・,n)に分割する。 In step S34, the calculation unit 16 divides the fixed time S into sections Si (i=1, 2,..., N) corresponding to the sections stored in the importance DB 26.

次に、ステップS226で、算出部16が、対象ユーザについての一定時間S分の頭部の向きを示すパターンと時間情報が対応する平均パターンの部分を平均パターンDB22から読み出す。そして、算出部16が、一定時間S内の区間Si毎に、対象ユーザのパターンと平均パターンとの相関度aを算出する。 Next, in step S226, the calculation unit 16 reads, from the average pattern DB 22, an average pattern portion in which the time information corresponds to the pattern indicating the orientation of the head of the target user for the fixed time S. Then, the calculation unit 16 calculates the degree of correlation a i between the pattern of the target user and the average pattern for each section Si within the fixed time S.

次に、ステップS228で、評価部218が、講義動画の一定時間Sに含まれる各区間Siの重要度ωを重要度DB26から取得して、各区間Siの重要度ωと、上記ステップS226で算出したaとを用いて、評価値Vを算出する。評価部218は、一定時間Sを示す時間情報と、算出した評価値Vとを対応付けて、所定の記録領域に一旦記録する。 Next, in step S228, the evaluation unit 218 obtains the importance omega i of each section Si contained in a predetermined time S lecture video from importance DB 26, and severity omega i of each section Si, the step An evaluation value V is calculated using a i calculated in S226. The evaluation unit 218 associates the time information indicating the constant time S with the calculated evaluation value V and temporarily records them in a predetermined recording area.

以下、第1実施形態と同様に、ステップS20及びS22が実行されて、評価処理は終了する。 Hereinafter, similarly to the first embodiment, steps S20 and S22 are executed and the evaluation process ends.

以上説明したように、第2実施形態に係る集中度評価装置は、講義動画を視聴中の対象ユーザの頭部の動きを示すパターンを検出する。集中度評価装置は、複数のユーザが同一の講義動画を視聴した際に検出された複数のユーザの各々のパターンを平均した平均パターンと、対象ユーザのパターンとの相関度を算出する。そして、集中度評価装置は、講義動画の内容的な重要性を示す重要度と、算出した相関度とに基づいて、講義動画の視聴に対する対象ユーザの集中度を評価する。このように、動画視聴に集中している場合には、多くのユーザが同じようなタイミングで頭部を下げること、及びその特徴がコンテンツの重要な箇所で顕著に表れることを利用する。これにより、ユーザの顔が画面に正対していない機会が多い場合でも、動画視聴に対するユーザの集中度を適切に評価することができる。 As described above, the concentration degree evaluation apparatus according to the second embodiment detects the pattern indicating the movement of the head of the target user who is viewing the lecture video. The degree-of-concentration evaluation apparatus calculates a degree of correlation between an average pattern obtained by averaging patterns of a plurality of users detected when a plurality of users watch the same lecture moving image and a pattern of a target user. Then, the degree-of-concentration evaluation device evaluates the degree of concentration of the target user with respect to the viewing of the lecture video based on the degree of importance indicating the content importance of the lecture video and the calculated degree of correlation. As described above, when the user concentrates on watching a moving image, many users use the fact that their heads are lowered at the same timing, and that the feature is prominently shown at an important part of the content. This makes it possible to appropriately evaluate the degree of concentration of the user with respect to watching a moving image even when there are many occasions when the user's face is not directly facing the screen.

<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態に係る集中度評価装置において、第2実施形態に係る集中度評価装置210と同一の部分については、同一符号を付して詳細な説明を省略する。
<Third Embodiment>
Next, a third embodiment will be described. In the concentration degree evaluation device according to the third embodiment, the same parts as those of the concentration degree evaluation device 210 according to the second embodiment are designated by the same reference numerals and detailed description thereof will be omitted.

第3実施形態に係る集中度評価装置310は、機能的には、図9に示すように、検出部12と、生成部314と、算出部316と、評価部318とを含む。また、集中度評価装置310の所定の記憶領域には、平均パターンDB322と、重要度DB26とが記憶される。 As shown in FIG. 9, the concentration evaluation device 310 according to the third embodiment functionally includes a detection unit 12, a generation unit 314, a calculation unit 316, and an evaluation unit 318. Further, the average pattern DB 322 and the importance DB 26 are stored in a predetermined storage area of the concentration evaluation device 310.

上述したように、講義動画の視聴中には、ユーザはノートをとるなどのために下を向く場合が多々あり、このノートをとるタイミングは、複数のユーザで同じようなタイミングになる。ただし、ノートをとるために頭部を下げるタイミングや回数は、ユーザ毎にその傾向に相違がある。そこで、第3実施形態では、ユーザ毎の頭部の動き方の傾向の違いを考慮して、対象ユーザの集中度を評価する際に、対象ユーザと同じような傾向があるユーザ群の頭部の動きと比較することで、対象ユーザがノートをとりそうなタイミングを適切に設定する。 As described above, the user often turns downward while taking a lecture video, for example, to take a note, and the timing of taking the note is the same for a plurality of users. However, the timing and the number of times to lower the head for taking notes have different tendencies for each user. Therefore, in the third embodiment, when the degree of concentration of the target user is evaluated in consideration of the difference in the tendency of the movement of the head for each user, the head of the user group having the same tendency as the target user. By comparing with the movement of, the timing at which the target user is likely to take a note is appropriately set.

生成部314は、複数のユーザの各々の頭部の動きを示すパターンを複数のクラスタに分類し、クラスタ毎に、平均パターンを生成する。具体的には、生成部314は、頭部の下がる回数及び頭部の下がるタイミングに応じて、複数のユーザの各々のパターンを複数のクラスタに分類する。 The generation unit 314 classifies the patterns indicating the movements of the heads of the plurality of users into a plurality of clusters, and generates an average pattern for each cluster. Specifically, the generation unit 314 classifies each pattern of the plurality of users into a plurality of clusters according to the number of times the head is lowered and the timing when the head is lowered.

例えば、生成部314は、複数のユーザの頭部の動きを示すパターンの各々について、頭部を下げる回数と、タイミングのずれを示す指標とを算出する。タイミングのずれを示す指標は、例えば、α%(例えば、60%)のユーザが頭部を下げているときに頭部を下げていなかった回数とすることができる。そして、生成部314は、図14に示すように、頭部を下げる回数及びタイミングのずれを示す指標をそれぞれ正規化した値を用いて、例えば、K−meansなどの手法により、各パターンをクラスタリングする。なお、K−meansによってクラスタリングする場合、k=3前後とすることができる。また、生成部314は、クラスタ内の要素(パターン)が1つしかない場合は、そのクラスタを最近傍のクラスタと結合する。 For example, the generation unit 314 calculates the number of times the head is lowered and the index indicating the timing shift for each of the patterns indicating the movements of the heads of the plurality of users. The index indicating the timing shift can be, for example, the number of times that α% (for example, 60%) of users have not lowered their heads while they are lowering their heads. Then, as shown in FIG. 14, the generation unit 314 clusters each pattern by a method such as K-means using the normalized values of the index indicating the number of times the head is lowered and the timing shift. To do. In the case of clustering by K-means, k may be around 3. Also, when there is only one element (pattern) in the cluster, the generation unit 314 combines the cluster with the nearest cluster.

なお、本実施形態では、頭部を下げる回数及びタイミングのずれを示す指標を用いて各パターンをクラスタリングする場合について説明するが、いずれか一方を用いたクラスタリングや、他の指標を用いたクラスタリングを行ってもよい。 In the present embodiment, a case will be described in which each pattern is clustered using an index indicating the number of times the head is lowered and the timing shift, but clustering using either one or clustering using another index may be performed. You can go.

ただし、図15のCに示すように、頭部を下げる回数によるクラスタリングの場合、頭部の動きの傾向が異なるパターンが、同じクラスタに分類される可能性がある。例えば、図15中のDに示すように、頭部を下げるタイミングのずれも用いてクラスタリングした場合では、異なるクラスタに属するパターン(黒丸で示すパターンと、ドットの丸で示すパターン)が、同じクラスタに分類される。 However, as shown in FIG. 15C, in the case of clustering by the number of times the head is lowered, patterns with different head movement tendencies may be classified into the same cluster. For example, as shown by D in FIG. 15, when clustering is performed also by using the timing shift of lowering the head, patterns belonging to different clusters (patterns indicated by black circles and patterns indicated by dot circles) are the same cluster. are categorized.

また、頭部を下げるタイミングのずれも用いてクラスタリングした場合では分類可能なパターン(白丸で示すパターンと、チェックの丸で示すパターン)が、図15中のEに示すように、頭部を下げる回数のみでは分類困難になる場合もある。 Further, in the case where clustering is performed also using the shift in the timing of lowering the head, the patterns that can be classified (the pattern indicated by the white circles and the pattern indicated by the check circles) are lowered as shown by E in FIG. Sometimes it may be difficult to classify only by the number of times.

本実施形態のように、頭部を下げる回数及びタイミングのずれを示す指標を用いて各パターンをクラスタリングすることにより、ユーザ毎の頭部の動きの傾向を、より適切に分類することができる。 By clustering each pattern using an index indicating the number of times the head is lowered and the timing shift as in the present embodiment, the tendency of the head movement for each user can be more appropriately classified.

生成部314は、各クラスタに属するパターンの平均をとって、クラスタ毎に平均パターンを生成する。平均パターンの生成方法は第1実施形態と同様である。 The generation unit 314 averages the patterns belonging to each cluster and generates an average pattern for each cluster. The average pattern generation method is the same as that in the first embodiment.

ここで、クラスタ中心から大きく外れたパターンが同一クラスタとして分類されてしまった場合、そのクラスタに属するパターンから平均パターンを生成する際に、大きく外れた値の影響を受けてしまう。そこで、クラスタ中心から大きく外れたパターンの影響を軽減して平均パターンを生成するために、生成部314は、クラスタ中心からp*σ離れているパターンは、そのクラスタについての平均パターンを生成する際に除外する。なお、pは係数であり、σはクラスタの分散である。pの値は、頭部を下げる回数が多いほどタイミングがずれる可能性が高くなることを考慮して、頭部を下げる回数が多いクラスタほど大きな値になるように設定する。 Here, if a pattern that is largely deviated from the center of the cluster is classified as the same cluster, a value that is largely deviated when the average pattern is generated from the patterns belonging to the cluster is affected. Therefore, in order to reduce the influence of the pattern greatly deviated from the cluster center and generate the average pattern, the generation unit 314 uses the pattern p*σ away from the cluster center when generating the average pattern for the cluster. Exclude. Note that p is a coefficient and σ is the variance of the cluster. The value of p is set to a larger value in a cluster in which the number of times of lowering the head is larger, considering that the timing is more likely to be shifted as the number of times of lowering the head is increased.

生成部314は、各クラスタに属するパターンの情報と、生成したクラスタ毎の平均パターンとを、平均パターンDB322に記憶する。図16に、平均パターンDB322の一例を示す。図16の例では、平均パターンDB322は、各クラスタに属するパターンの情報が記憶されたクラスタ−パターンテーブル322Aと、クラスタ毎の平均パターンが記憶された平均パターンテーブル322Bとを含む。クラスタ−パターンテーブル322Aには、各クラスタの識別情報である「クラスタ」と、各クラスタに属する「パターン」とが対応付けて記憶されている。 The generation unit 314 stores, in the average pattern DB 322, information on the patterns belonging to each cluster and the generated average pattern for each cluster. FIG. 16 shows an example of the average pattern DB 322. In the example of FIG. 16, the average pattern DB 322 includes a cluster-pattern table 322A in which information on patterns belonging to each cluster is stored, and an average pattern table 322B in which average patterns for each cluster are stored. In the cluster-pattern table 322A, "cluster" which is identification information of each cluster and "pattern" belonging to each cluster are stored in association with each other.

算出部316は、対象ユーザの頭部の動きを示すパターンが分類されるクラスタに属するパターンから生成された平均パターンと、対象ユーザのパターンとの相関度を算出する。 The calculation unit 316 calculates the degree of correlation between the average pattern generated from the patterns belonging to the cluster into which the patterns indicating the movement of the head of the target user are classified, and the pattern of the target user.

具体的には、算出部316は、平均パターンDB322のクラスタ−パターンテーブル322Aから、クラスタ毎に、任意の数のサンプルを選択し、対象ユーザのパターンと、サンプルとの距離を算出する。算出部316は、算出した距離を用いて、例えば、K−NN(K-Nearest Neighbor)などで最も近いクラスタを決定する。 Specifically, the calculation unit 316 selects an arbitrary number of samples for each cluster from the cluster-pattern table 322A of the average pattern DB 322, and calculates the distance between the pattern of the target user and the sample. The calculation unit 316 uses the calculated distance to determine the closest cluster in K-NN (K-Nearest Neighbor), for example.

なお、クラスタの決定は上記の方法に限定されない。例えば、クラスタ−パターンテーブル322Aに代えて、各クラスタを特定するための情報であるクラスタ中心や分散の情報を記憶しておき、対象ユーザのパターンと、各クラスタ中心との距離に基づいて、対象ユーザのパターンが属するクラスタを決定してもよい。 The cluster determination is not limited to the above method. For example, instead of the cluster-pattern table 322A, information about cluster centers and variances, which is information for identifying each cluster, is stored, and based on the pattern of the target user and the distance between each cluster center, the target The cluster to which the user's pattern belongs may be determined.

また、算出部316は、対象ユーザのパターンが、いずれのクラスタ中心からも所定距離(例えば、上記のp*σ)以上離れている場合には、該当するクラスタがないことを示す情報を、評価部318へ通知する。 In addition, the calculation unit 316 evaluates information indicating that there is no corresponding cluster when the pattern of the target user is more than a predetermined distance (for example, p*σ) from any cluster center. Notify the section 318.

評価部318は、第2実施形態における評価部218と同様に、区間Si毎に、平均パターンとの相関度aと重要度ωとを用いて、評価値Vを算出する。 Similar to the evaluation unit 218 in the second embodiment, the evaluation unit 318 calculates the evaluation value V for each section Si using the correlation degree a i with the average pattern and the importance degree ω i .

また、評価部318は、ある区間Siの対象ユーザのパターンについて、該当するクラスタがないことを示す情報が算出部316から通知された場合には、その区間Siについての集中度の評価値Vを0とする。 Further, when the calculation unit 316 notifies the evaluation unit 318 of the pattern of the target user in a certain section Si that the corresponding cluster does not exist, the evaluation unit 318 sets the evaluation value V of the degree of concentration of the section Si. Set to 0.

集中度評価装置310は、例えば図6に示すコンピュータ40で実現することができる。コンピュータ40の記憶部43には、コンピュータ40を、集中度評価装置310として機能させるための集中度評価プログラム350が記憶される。集中度評価プログラム350は、検出プロセス52と、生成プロセス354と、算出プロセス356と、評価プロセス358とを有する。また、記憶部43は、平均パターンDB322及び重要度DB26の各々を構成する情報が記憶される情報記憶領域60を有する。 The concentration degree evaluation apparatus 310 can be realized by, for example, the computer 40 shown in FIG. The storage unit 43 of the computer 40 stores a concentration degree evaluation program 350 for causing the computer 40 to function as the concentration degree evaluation device 310. The concentration evaluation program 350 has a detection process 52, a generation process 354, a calculation process 356, and an evaluation process 358. In addition, the storage unit 43 has an information storage area 60 in which information configuring each of the average pattern DB 322 and the importance DB 26 is stored.

CPU41は、集中度評価プログラム350を記憶部43から読み出してメモリ42に展開し、集中度評価プログラム350が有するプロセスを順次実行する。CPU41は、検出プロセス52を実行することで、図9に示す検出部12として動作する。また、CPU41は、生成プロセス354を実行することで、図9に示す生成部314として動作する。また、CPU41は、算出プロセス356を実行することで、図9に示す算出部316として動作する。また、CPU41は、評価プロセス358を実行することで、図9に示す評価部318として動作する。また、CPU41は、情報記憶領域60から情報を読み出して、平均パターンDB322及び重要度DB26の各々をメモリ42に展開する。これにより、集中度評価プログラム350を実行したコンピュータ40が、集中度評価装置310として機能することになる。 The CPU 41 reads the concentration degree evaluation program 350 from the storage unit 43, expands it in the memory 42, and sequentially executes the processes of the concentration degree evaluation program 350. The CPU 41 operates as the detection unit 12 illustrated in FIG. 9 by executing the detection process 52. Further, the CPU 41 operates as the generation unit 314 illustrated in FIG. 9 by executing the generation process 354. Further, the CPU 41 operates as the calculation unit 316 shown in FIG. 9 by executing the calculation process 356. Further, the CPU 41 operates as the evaluation unit 318 shown in FIG. 9 by executing the evaluation process 358. Further, the CPU 41 reads information from the information storage area 60 and loads each of the average pattern DB 322 and the importance DB 26 in the memory 42. As a result, the computer 40 that executes the concentration degree evaluation program 350 functions as the concentration degree evaluation device 310.

なお、集中度評価プログラム350により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。 The function realized by the concentration evaluation program 350 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第3実施形態に係る集中度評価装置310の作用について説明する。第3実施形態では、評価処理が第1及び第2実施形態と異なるため、図17を参照して、第3実施形態における評価処理について説明する。なお、第1実施形態における評価処理(図8)又は第2実施形態における評価処理(図13)と同一の処理については、同一符号を付して詳細な説明を省略する。 Next, the operation of the concentration degree evaluation device 310 according to the third embodiment will be described. In the third embodiment, the evaluation process is different from that in the first and second embodiments, and therefore the evaluation process in the third embodiment will be described with reference to FIG. The same processes as the evaluation process (FIG. 8) in the first embodiment (FIG. 8) or the evaluation process in the second embodiment (FIG. 13) are denoted by the same reference numerals and detailed description thereof will be omitted.

図17のステップS22〜S32を経て、一定時間S分の対象ユーザのパターンが検出され、講義動画の一定時間Sに含まれる区間Siの重要度ωの平均が閾値以上であると判定されると、次のステップS42へ移行する。 Through steps S22 to S32 of FIG. 17, the pattern of the target user for the fixed time S is detected, and it is determined that the average of the importance ω i of the section Si included in the fixed time S of the lecture video is equal to or more than the threshold. Then, the process proceeds to the next step S42.

ステップS42では、算出部316が、平均パターンDB322のクラスタ−パターンテーブル322Aから、クラスタ毎に、任意の数のサンプルを選択し、対象ユーザのパターンと、サンプルとの距離を算出する。そして、算出部316は、算出した距離を用いて、例えば、K−NN(K-Nearest Neighbor)などで最も近いクラスタを決定する。 In step S42, the calculation unit 316 selects an arbitrary number of samples for each cluster from the cluster-pattern table 322A of the average pattern DB 322, and calculates the distance between the pattern of the target user and the sample. Then, the calculation unit 316 uses the calculated distance to determine the closest cluster in, for example, K-NN (K-Nearest Neighbor).

次に、ステップS44で、算出部316が、対象ユーザのパターンが、いずれのクラスタ中心からも所定距離(例えば、上記のp*σ)以上離れているか否かを判定することにより、対象ユーザのパターンが外れ値か否かを判定する。対象ユーザのパターンが外れ値の場合には、ステップS46へ移行し、外れ値ではない場合には、ステップS34へ移行する。 Next, in step S44, the calculation unit 316 determines whether or not the pattern of the target user is away from any of the cluster centers by a predetermined distance (for example, the above p*σ) or more. Determine if the pattern is an outlier. If the pattern of the target user is an outlier, the process proceeds to step S46, and if it is not an outlier, the process proceeds to step S34.

ステップS46では、算出部316が、対象ユーザのパターンについて、該当するクラスタがないことを示す情報を、評価部318へ通知する。そして、評価部318が、その区間Siについての集中度の評価値Vを0として所定の記録領域に記録し、ステップS20へ移行する。 In step S46, the calculation unit 316 notifies the evaluation unit 318 of information indicating that there is no corresponding cluster for the pattern of the target user. Then, the evaluation unit 318 sets the evaluation value V of the concentration degree for the section Si to 0 and records it in a predetermined recording area, and the process proceeds to step S20.

ステップS34で、算出部316が、一定時間Sを、重要度DB26に記憶されている各区間に対応させた区間Si(i=1,2,・・・,n)に分割する。 In step S34, the calculation unit 316 divides the fixed time S into sections Si (i=1, 2,..., N) corresponding to the sections stored in the importance DB 26.

次に、ステップS326で、算出部316が、上記ステップS42で決定したクラスタの平均パターンを平均パターンDB322の平均パターンテーブル322Bから取得し、対象ユーザのパターンとの相関度aを区間Si毎に算出する。 Next, in step S326, the calculation unit 316 acquires the average pattern of the clusters determined in step S42 from the average pattern table 322B of the average pattern DB 322, and the correlation degree a i with the pattern of the target user for each section Si. calculate.

以下、第2実施形態と同様に、ステップS228、S20、及びS22が実行されて、評価処理は終了する。 Hereinafter, similarly to the second embodiment, steps S228, S20, and S22 are executed, and the evaluation process ends.

以上説明したように、第3実施形態に係る集中度評価装置は、講義動画を視聴中の対象ユーザの頭部の動きを示すパターンを検出する。集中度評価装置は、複数のユーザが同一の講義動画を視聴した際に検出された複数のユーザの各々のパターンをクラスタリングし、各クラスタに属するパターンを平均した平均パターンを生成する。そして、集中度評価装置は、対象ユーザのパターンと、そのパターンが属するクラスタの平均パターンとの相関度を算出する。そして、集中度評価装置は、講義動画の内容的な重要性を示す重要度と、算出した相関度とに基づいて、講義動画の視聴に対する対象ユーザの集中度を評価する。これにより、頭部の動きに同じような傾向があるユーザ群の平均パターンとの相関度を集中度の評価に用いることができるため、第2実施形態の効果に加え、対象ユーザの頭部の動きの傾向を考慮し、より適切に集中度を評価することができる。 As described above, the concentration degree evaluation apparatus according to the third embodiment detects a pattern indicating the movement of the head of the target user who is viewing the lecture video. The degree-of-concentration evaluation apparatus clusters each pattern of a plurality of users detected when a plurality of users watch the same lecture moving image, and generates an average pattern by averaging the patterns belonging to each cluster. Then, the concentration degree evaluation device calculates the degree of correlation between the pattern of the target user and the average pattern of the cluster to which the pattern belongs. Then, the degree-of-concentration evaluation device evaluates the degree of concentration of the target user with respect to the viewing of the lecture video based on the degree of importance indicating the content importance of the lecture video and the calculated degree of correlation. This makes it possible to use the degree of correlation with the average pattern of the user group having similar head movements for the evaluation of the degree of concentration. Therefore, in addition to the effect of the second embodiment, The degree of concentration can be evaluated more appropriately in consideration of the tendency of movement.

なお、上記の各実施形態により得られる集中度の評価結果を、講義動画の識別情報と対応付けて管理するようにしてもよい。例えば、集中度評価装置から、講義動画を配信するコンテンツ配信サーバに、集中度の評価結果を送信し、コンテンツ配信サーバにおいて、受信した評価結果を講義動画の識別情報と対応付けて記憶しておくことができる。これにより、集中度の評価結果の情報を、コンテンツ制作者や、講義を行う講師などが、フィードバック情報として利用することができる。 The evaluation result of the degree of concentration obtained by each of the above embodiments may be managed in association with the identification information of the lecture video. For example, the concentration evaluation device transmits the evaluation result of the concentration to the content distribution server that distributes the lecture video, and the content distribution server stores the received evaluation result in association with the identification information of the lecture video. be able to. As a result, the content creator, the lecturer who gives a lecture, and the like can use the information on the evaluation result of the degree of concentration as feedback information.

また、評価結果は、図5に示す評価値DBから導出される評価値や、相関度及び重要度から算出される評価値に限定されない。例えば、導出又は算出された評価値が所定の閾値以上の場合には「集中している」、閾値未満の場合には「集中していない」という評価結果を出力するようにしてもよい。 The evaluation result is not limited to the evaluation value derived from the evaluation value DB shown in FIG. 5 and the evaluation value calculated from the correlation degree and the importance degree. For example, when the derived or calculated evaluation value is equal to or more than a predetermined threshold value, the evaluation result of “concentrated” may be output, and when the derived evaluation value is less than the threshold value, “not concentrated” may be output.

また、第3実施形態において、対象ユーザのパターンを適宜該当のクラスタに追加していき、任意のタイミングで再度クラスタリングを行うようにしてもよい。 Further, in the third embodiment, the pattern of the target user may be appropriately added to the corresponding cluster, and clustering may be performed again at an arbitrary timing.

また、複数のユーザのパターンをクラスタリングする際、そのパターンは、コンテンツ(上記実施形態の例では講義動画)全体におけるパターンであってもよいし、区間Si毎のパターンであってもよい。後者の場合、区間Si毎に、図14に示すようなクラスタ結果が生成されることになる。 Further, when clustering patterns of a plurality of users, the pattern may be a pattern in the entire content (in the example of the above-described embodiment, the lecture moving image) or may be a pattern for each section Si. In the latter case, a cluster result as shown in FIG. 14 is generated for each section Si.

また、上記第2及び第3実施形態では、予め区間毎に重要度を定義しておく場合について説明したが、講義動画の各時間に対して重要度を定義しておいてもよい。この場合、一定時間Sにおける重要度の平均は、その一定時間に含まれる各時間の重要度の平均として算出すればよい。また、重要度と相関度とに基づいて評価値を算出する際には、各区間に含まれる各時間の重要度の平均と、その区間の相関度との内積等により、評価値を算出すればよい。 Further, in the second and third embodiments, the case where the importance is defined for each section in advance has been described, but the importance may be defined for each time of the lecture video. In this case, the average of the degrees of importance in the constant time S may be calculated as the average of the degrees of importance in each time included in the constant time. When calculating the evaluation value based on the importance and the correlation, the evaluation value should be calculated by the inner product of the average of the importance of each time included in each section and the correlation of the section. Good.

上記各実施形態は、複数のユーザが同一の場所で同時に講義動画を視聴する場合にも適用できるが、その場合に限らず、各ユーザが個別に講義動画を視聴する際にも適用することができる。 Each of the above-described embodiments can be applied to a case where a plurality of users simultaneously watch a lecture video in the same place, but the present invention is not limited to this case and can be applied to a case where each user individually watches a lecture video. it can.

また、上記実施形態では、集中度評価プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD−ROM、DVD−ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。 Further, in the above-described embodiment, the aspect in which the concentration evaluation program is stored (installed) in the storage unit in advance has been described, but the present invention is not limited to this. The program according to the disclosed technology can be provided in a form stored in a storage medium such as a CD-ROM, a DVD-ROM, or a USB memory.

以上の各実施形態に関し、さらに以下の付記を開示する。 With respect to each of the above embodiments, the following supplementary notes are further disclosed.

(付記1)
動画を視聴中の対象ユーザの頭部の動きを検出し、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出し、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
(Appendix 1)
Detects the head movement of the target user who is watching the video,
Calculating a degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users detected when the plurality of users watch the moving image;
A degree-of-concentration evaluation program for causing a computer to execute a process including evaluating the degree of concentration of the target user with respect to viewing of the moving image based on the calculated degree of correlation.

(付記2)
前記頭部の動きとして、前記頭部の向きの時間的変化を検出する付記1に記載の集中度評価プログラム。
(Appendix 2)
The concentration degree evaluation program according to appendix 1, which detects a temporal change in the orientation of the head as the movement of the head.

(付記3)
前記複数のユーザの各々の頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する付記1又は付記2に記載の集中度評価プログラム。
(Appendix 3)
3. The degree-of-concentration evaluation program according to Supplementary Note 1 or Supplementary Note 2, which calculates a degree of correlation of head movements of the target user with respect to an average of head movements of the plurality of users.

(付記4)
前記複数のユーザの各々の頭部の動きを複数のクラスタに分類し、
前記対象ユーザの頭部の動きが分類されるクラスタに属するユーザの頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する
付記1〜付記3のいずれか1項に記載の集中度評価プログラム。
(Appendix 4)
Classifying each head movement of the plurality of users into a plurality of clusters,
The correlation degree of the movement of the head of the target user with respect to the movement of the head of the user belonging to the cluster in which the movement of the head of the target user is classified is calculated. Concentration evaluation program.

(付記5)
頭部の下がる回数及び頭部の下がるタイミングに応じて、前記複数のユーザの各々の頭部の動きを前記複数のクラスタに分類する付記4に記載の集中度評価プログラム。
(Appendix 5)
5. The degree-of-concentration evaluation program according to attachment 4, which classifies the movements of the heads of the plurality of users into the plurality of clusters according to the number of times the head is lowered and the timing of the head fall.

(付記6)
同一のクラスタに分類されたユーザの頭部の動きのうち、前記クラスタの中心からの距離が所定値以内のユーザの頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する付記4又は付記5に記載の集中度評価プログラム。
(Appendix 6)
Among the movements of the head of the user classified into the same cluster, the correlation degree of the movement of the head of the target user with respect to the average of the movement of the head of the user within a predetermined distance from the center of the cluster, The concentration degree evaluation program according to supplementary note 4 or supplementary note 5, which is calculated.

(付記7)
前記対象ユーザの頭部の動きが、いずれのクラスタの中心からも所定距離以上離れている場合に、前記動画の視聴に対して、前記対象ユーザは集中していないと評価する付記4〜付記6のいずれか1項に記載の集中度評価プログラム。
(Appendix 7)
Supplementary note 4 to supplementary note 6 wherein when the movement of the head of the target user is away from the center of any cluster by a predetermined distance or more, the target user is evaluated as not concentrating on viewing the moving image. The concentration degree evaluation program according to any one of 1.

(付記8)
前記相関度が高いほど、前記対象ユーザの集中度が高いと評価する付記1〜付記7のいずれか1項に記載の集中度評価プログラム。
(Appendix 8)
8. The degree-of-concentration evaluation program according to any one of notes 1 to 7, wherein the higher the degree of correlation, the higher the degree of concentration of the target user.

(付記9)
前記動画の内容に関する重要度が高いほど、かつ前記相関度が高いほど、前記対象ユーザの集中度が高いと評価する付記1〜付記8のいずれか1項に記載の集中度評価プログラム。
(Appendix 9)
9. The degree-of-concentration evaluation program according to any one of appendices 1 to 8, wherein the higher the degree of importance of the content of the moving image and the higher the degree of correlation, the higher the degree of concentration of the target user.

(付記10)
集中度の評価結果を、前記動画の識別情報と対応付けて管理する付記1〜付記9のいずれか1項に記載の集中度評価プログラム。
(Appendix 10)
The concentration evaluation program according to any one of appendices 1 to 9, which manages the evaluation result of the concentration in association with the identification information of the moving image.

(付記11)
前記対象ユーザ及び前記複数のユーザの各々が、前記動画を個別に視聴している際の前記頭部の動きを検出する付記1〜付記10のいずれか1項に記載の集中度評価プログラム。
(Appendix 11)
11. The concentration degree evaluation program according to any one of appendices 1 to 10, wherein each of the target user and the plurality of users detects the movement of the head when viewing the moving image individually.

(付記12)
動画を視聴中の対象ユーザの頭部の動きを検出する検出部と、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する算出部と、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する評価部と、
を含む集中度評価装置。
(Appendix 12)
A detection unit that detects the movement of the head of the target user who is watching the video;
A calculating unit that calculates a degree of correlation of head movements of the target user with respect to head movements of the plurality of users detected when the plurality of users watch the moving image,
An evaluation unit that evaluates the degree of concentration of the target user with respect to viewing of the moving image, based on the calculated correlation degree;
Concentration degree evaluation device including.

(付記13)
前記検出部は、前記頭部の動きとして、前記頭部の向きの時間的変化を検出する付記12に記載の集中度評価装置。
(Appendix 13)
The concentration degree evaluation device according to attachment 12, wherein the detection unit detects a temporal change in the orientation of the head as the movement of the head.

(付記14)
前記算出部は、前記複数のユーザの各々の頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する付記12又は付記13に記載の集中度評価装置。
(Appendix 14)
The concentration degree evaluation device according to supplementary note 12 or supplementary note 13, wherein the calculation unit calculates the degree of correlation of the movement of the head of the target user with respect to the average of the movements of the heads of the plurality of users.

(付記15)
前記複数のユーザの各々の頭部の動きを複数のクラスタに分類する生成部を含み、
前記算出部は、前記対象ユーザの頭部の動きが分類されるクラスタに属するユーザの頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する
付記12〜付記14のいずれか1項に記載の集中度評価装置。
(Appendix 15)
A generator for classifying the head movements of the plurality of users into a plurality of clusters,
The calculation unit calculates the degree of correlation of the movement of the head of the target user with respect to the movement of the head of the user who belongs to the cluster into which the movement of the head of the target user is classified. The degree-of-concentration evaluation device according to item 1.

(付記16)
前記生成部は、頭部の下がる回数及び頭部の下がるタイミングに応じて、前記複数のユーザの各々の頭部の動きを前記複数のクラスタに分類する付記15に記載の集中度評価装置。
(Appendix 16)
16. The concentration degree evaluation device according to appendix 15, wherein the generation unit classifies the movements of the heads of the plurality of users into the plurality of clusters in accordance with the number of times the heads are lowered and the timing at which the heads are lowered.

(付記17)
前記算出部は、同一のクラスタに分類されたユーザの頭部の動きのうち、前記クラスタの中心からの距離が所定値以内のユーザの頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する付記15又は付記16に記載の集中度評価装置。
(Appendix 17)
Among the movements of the heads of the users classified into the same cluster, the calculation unit calculates the head movement of the target user with respect to the average movement of the heads of the users within a predetermined distance from the center of the cluster. 17. The degree-of-concentration evaluation device according to supplementary note 15 or supplementary note 16 for calculating the correlation degree of movement.

(付記18)
前記評価部は、前記対象ユーザの頭部の動きが、いずれのクラスタの中心からも所定距離以上離れている場合に、前記動画の視聴に対して、前記対象ユーザは集中していないと評価する付記12〜付記17のいずれか1項に記載の集中度評価装置。
(Appendix 18)
The evaluation unit evaluates that the target user is not concentrated on viewing the video when the movement of the head of the target user is more than a predetermined distance from the center of any cluster. The concentration degree evaluation device according to any one of appendices 12 to 17.

(付記19)
動画を視聴中の対象ユーザの頭部の動きを検出し、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出し、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する
ことを含む処理をコンピュータが実行する集中度評価方法。
(Appendix 19)
Detects the head movement of the target user who is watching the video,
Calculating a degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users detected when the plurality of users watch the moving image;
A degree-of-concentration evaluation method in which a computer executes a process including evaluating a degree of concentration of the target user with respect to viewing of the moving image based on the calculated degree of correlation.

(付記20)
動画を視聴中の対象ユーザの頭部の動きを検出し、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出し、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラムを記憶した記憶媒体。
(Appendix 20)
Detects the head movement of the target user who is watching the video,
Calculating a degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users detected when the plurality of users watch the moving image;
A storage medium that stores a concentration degree evaluation program for causing a computer to execute processing including evaluating the degree of concentration of the target user with respect to viewing of the moving image based on the calculated correlation degree.

10、210、310 集中度評価装置
12 検出部
14、314 生成部
16、316 算出部
18、218、318 評価部
22、322 平均パターンDB
24 評価値DB
26 重要度DB
40 コンピュータ
41 CPU
42 メモリ
43 記憶部
49 記憶媒体
50、250、350 集中度評価プログラム
10, 210, 310 Concentration degree evaluation device 12 Detection unit 14, 314 Generation unit 16, 316 Calculation unit 18, 218, 318 Evaluation unit 22, 322 Average pattern DB
24 Evaluation value DB
26 Importance DB
40 computer 41 CPU
42 memory 43 storage unit 49 storage medium 50, 250, 350 concentration evaluation program

Claims (12)

動画を視聴中の対象ユーザの頭部の動きを検出し、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出し、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
Detects the movement of the head of the target user who is watching the video,
Calculating a degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users detected when the plurality of users watch the moving image;
A degree-of-concentration evaluation program for causing a computer to execute a process including evaluating the degree of concentration of the target user with respect to viewing of the moving image based on the calculated degree of correlation.
前記頭部の動きとして、前記頭部の向きの時間的変化を検出する請求項1に記載の集中度評価プログラム。 The concentration degree evaluation program according to claim 1, wherein a temporal change in the orientation of the head is detected as the movement of the head. 前記複数のユーザの各々の頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する請求項1又は請求項2に記載の集中度評価プログラム。 The concentration degree evaluation program according to claim 1, wherein a degree of correlation of head movements of the target user is calculated with respect to an average of head movements of the plurality of users. 前記複数のユーザの各々の頭部の動きを複数のクラスタに分類し、
前記対象ユーザの頭部の動きが分類されるクラスタに属するユーザの頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する
請求項1〜請求項3のいずれか1項に記載の集中度評価プログラム。
Classifying each head movement of the plurality of users into a plurality of clusters,
The correlation degree of the movement of the head of the target user with respect to the movement of the head of the user who belongs to the cluster in which the movement of the head of the target user is classified is calculated according to any one of claims 1 to 3. Concentration evaluation program described.
頭部の下がる回数及び頭部の下がるタイミングに応じて、前記複数のユーザの各々の頭部の動きを前記複数のクラスタに分類する請求項4に記載の集中度評価プログラム。 The degree-of-concentration evaluation program according to claim 4, wherein the movements of the heads of the plurality of users are classified into the plurality of clusters according to the number of times the head is lowered and the timing when the head is lowered. 同一のクラスタに分類されたユーザの頭部の動きのうち、前記クラスタの中心からの距離が所定値以内のユーザの頭部の動きの平均に対する、前記対象ユーザの頭部の動きの相関度を算出する請求項4又は請求項5に記載の集中度評価プログラム。 Among the movements of the head of the user classified into the same cluster, the correlation degree of the movement of the head of the target user with respect to the average of the movement of the head of the user within a predetermined distance from the center of the cluster, The concentration degree evaluation program according to claim 4 or 5, which is calculated. 前記対象ユーザの頭部の動きが、いずれのクラスタの中心からも所定距離以上離れている場合に、前記動画の視聴に対して、前記対象ユーザは集中していないと評価する請求項4〜請求項6のいずれか1項に記載の集中度評価プログラム。 5. When the movement of the head of the target user is away from a center of any cluster by a predetermined distance or more, it is evaluated that the target user is not concentrated on viewing the moving image. Item 7. The concentration evaluation program according to any one of items 6. 前記相関度が高いほど、前記対象ユーザの集中度が高いと評価する請求項1〜請求項7のいずれか1項に記載の集中度評価プログラム。 The concentration degree evaluation program according to any one of claims 1 to 7, wherein the higher the degree of correlation, the higher the degree of concentration of the target user. 前記動画の内容に関する重要度が高いほど、かつ前記相関度が高いほど、前記対象ユーザの集中度が高いと評価する請求項1〜請求項8のいずれか1項に記載の集中度評価プログラム。 The concentration degree evaluation program according to any one of claims 1 to 8, wherein the higher the degree of importance of the content of the moving image and the higher the degree of correlation, the higher the degree of concentration of the target user. 集中度の評価結果を、前記動画の識別情報と対応付けて管理する請求項1〜請求項9のいずれか1項に記載の集中度評価プログラム。 The concentration degree evaluation program according to any one of claims 1 to 9, wherein the evaluation result of the degree of concentration is managed in association with the identification information of the moving image. 動画を視聴中の対象ユーザの頭部の動きを検出する検出部と、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出する算出部と、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する評価部と、
を含む集中度評価装置。
A detection unit that detects the movement of the head of the target user who is watching the video;
A calculating unit that calculates a degree of correlation of head movements of the target user with respect to head movements of the plurality of users detected when the plurality of users watch the moving image,
An evaluation unit that evaluates the degree of concentration of the target user with respect to viewing of the moving image, based on the calculated correlation degree;
Concentration degree evaluation device including.
動画を視聴中の対象ユーザの頭部の動きを検出し、
複数のユーザが前記動画を視聴した際に検出された前記複数のユーザの各々の頭部の動きに対する、前記対象ユーザの頭部の動きの相関度を算出し、
算出された前記相関度に基づいて、前記動画の視聴に対する前記対象ユーザの集中度を評価する
ことを含む処理をコンピュータが実行する集中度評価方法。
Detects the head movement of the target user who is watching the video,
Calculating a degree of correlation of the movement of the head of the target user with respect to the movement of the head of each of the plurality of users detected when the plurality of users watch the moving image;
A degree-of-concentration evaluation method in which a computer executes a process including evaluating a degree of concentration of the target user with respect to viewing of the moving image based on the calculated degree of correlation.
JP2019015354A 2019-01-31 2019-01-31 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD Active JP7243235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019015354A JP7243235B2 (en) 2019-01-31 2019-01-31 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019015354A JP7243235B2 (en) 2019-01-31 2019-01-31 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Publications (2)

Publication Number Publication Date
JP2020123884A true JP2020123884A (en) 2020-08-13
JP7243235B2 JP7243235B2 (en) 2023-03-22

Family

ID=71993109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019015354A Active JP7243235B2 (en) 2019-01-31 2019-01-31 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD

Country Status (1)

Country Link
JP (1) JP7243235B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7138997B1 (en) * 2021-10-14 2022-09-20 株式会社I’mbesideyou Video meeting evaluation terminal
JP7145556B1 (en) * 2021-10-14 2022-10-03 株式会社I’mbesideyou Video image analysis system
JP7197955B1 (en) * 2021-10-14 2022-12-28 株式会社I’mbesideyou Video meeting evaluation terminal
WO2023032058A1 (en) * 2021-08-31 2023-03-09 株式会社I’mbesideyou Video session evaluation terminal, video session evaluation system, and video session evaluation program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Method and device for transmitting computer support information
JP2010141843A (en) * 2008-12-15 2010-06-24 Brother Ind Ltd Conference system, method of supporting communication conference, conference terminal unit, and program
WO2017018012A1 (en) * 2015-07-28 2017-02-02 ソニー株式会社 Information processing system, information processing method, and storage medium
JP2018205638A (en) * 2017-06-08 2018-12-27 大和ハウス工業株式会社 Concentration ratio evaluation mechanism

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Method and device for transmitting computer support information
JP2010141843A (en) * 2008-12-15 2010-06-24 Brother Ind Ltd Conference system, method of supporting communication conference, conference terminal unit, and program
WO2017018012A1 (en) * 2015-07-28 2017-02-02 ソニー株式会社 Information processing system, information processing method, and storage medium
JP2018205638A (en) * 2017-06-08 2018-12-27 大和ハウス工業株式会社 Concentration ratio evaluation mechanism

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032058A1 (en) * 2021-08-31 2023-03-09 株式会社I’mbesideyou Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP7138997B1 (en) * 2021-10-14 2022-09-20 株式会社I’mbesideyou Video meeting evaluation terminal
JP7145556B1 (en) * 2021-10-14 2022-10-03 株式会社I’mbesideyou Video image analysis system
JP7197955B1 (en) * 2021-10-14 2022-12-28 株式会社I’mbesideyou Video meeting evaluation terminal
WO2023062793A1 (en) * 2021-10-14 2023-04-20 株式会社I’mbesideyou Video analysis system
WO2023062794A1 (en) * 2021-10-14 2023-04-20 株式会社I’mbesideyou Video meeting evaluation terminal
WO2023062795A1 (en) * 2021-10-14 2023-04-20 株式会社I’mbesideyou Video meeting evaluation terminal

Also Published As

Publication number Publication date
JP7243235B2 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
JP7243235B2 (en) CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD
US9443144B2 (en) Methods and systems for measuring group behavior
JP2023036898A (en) System and method for assessing viewer engagement
US10192582B2 (en) Automatic generation of time-lapse videos
US9324374B2 (en) Method and system for automatic generation of clips from a plurality of images based on an inter-objects relationship score
CN104823444A (en) Image stabilization techniques for video surveillance systems
Alameda-Pineda et al. Vision-guided robot hearing
US10013889B2 (en) Method and system for enhancing interactions between teachers and students
Kodra et al. From dials to facial coding: Automated detection of spontaneous facial expressions for media research
Bano et al. ViComp: composition of user-generated videos
US9361705B2 (en) Methods and systems for measuring group behavior
JP7265202B2 (en) ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE
JP2011053776A (en) System, method and program for generating story
Cabrera-Quiros et al. Multimodal self-assessed personality estimation during crowded mingle scenarios using wearables devices and cameras
WO2022168185A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168180A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
Bischof et al. Temporal methods for eye movement analysis
JP7465013B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
JP7471683B2 (en) Reaction notification system
WO2023120263A1 (en) Information processing device and information processing method
WO2022168174A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168179A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
JP7477909B2 (en) Video meeting evaluation terminal, video meeting evaluation system and video meeting evaluation program
WO2022168177A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022168176A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221018

TRDD Decision of grant or rejection written
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7243235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150