JP7139704B2 - 集中度評価プログラム、装置、及び方法 - Google Patents

集中度評価プログラム、装置、及び方法 Download PDF

Info

Publication number
JP7139704B2
JP7139704B2 JP2018112854A JP2018112854A JP7139704B2 JP 7139704 B2 JP7139704 B2 JP 7139704B2 JP 2018112854 A JP2018112854 A JP 2018112854A JP 2018112854 A JP2018112854 A JP 2018112854A JP 7139704 B2 JP7139704 B2 JP 7139704B2
Authority
JP
Japan
Prior art keywords
line
sight
concentration
sight position
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018112854A
Other languages
English (en)
Other versions
JP2019215731A (ja
Inventor
亮介 川村
厚一郎 新沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018112854A priority Critical patent/JP7139704B2/ja
Publication of JP2019215731A publication Critical patent/JP2019215731A/ja
Application granted granted Critical
Publication of JP7139704B2 publication Critical patent/JP7139704B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

開示の技術は、集中度評価プログラム、集中度評価装置、及び集中度評価方法に関する。
通信技術の発達によって、質の高い動画を配信する様々なサービスが増加している。例えば、学習コンテンツとして、学習塾などの講義を収録した動画を配信し、生徒はその動画を視聴することにより講義を受講することが行われている。このような受講形式では、講師が生徒個々人の受講状況を見守ることが難しく、生徒の講義に対する集中度を把握することが困難である。
そこで、例えば、講義動画を主張する生徒の表情によって集中度を把握することが考えられるが、表情は集中度によって大きく変化することがなく、集中度の指標として用いることは難しい。そのような状況で、動画視聴中のユーザの視線を用いて、動画視聴に対する集中度を推定する技術が提案されている。
例えば、表示オブジェクトに対するユーザの集中度をより正確に把握する評価方法が提案されている。この方法では、少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、第1期間の後、少なくとも第2オブジェクトを上記画面内に表示する第2期間におけるユーザの第2注視点を特定する。そして、第1オブジェクト内の基準点から第2オブジェクト内の基準点までの第1ベクトルの向きと、第1注視点から第2注視点までの第2ベクトルの向きとの近似度を算出する。
特開2016-224142号公報
例えば、上述したような講義動画の視聴時には、生徒がノートをとったり、動画とは別に配布されている手元の資料を見たりする場合など、生徒の視線が画面から外れる機会が多く存在する。
従来技術では、視線が画面上に存在していることを前提として集中度を評価している。そのため、上記の講義動画の視聴などのように、視線が画面から外れる機会が多く存在する場合には、集中度の評価ができない、又は集中していないと評価してしまう時間が多く存在するおそれがある。
ノートをとったり、手元の資料を見たりしている間でも、生徒は講義に集中している可能性が高く、従来技術では、このような場合の集中度を適切に評価することができない。
一つの側面として、開示の技術は、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することを目的とする。
一つの態様として、開示の技術は、動画視聴中のユーザの画面に対する視線位置を検出する。そして、第1視線位置と第2視線位置との距離が小さいほど、前記動画視聴に対する前記ユーザの集中度を高く評価する。第1視線位置は、前記画面に対する視線位置が検出されなくなった直前の視線位置である。第2視線位置は、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の視線位置である。
一つの側面として、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる、という効果を有する。
第1及び第2実施形態に係る集中度評価システムの概略構成を示すブロック図である。 第1及び第2実施形態に係る集中度評価装置の機能ブロック図である。 画面から外れ、再び画面に戻ってくる視線の特徴を説明するための図である。 動画視聴に集中していない場合の視線の特徴を説明するための図である。 画面から外れ、再び画面に戻ってくる視線の特徴を説明するための図である。 視線位置テーブルの一例を示す図である。 第1実施形態における注目領域データベースの一例を示す図である。 第1及び第2実施形態に係る集中度評価装置として機能するコンピュータの概略構成を示すブロック図である。 第1実施形態における集中度評価処理の一例を示すフローチャートである。 評価値a算出処理の一例を示すフローチャートである。 注目領域が図の場合の評価値b1の算出を説明するための図である。 注目領域が文章の場合の評価値b1の算出を説明するための図である。 第2実施形態における注目領域データベースの一例を示す図である。 第2実施形態における集中度評価処理の一例を示すフローチャートである。 評価値b1算出処理の一例を示すフローチャートである。 設定部を含む場合の集中度評価装置の機能ブロック図である。
以下、図面を参照して、開示の技術に係る実施形態の一例を詳細に説明する。以下の各実施形態では、学習コンテンツとしての講義動画の視聴に対するユーザの集中度を評価する場合を例に説明する。
<第1実施形態>
図1に示すように、第1実施形態に係る集中度評価システム100は、集中度評価装置10と、視線計測装置30とを含む。
視線計測装置30は、可視光カメラと制御部とを含んで構成され、例えば、動画を表示する表示装置36の上端又は下端等、表示装置36の正面の領域を撮影可能な位置に設置される。視線計測装置30は、可視光カメラにより撮影された画像に含まれる、画面に対峙したユーザの目領域の画像に基づいて、ユーザの視線方向を計測する。例えば、視線計測装置30は、目領域における基準点(目頭、角膜反射点等)と動点(虹彩、瞳孔等)との位置関係に基づいて、視線方向を計測する。視線計測装置30は、計測した視線方向を示す視線データを出力する。
図2に示すように、集中度評価装置10には、視線計測装置30から出力された視線データが入力される。集中度評価装置10は、入力された視線データに基づいて、画面に対するユーザの視線位置を検出し、検出した視線位置に基づいて、動画視聴に対するユーザの集中度を評価した評価結果を出力する。
ここで、上述したように、学習コンテンツとしての講義動画の視聴の際には、ユーザがノートをとったり、手元の資料を見たりするなどして、ユーザの視線が画面から外れる場合がある。本実施形態では、このように、ユーザの視線が画面から外れる場合でも、集中度を適切に評価することができる。以下、その理由について説明する。
ユーザが講義に集中している状態で、ノートをとったり、手元の資料を見たりするなどして、ユーザの視線が画面から外れた場合、再び画面上に戻ってくる視線には、図3に示すような特徴があることが確認された。
具体的には、図3中のAに示すように、表示装置36に表示された画面38上にユーザ40の視線位置がある状態から、図3中のBに示すように、ユーザ40の視線が外れたとする。そして、その後、ユーザ40の視線が再び画面38上に戻る場合、図3中のCに示すように、画面38から視線を外す前に見ていた位置に視線が戻る。これは、ノートをとった場合などに、書いたことを確認するためなどである。
また、その後、図3中のDに示すように、現在説明がなされている部分に視線が移動したり、図3中のEに示すように、話者(講師)の顔に視線が移動したりする。なお、図3中のCの状態を経ることなく、図3中のBの状態から、図3中のD又はEのように、視線が戻る場合もある。
また、集中度が低下している場合、図4中のFに示すように、視線が画面38から外れる前に、視線が話者の顔や現在説明がされている部分から外れた位置にあるという特徴がある。また、図4中のGに示すように、画面38から外れた視線が再び画面38上に戻ってきた際に、視線が外れる前の視線位置、現在説明がなされている部分、又は話者の顔のいずれにも視線が戻らない場合も、集中度が低下している場合の視線の特徴である。
また、上記のような特徴は、図5に示すように、講義画面がスライドのみの場合、すなわち、画面38上に話者が登場しない場合でも同様である。図5中のHに示す位置に視線位置がある状態から、図5中のIに示すよう、ユーザ40の視線が画面38から外れ、図5中のJに示すように画面38に視線が戻ってくるとする。この場合、ユーザ40が動画視聴に集中している場合には、視線が外れる前の視線位置、又は、現在説明がなされている部分に視線が戻る。
第1実施形態では、上記のような視線の特徴を利用して、視線が画面から外れた場合の集中度を評価する。
図2に示すように、集中度評価装置10は、機能的には、検出部12と、評価部14とを含む。また、集中度評価装置10の所定の記憶領域には、注目領域データベース(DB)20が記憶される。
検出部12は、集中度評価装置10に入力された視線データを取得し、視線データが示すユーザ40の視線方向に基づいて、動画を構成するフレーム毎に、画面38に対するユーザ40の視線位置を、画面38上の座標位置として検出する。検出部12は、検出した視線位置を、その視線位置を検出したフレームの識別情報であるフレーム番号と対応付けて、例えば図6に示すような視線位置テーブル22に逐次記録する。なお、図6において、「視線位置」がブランク(図6では「-」で表記)の場合は、そのフレームにおいて、画面38に対する視線位置が検出されなかったこと、すなわち、ユーザ40の視線が画面38から外れていることを表している。なお、以下では、フレーム番号がiのフレームを、「フレームi」と表記する。
評価部14は、検出部12によって、画面38に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、画面38に対する視線位置が検出されなくなり、再び画面38に対する視線位置が検出された際の第2視線位置とを特定する。そして、評価部14は、第1視線位置及び第2視線位置に基づいて、動画視聴に対するユーザ40の集中度を評価する。具体的には、評価部14は、第1視線位置と第2視線位置との距離、並びに第1視線位置及び第2視線位置と注目領域との関係に基づいて、集中度を評価する。
ここで、注目領域とは、動画中の黒板やスライドなどに含まれる文字や図などの情報、話者の動きの変化が起きた部分、動画中に表示されている人の顔、表示の変化が起きた部分、音声情報中の発話内容と関連性が高い部分等である。これらの注目領域は、動画の制作者によって手動で設定されたり、画像処理技術を用いて自動で設定されたりした上で、設定された注目領域の情報が、注目領域DB20に記憶される。
図7に、注目領域DB20の一例を示す。図7の例では、「フレーム番号」で特定されるフレーム毎に、注目領域を特定する情報(例えば、矩形の注目領域の対角線上の角の座標)が「注目領域」として記憶されている。
より具体的には、評価部14は、視線位置テーブル22において、「視線位置」がブランクになったフレームの直前のフレームにおける視線位置を、第1視線位置として特定する。また、評価部14は、視線位置テーブル22において、「視線位置」がブランクの状態から視線位置を示す座標が記録された状態になったフレームにおける視線位置を、第2視線位置として特定する。図6の例では、評価部14は、フレーム2における視線位置「(x2,y2)」を第1視線位置、及びフレームnにおける視線位置「(xn,yn)」を第2視線位置として特定する。
また、評価部14は、集中度を評価するための評価値aを算出する。この際、評価部14は、第1視線位置と第2視線位置との距離が小さいほど高くなるように、評価値aを算出する。また、評価部14は、第1視線位置及び第2視線位置の各々が予め定めた注目領域に含まれる場合に、第1視線位置及び第2視線位置の各々が予め定めた注目領域に含まれない場合に比べて評価値aが高くなるように算出する。
以下、評価値aの算出の一例を示す。ここでは、0~s(sは、s>0の任意の定数、例えば100)の評価値aを算出する場合について説明する。
評価部14は、第1視線位置が注目領域に含まれない場合には、評価値a=sと算出する。
また、評価部14は、第2視線位置が、第1視線位置が含まれる注目領域と同じ注目領域内で検出されている場合には、第1視線位置と第2視線位置との距離d1を、正規化前の評価値a’として算出する。
また、評価部14は、第2視線位置が、第1視線位置が含まれる注目領域と異なる他の注目領域内で検出されている場合には、第2視線位置が含まれる注目領域の中心位置と第2視線位置との距離d2を、正規化前の評価値a’として算出する。
また、評価部14は、第1視線位置は注目領域に含まれているが、第2視線位置が注目領域に含まれていない場合には、正規化前の評価値a’を、a’=d1+p*d3と算出する。ここで、d3は、第1視線位置を含む注目領域の外周部と第2視線位置との最短距離であり、pは、p>0の任意の定数(例えば、0.6)である。この評価値a’の意味は、第1視線位置と第2視線位置との距離d1に、第2視線位置が注目領域を外れていることに対するペナルティを表す項「p*d3」を加算したものである。
評価部14は、正規化前の評価値a’を、0~sで正規化して評価値aとする。例えば、正規化前の評価値a’として取り得る値の最大値をa’maxとすると、評価部14は、a=s×a’/a’maxで正規化する。
評価部14は、評価値aを、現在の集中度Vとする。この場合、集中度Vは、値が小さいほど集中度が高いことを示す。評価部14は、集中度Vを、ユーザ40が動画視聴に集中しているか否かを示す閾値T(例えば、T=s×0.8)と比較する。評価部14は、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。
集中度評価装置10は、例えば図8に示すコンピュータ50で実現することができる。コンピュータ50は、CPU(Central Processing Unit)51と、一時記憶領域としてのメモリ52と、不揮発性の記憶部53とを備える。また、コンピュータ50は、視線計測装置30、入力装置、表示装置等が接続される入出力I/F(Interface)54と、記憶媒体59に対するデータの読み込み及び書き込みを制御するR/W(Read/Write)部55とを備える。また、コンピュータ50は、インターネット等のネットワークに接続される通信I/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及び通信I/F56は、バス57を介して互いに接続される。
記憶部53は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータ50を、集中度評価装置10として機能させるための集中度評価プログラム60が記憶される。集中度評価プログラム60は、検出プロセス62と、評価プロセス64とを有する。また、記憶部53は、注目領域DB20を構成する情報が記憶される情報記憶領域70を有する。
CPU51は、集中度評価プログラム60を記憶部53から読み出してメモリ52に展開し、集中度評価プログラム60が有するプロセスを順次実行する。CPU51は、検出プロセス62を実行することで、図2に示す検出部12として動作する。また、CPU51は、評価プロセス64を実行することで、図2に示す評価部14として動作する。また、CPU51は、検出プロセス62の実行時に、メモリ52に視線位置テーブル22を作成する。また、CPU51は、情報記憶領域70から情報を読み出して、注目領域DB20をメモリ52に展開する。これにより、集中度評価プログラム60を実行したコンピュータ50が、集中度評価装置10として機能することになる。なお、プログラムを実行するCPU51はハードウェアである。
なお、集中度評価プログラム60により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。
次に、第1実施形態に係る集中度評価システム100の作用について説明する。
集中度評価システム100が起動されると、視線計測装置30により、ユーザ40の視線方向の計測が開始され、計測された視線方向を示す視線データが、視線計測装置30から集中度評価装置10へ入力される。そして、集中度評価装置10において、図9に示す集中度評価処理が実行される。なお、集中度評価処理は、開示の技術の集中度評価方法の一例である。
図9に示す集中度評価処理のステップS12で、検出部12が、集中度評価装置10に入力された視線データを取得する。そして、検出部12は、視線データが示すユーザ40の視線方向に基づいて、現在表示されているフレームの画面38に対するユーザ40の視線位置を、画面38上の座標位置として検出する。さらに、検出部12は、検出した視線位置を、その視線位置を検出したフレームのフレーム番号と対応付けて、例えば図6に示すような視線位置テーブル22に記録する。なお、検出部12は、画面38に対する視線位置が検出されなかった場合には、視線位置テーブル22の「視線位置」をブランクとする。
次に、ステップS14で、評価部14が、ユーザ40の視線が画面38から外れたか否かを判定する。この判定は、視線位置テーブル22において、1フレーム前の「視線位置」がブランクではなく、かつ、上記ステップS12において、現フレームの「視線位置」がブランクとなったか否かにより行うことができる。ユーザ40の視線が画面38から外れていない場合には、処理はステップS12に戻る。ユーザ40の視線が画面38から外れた場合には、評価部14は、1フレーム前の「視線位置」を第1視線位置として特定し、処理はステップS16へ移行する。
ステップS16では、上記ステップS12と同様に、検出部12が、現在表示されているフレームの画面38に対するユーザ40の視線位置を検出し、視線位置テーブル22に記録する。
次に、ステップS18で、評価部14が、ユーザ40の視線が画面38上に戻ったか否かを判定する。この判定は、視線位置テーブル22において、1フレーム前の「視線位置」がブランクで、かつ、上記ステップS16において、現フレームの「視線位置」に座標が記録されたか否かにより行うことができる。ユーザ40の視線が画面38上に戻っていない場合には、処理はステップS16に戻る。ユーザ40の視線が画面38上に戻った場合には、評価部14は、現フレームの「視線位置」を第2視線位置として特定し、処理はステップS20へ移行する。
ステップS20では、図10に示す評価値a算出処理が実行される。
図10に示す評価値a算出処理のステップS22で、評価部14が、上記ステップS14で特定された第1視線位置が注目領域に含まれるか否かを、注目領域DB20を参照して判定する。具体的には、フレーム2から検出された第1視線位置が(x2,y2)であり、また、図7に示す注目領域DB20を用いるとする。この場合、評価部14は、「(x11,y11),(x12,y12)」で特定されるフレーム2の注目領域に、第1視線位置(x2,y2)が含まれるか否かを判定する。第1視線位置が注目領域に含まれない場合には、処理はステップS24へ移行し、含まれる場合には、処理はステップS26へ移行する。
ステップS24では、評価部14が、評価値a=sと算出し、処理は集中度評価処理(図9)へ戻る。
ステップS26では、評価部14が、上記ステップS18で特定された第2視線位置が、上記ステップS22で判定された第1視線位置が含まれる注目領域と同じ注目領域内で検出されているか否かを判定する。第2視線位置と注目領域との関係は、上記ステップS22と同様に判定することができる。第2視線位置が第1視線位置と同じ注目領域内で検出されている場合には、処理はステップS28へ移行し、第2視線位置が第1視線位置と同じ注目領域内で検出されていない場合には、処理はステップS30へ移行する。
ステップS28では、評価部14が、第1視線位置と第2視線位置との距離d1を、正規化前の評価値a’として算出し、処理はステップS36へ移行する。
ステップS30では、評価部14が、第1視線位置が含まれる注目領域と異なる他の注目領域内で第2視線位置が検出されているか否かを判定する。第2視線位置が他の注目領域に含まれる場合には、処理はステップS32へ移行し、他の注目領域にも含まれない場合には、処理はステップS34へ移行する。
ステップS32では、評価部14が、第2視線位置が含まれる注目領域の中心位置と第2視線位置との距離d2を、正規化前の評価値a’として算出し、処理はステップS36へ移行する。
ステップS34では、評価部14が、第1視線位置と第2視線位置との距離d1と、第1視線位置を含む注目領域の外周部と第2視線位置との最短距離d3とを用いて、正規化前の評価値a’を、a’=d1+p*d3と算出し、処理はステップS36へ移行する。
ステップS36では、評価部14が、上記ステップS28、S32、又はS34で算出した正規化前の評価値a’を、0~sで正規化して、評価値aとする。そして、処理は集中度評価処理(図9)へ戻る。
次に、図9に示す集中度評価処理のステップS40で、評価部14が、評価値aを、現在の集中度Vとし、ユーザ40が動画視聴に集中しているか否かを示す閾値Tと比較する。評価部14は、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。
次に、ステップS42で、検出部12が、動画が終了したか否かを判定する。例えば、動画の再生中に視線計測装置30による視線方向の計測が行われるように連動させておき、視線計測装置30から視線データが入力されなくなった場合に、動画が終了したと判定することができる。動画が終了していない場合には、処理はステップS12に戻り、動画が終了した場合には、集中度評価処理は終了する。
以上説明したように、第1実施形態に係る集中度評価システムによれば、集中度評価装置が、画面から視線が外れる直前の第1視線位置と、視線が画面に戻ってきた際の第2視線位置との距離に基づいて、集中度を評価する。また、集中度評価装置は、第1視線位置及び第2視線位置の各々と注目領域との関係に基づいて、集中度を評価する。これにより、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる。
<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る集中度評価システムにおいて、第1実施形態に係る集中度評価システム100と同様の部分については、同一符号を付して、詳細な説明を省略する。
図1に示すように、第2実施形態に係る集中度評価システム200は、集中度評価装置210と、視線計測装置30とを含む。
集中度評価装置210は、機能的には、図2に示すように、検出部12と、評価部214とを含む。また、集中度評価装置210の所定の記憶領域には、注目領域DB220が記憶される。
第2実施形態では、第1実施形態で説明した特徴に加え、視線が画面38から外れる前、及び視線が画面38に戻ってきた後の各々における視線の動きのパターンの特徴も利用して、視線が画面38ら外れた場合の集中度の評価について説明する。視線が画面38から外れる前、及び視線が画面38に戻ってきた後の各々における視線の動きのパターンには、以下の特徴がある。
黒板やスライドに表示された図や文章をノートに取る場合などには、注目領域の確認をするため、視線を画面38から外す前の視線の動きとして、図に視線が集中したり、文章を読む方向に対する視線の動きが一定の方向に安定したりするという特徴がある。また、視線を画面38に戻した後の視線の動きとして、動画視聴に集中していない場合には、視線が注目領域から外れ、大きく動くという特徴がある。
そこで、評価部214は、集中度を評価するための評価値b1であって、画面38に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど高くなる評価値b1を算出する。
以下、評価値b1の算出の一例を示す。ここでは、0~r(rは、r>0の任意の定数、例えば100)の評価値b1を算出する場合について説明する。
注目領域が図の場合、評価部214は、画面38に対する視線位置が検出されなくなる前の所定時間において視線が動いた範囲と注目領域との重複範囲が多いほど高くなるように、評価値b1を算出する。これは、図の確認時には、図の全体に対して網羅的に視線を動かすという特徴を捉えたものである。
例えば、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内の場合、評価部214は、注目領域の中心位置(xm,ym)と、M秒間での視線の動きの中心位置との距離d4を、正規化前の評価値b1’として算出する。
また、評価部214は、図11に示すように、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)と、M秒間での視線位置のx方向の分散σx及びy方向の分散σyを算出する。そして、評価部214は、縦2σy、横2σx、中心(xm,ym)の矩形領域を、視線が動いた領域として特定し、注目領域と視線が動いた領域との共通領域が、注目領域中に占める割合の逆数を、正規化前の評価値b1’として算出する。
また、注目領域が文章の場合、評価部214は、画面38に対する視線位置が検出されなくなる前の所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど高くなるように、評価値b1を算出する。これは、文章の確認時には、文章の方向に沿って視線を動かすという特徴を捉えたものである。
例えば、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内の場合、評価部214は、M秒間における、所定単位時間毎の視線の動きを示すベクトルであるスキャンパスを特定する。図12中のKに示すように、文章を確認している場合には、文章の注目領域に沿って、近似したスキャンパスが表れる。すなわち、文章に沿った方向への視線の動きの分散は大きくなり、文章に沿った方向と直交する方向への視線の動きの分散は小さくなる。一方、図12中のLに示すように、文章を確認していない場合には、文章の注目領域とは関係なくスキャンパスが表れる。すなわち、視線の動きの縦方向の分散と横方向の分散との差が小さくなる。
そこで、評価部214は、視線が画面38から外れる前のM秒間に含まれるスキャンパスの全ての組み合わせ、又は隣接するスキャンパス同士のコサイン類似度を算出し、算出したコサイン類似度の平均の逆数を、正規化前の評価値b1’として算出する。
また、評価部214は、視線が画面38から外れる前のM秒間での視線位置のx方向の分散σxとy方向の分散σyとの差の逆数を、正規化前の評価値b1’として算出してもよい。なお、評価部214は、上記のスキャンパスのコサイン類似度の平均が0の場合、又は分散の差が0の場合、正規化前の評価値b1’を、b1’=rとすればよい。
上記のように、第2実施形態では、注目領域の種類によって、評価値b1の算出方法が異なる。そこで、例えば、図13に示すように、注目領域DB220に、注目領域の種類の情報も付与しておき、評価部214は、この情報を参照して、注目領域が図か、文章か、その他かを判定するようにすればよい。
また、評価部214は、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が注目領域内ではない場合、評価値b1を、b1=rとする。また、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)を含む注目領域が図でも文章でもない場合には、評価部214は、評価値b1を、b1=q×r(qは、0<q<1の任意の定数、例えば0.5)と算出する。評価部214は、正規化前の評価値b’を、0~rで正規化して評価値b1とする。
また、評価部214は、集中度を評価するための評価値b2であって、第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど高くなる評価値b2を算出する。
例えば、評価部214は、第2視線位置が検出されてからのN秒間での視線位置のx方向の分散σx、及びy方向の分散σyを算出し、評価値b2を、b2=σx+σyと算出する。
評価部214は、第1実施形態と同様に算出した評価値aと、上記のように算出した評価値b1と、評価値b2とを用いて、例えば、下記(1)式に示すように集中度Vを算出する。
Figure 0007139704000001
なお、φ及びωiは重み定数であり、事前に定義される。例えば、φ=0.5、ω1=0.3、ω2=0.002のように定義することができる。
評価部214は、第1実施形態と同様に、算出した集中度Vと閾値Tとを比較した評価結果を出力する。
集中度評価装置210は、例えば図8に示すコンピュータ50で実現することができる。コンピュータ50の記憶部53には、コンピュータ50を、集中度評価装置210として機能させるための集中度評価プログラム260が記憶される。集中度評価プログラム260は、検出プロセス62と、評価プロセス264とを有する。また、記憶部53は、注目領域DB220を構成する情報が記憶される情報記憶領域70を有する。
CPU51は、集中度評価プログラム260を記憶部53から読み出してメモリ52に展開し、集中度評価プログラム260が有するプロセスを順次実行する。CPU51は、検出プロセス62を実行することで、図2に示す検出部12として動作する。また、CPU51は、評価プロセス264を実行することで、図2に示す評価部214として動作する。また、CPU51は、検出プロセス62の実行時に、メモリ52に視線位置テーブル22を作成する。また、CPU51は、情報記憶領域70から情報を読み出して、注目領域DB220をメモリ52に展開する。これにより、集中度評価プログラム260を実行したコンピュータ50が、集中度評価装置210として機能することになる。
なお、集中度評価プログラム260により実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。
次に、第2実施形態に係る集中度評価システム200の作用について説明する。
第2実施形態では、集中度評価装置210において、図14に示す集中度評価処理が実行される。なお、集中度評価処理は、開示の技術の集中度評価方法の一例である。図14に示す集中度評価処理において、第1実施形態における集中度評価処理(図9)と同様の処理については、同一符号を付して詳細な説明を省略する。
ステップS14を経て、次のステップS50で、図15に示す評価値b1算出処理が実行される。
図15に示す評価値b1算出処理のステップS52で、評価部214が、画面38から視線が外れる前に、ユーザ40が注目領域を見ていたか否かを判定する。具体的には、評価部214は、視線が画面38から外れる前のM秒間での視線の動きの中心位置(xm,ym)が、現在のフレームに含まれる注目領域として注目領域DB220に規定されている範囲に含まれるか否かを判定する。ユーザ40が注目領域を見ていなかった場合には、処理はステップS54へ移行し、ユーザ40が注目領域を見ていた場合には、処理はステップS56へ移行する。
ステップS54では、評価部214が、評価値b1を、b1=rと算出し、処理は集中度評価処理(図14)へ戻る。
ステップS56では、評価部214が、上記ステップS52でユーザ40が見ていたと判定した注目領域の種類を、注目領域DB220を参照して特定し、特定した注目領域の種類が図か否かを判定する。注目領域が図の場合には、処理はステップS58へ移行し、注目領域が図ではない場合には、処理はステップS60へ移行する。
ステップS58では、評価部214が、注目領域の中心位置と、視線が画面38から外れる前のM秒間での視線の動きの中心位置との距離d4を、正規化前の評価値b1’として算出する。又は、評価部214が、視線が画面38から外れる前のM秒間で視線が動いた領域と注目領域との共通領域が、注目領域中に占める割合の逆数を、正規化前の評価値b1’として算出してもよい。そして、処理はステップS66へ移行する。
ステップS60では、評価部214が、上記ステップS52でユーザ40が見ていたと判定した注目領域の種類が文章か否かを判定する。注目領域が文章の場合には、処理はステップS62へ移行し、注目領域が文章ではない場合には、処理はステップS64へ移行する。
ステップS62では、評価部214が、視線が画面38から外れる前のM秒間に含まれるスキャンパスの全ての組み合わせ、又は隣接するスキャンパス同士のコサイン類似度を算出する。そして、評価部214は、算出したコサイン類似度の平均の逆数を、正規化前の評価値b1’として算出する。又は、評価部214は、視線が画面38から外れる前のM秒間での視線位置のx方向の分散σxとy方向の分散σyとの差の逆数を、正規化前の評価値b1’として算出してもよい。そして、処理はステップS66へ移行する。
ステップS64では、評価部214が、評価値b1を、b1=q×rと算出し、処理は集中度評価処理(図14)へ戻る。
ステップS66では、評価部214が、上記ステップS58又はS62で算出した正規化前の評価値b1’を、0~rで正規化して、評価値b1とする。そして、処理は集中度評価処理(図14)へ戻る。
図14に示す集中度評価処理に戻って、ステップS16、S18、及びS20を経て、次のステップS70へ移行する。ステップS70では、評価部214が、第2視線位置が検出されてからのN秒間での視線位置のx方向の分散σx、及びy方向の分散σyを算出し、評価値b2を、b2=σx+σyと算出する。
次に、ステップS240で、評価部214が、上記ステップS20で算出した評価値a、上記ステップS50で算出した評価値b1、及び上記ステップS70で算出した評価値b2を用いて、例えば(1)式に示す集中度Vを算出する。そして、評価部214が、集中度Vと閾値Tとを比較し、V>Tの場合には、集中していることを示す評価結果を出力し、V≦Tの場合には、集中していないことを示す評価結果を出力する。
以上説明したように、第2実施形態に係る集中度評価システムによれば、集中度評価装置が、画面から視線が外れる直前の第1視線位置と、視線が画面に戻ってきた際の第2視線位置との距離に基づいて、集中度を評価する。また、集中度評価装置は、第1視線位置及び第2視線位置の各々と注目領域との関係に基づいて、集中度を評価する。さらに、視線が画面から外れる前、及び画面に戻ってきた後の視線の動きのパターンに基づいて、集中度を評価する。これにより、ユーザの視線が画面から外れる場合でも、動画視聴に対する集中度を適切に評価することができる。
なお、上記各実施形態において、ユーザの視線が画面上にある間は、画面に対する視線位置を用いた従来既知の手法により、集中度を評価するようにしてもよい。
また、上記各実施形態では、動画の制作者によって手動で設定されたり、画像処理技術を用いて自動で設定されたりした注目領域の情報を、注目領域DBに記憶しておく場合について説明したが、これに限定されない。
例えば、動画中の重要な注目すべき領域には、集中して視聴している多くのユーザの視線が集まると考えられる。そこで、図16に示すように、集中度評価装置310を、検出部12と、評価部314と、設定部16とを含む構成とする。そして、評価部314は、複数のユーザについてのフレーム毎の集中度の評価結果を、評価結果DB24に記憶しておく。そして、設定部16が、評価結果DB24を参照して、集中度の高い所定数以上のユーザ40を特定し、それらのユーザ40の視線位置が集まっている領域を、視線位置テーブル22から特定する。そして、設定部16は、特定した領域を注目領域として設定し、注目領域DB20(又は220)に記憶するようにしてもよい。
また、上記各実施形態では、説明を簡単にするために、1フレームに1つの注目領域が存在する場合を例に説明したが、1フレーム中に複数の注目領域が含まれていてもよい。
また、上記各実施形態では、算出した集中度と閾値とを比較して、集中しているか否かを評価結果として出力する場合について説明したが、これに限定されない。例えば、算出した集中度をそのまま出力してもよいし、算出した集中度を複数段階の評価(例えば、高、中、低の3段階の評価)に換算した評価結果を出力してもよい。
また、上記実施形態では、集中度評価プログラムが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されない。開示の技術に係るプログラムは、CD-ROM、DVD-ROM、USBメモリ等の記憶媒体に記憶された形態で提供することも可能である。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
(付記2)
前記第1視線位置と前記第2視線位置との距離が小さいほど、前記集中度を高く評価する付記1に記載の集中度評価プログラム。
(付記3)
前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する付記1又は付記2に記載の集中度評価プログラム。
(付記4)
前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する付記1~付記3のいずれか1項に記載の集中度評価プログラム。
(付記5)
前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する付記4に記載の集中度評価プログラム。
(付記6)
前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する付記4に記載の集中度評価プログラム。
(付記7)
前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する付記1~付記6のいずれか1項に記載の集中度評価プログラム。
(付記8)
集中度が高いと評価された際の視線位置に基づいて注目領域を設定する付記1~付記7のいずれか1項に記載の集中度評価プログラム。
(付記9)
前記画面が表示される表示装置、又は前記ユーザに取り付けられた、視線方向を計測する視線計測装置により計測された視線方向に基づいて、前記画面に対する視線位置を検出する付記1~付記8のいずれか1項に記載の集中度評価プログラム。
(付記10)
前記画面上の座標値として前記視線位置を検出する付記1~付記9のいずれか1項に記載の集中度評価プログラム。
(付記11)
動画視聴中のユーザの画面に対する視線位置を検出する検出部と、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する評価部と、
を含む集中度評価装置。
(付記12)
前記評価部は、前記第1視線位置と前記第2視線位置との距離が小さいほど、前記集中度を高く評価する付記11に記載の集中度評価装置。
(付記13)
前記評価部は、前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する付記11又は付記12に記載の集中度評価装置。
(付記14)
前記評価部は、前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する付記11~付記13のいずれか1項に記載の集中度評価装置。
(付記15)
前記評価部は、前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する付記14に記載の集中度評価装置。
(付記16)
前記評価部は、前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する付記14に記載の集中度評価装置。
(付記17)
前記評価部は、前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する付記11~付記16のいずれか1項に記載の集中度評価装置。
(付記18)
集中度が高いと評価された際の視線位置に基づいて注目領域を設定する設定部を含む付記11~付記17のいずれか1項に記載の集中度評価装置。
(付記19)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータが実行する集中度評価方法。
(付記20)
動画視聴中のユーザの画面に対する視線位置を検出し、
前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置とに基づいて、前記動画視聴に対する前記ユーザの集中度を評価する
ことを含む処理をコンピュータに実行させるための集中度評価プログラムを記憶した記憶媒体。
10、210、310 集中度評価装置
12 検出部
14、214、314 評価部
16 設定部
20、220 注目領域DB
22 視線位置テーブル
30 視線計測装置
36 表示装置
38 画面
40 ユーザ
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
59 記憶媒体
60、260 集中度評価プログラム
100、200 集中度評価システム

Claims (9)

  1. 動画視聴中のユーザの画面に対する視線位置を検出し、
    前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置との距離が小さいほど、前記動画視聴に対する前記ユーザの集中度を高く評価する
    ことを含む処理をコンピュータに実行させるための集中度評価プログラム。
  2. 前記第1視線位置及び前記第2視線位置の各々が予め定めた注目領域に含まれる場合に、前記第1視線位置及び前記第2視線位置の各々が前記注目領域に含まれない場合に比べ、前記集中度を高く評価する請求項1に記載の集中度評価プログラム。
  3. 前記画面に対する視線位置が検出されなくなる前の所定時間における視線の動きと、注目領域を確認する動きを示す予め定めたパターンとの一致度が高いほど、前記集中度を高く評価する請求項1又は請求項2に記載の集中度評価プログラム。
  4. 前記注目領域が図の場合、前記所定時間において視線が動いた範囲と前記注目領域との重複範囲が多いほど、前記集中度を高く評価する請求項に記載の集中度評価プログラム。
  5. 前記注目領域が文章の場合、前記所定時間における視線の動きの縦方向の分散と横方向の分散との差が大きいほど、前記集中度を高く評価する請求項に記載の集中度評価プログラム。
  6. 前記第2視線位置が検出されてからの所定時間において検出された視線位置の分散が小さいほど、前記集中度を高く評価する請求項1~請求項のいずれか1項に記載の集中度評価プログラム。
  7. 集中度が高いと評価された際の視線位置に基づいて注目領域を設定する請求項1~請求項のいずれか1項に記載の集中度評価プログラム。
  8. 動画視聴中のユーザの画面に対する視線位置を検出する検出部と、
    前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置との距離が小さいほど、前記動画視聴に対する前記ユーザの集中度を高く評価する評価部と、
    を含む集中度評価装置。
  9. 動画視聴中のユーザの画面に対する視線位置を検出し、
    前記画面に対する視線位置が検出されなくなった直前の視線位置である第1視線位置と、前記画面に対する視線位置が検出されなくなり、再び前記画面に対する視線位置が検出された際の第2視線位置との距離が小さいほど、前記動画視聴に対する前記ユーザの集中度を高く評価する
    ことを含む処理をコンピュータが実行する集中度評価方法。
JP2018112854A 2018-06-13 2018-06-13 集中度評価プログラム、装置、及び方法 Active JP7139704B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112854A JP7139704B2 (ja) 2018-06-13 2018-06-13 集中度評価プログラム、装置、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112854A JP7139704B2 (ja) 2018-06-13 2018-06-13 集中度評価プログラム、装置、及び方法

Publications (2)

Publication Number Publication Date
JP2019215731A JP2019215731A (ja) 2019-12-19
JP7139704B2 true JP7139704B2 (ja) 2022-09-21

Family

ID=68919578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112854A Active JP7139704B2 (ja) 2018-06-13 2018-06-13 集中度評価プログラム、装置、及び方法

Country Status (1)

Country Link
JP (1) JP7139704B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102502766B1 (ko) * 2020-08-07 2023-02-22 이화여자대학교 산학협력단 사용자의 눈 동작에 기초하여 사용자의 주의 집중 여부를 모니터링 할 수 있는 영상 수업 시스템 및 방법
JP7398853B1 (ja) 2023-06-30 2023-12-15 ヴィアゲート株式会社 動画視聴解析システム、動画視聴解析方法および動画視聴解析プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (ja) 2000-02-15 2001-08-24 Hitachi Ltd コンピュータ支援情報伝達方法およびコンピュータ支援情報伝達装置
JP2006277192A (ja) 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International 映像表示システム
JP2014077814A (ja) 2011-02-14 2014-05-01 Panasonic Corp 表示制御装置および表示制御方法
JP2016224142A (ja) 2015-05-28 2016-12-28 富士通株式会社 評価方法、プログラム及び評価装置
JP2018010702A (ja) 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130082839A (ko) * 2011-12-20 2013-07-22 두산동아 주식회사 사용자 맞춤형 콘텐츠 제공 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001228785A (ja) 2000-02-15 2001-08-24 Hitachi Ltd コンピュータ支援情報伝達方法およびコンピュータ支援情報伝達装置
JP2006277192A (ja) 2005-03-29 2006-10-12 Advanced Telecommunication Research Institute International 映像表示システム
JP2014077814A (ja) 2011-02-14 2014-05-01 Panasonic Corp 表示制御装置および表示制御方法
JP2016224142A (ja) 2015-05-28 2016-12-28 富士通株式会社 評価方法、プログラム及び評価装置
JP2018010702A (ja) 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム

Also Published As

Publication number Publication date
JP2019215731A (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
CN109891189B (zh) 策划的摄影测量
US8085982B1 (en) Object tracking in video with visual constraints
CN109614910B (zh) 一种人脸识别方法和装置
WO2021135827A1 (zh) 视线方向确定方法、装置、电子设备及存储介质
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
KR101288447B1 (ko) 시선 추적 장치와 이를 이용하는 디스플레이 장치 및 그 방법
US20170162195A1 (en) Information processing apparatus, information processing method, and recording medium
US10254831B2 (en) System and method for detecting a gaze of a viewer
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP7139704B2 (ja) 集中度評価プログラム、装置、及び方法
US11585724B2 (en) Fixtureless lensmeter system
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
Diaz-Cadiz et al. Adductory vocal fold kinematic trajectories during conventional versus high-speed videoendoscopy
CN113705349A (zh) 一种基于视线估计神经网络的注意力量化分析方法及系统
KR20210062708A (ko) 무고정 렌즈미터 시스템
Duraisamy et al. Classroom engagement evaluation using computer vision techniques
JP6713422B2 (ja) 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム
JP2016111612A (ja) コンテンツ表示装置
CN112597909A (zh) 一种用于人脸图片质量评价的方法与设备
Das et al. I Cannot See Students Focusing on My Presentation; Are They Following Me? Continuous Monitoring of Student Engagement through “Stungage”
CN112528714B (zh) 基于单光源的注视点估计方法、系统、处理器及设备
US10321089B2 (en) Image preproduction apparatus, method for controlling the same, and recording medium
JP2022081260A (ja) 算出プログラム、算出方法および算出装置
CN109587403A (zh) 一种拍摄引导方法和装置
Karngumpol et al. Webcam Based Eye Gaze Prediction System with Automatic Calibration for Web Browser

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7139704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150