JP2022081260A - 算出プログラム、算出方法および算出装置 - Google Patents

算出プログラム、算出方法および算出装置 Download PDF

Info

Publication number
JP2022081260A
JP2022081260A JP2020192697A JP2020192697A JP2022081260A JP 2022081260 A JP2022081260 A JP 2022081260A JP 2020192697 A JP2020192697 A JP 2020192697A JP 2020192697 A JP2020192697 A JP 2020192697A JP 2022081260 A JP2022081260 A JP 2022081260A
Authority
JP
Japan
Prior art keywords
image
line
sight
concentration
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020192697A
Other languages
English (en)
Inventor
亮介 川村
Ryosuke Kawamura
健太郎 村瀬
Kentaro Murase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020192697A priority Critical patent/JP2022081260A/ja
Publication of JP2022081260A publication Critical patent/JP2022081260A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】画像に対するユーザの集中度を精度よく推定する。【解決手段】実施形態の算出プログラムは、取得する処理と、特定する処理と、判定する処理と、算出する処理とをコンピュータに実行させる。取得する処理は、画像と、画像におけるユーザの視線位置とを取得する。特定する処理は、画像に含まれる特徴領域を特定する。判定する処理は、視線位置が特徴領域から外れていることを検知すると、視線位置が、画像内に含まれる特定の条件を満たす特定領域と特徴領域との間を往復移動するか否かを判定する。算出する処理は、判定の結果に基づいて、ユーザの画像に対する集中度を算出する。【選択図】図6

Description

本発明の実施形態は、画像を視聴するユーザの集中度を算出する算出技術に関する。
従来、ネットなどを介して提供される講義などの学習コンテンツについては、受講者の集中度合いを直接見守ることが困難であることから、コンテンツ画像に対する受講者(ユーザ)の視線位置を検出して受講者の集中度を推定している。
このような集中度の推定については、画面におけるVisual Saliency(以下、サリエンシー)の高い高サリエンシー領域への視線の追従度合いを特徴量として検出して画面を視聴しているユーザの集中度を推定する従来技術が知られている。
Automatic Gaze-Based Detection of Mind Wandering during Narrative Film Comprehension, Caitlin Mills, Robert Bixler, Xinyi Wang, & Sidney K. D’Mello, Proceedings of the 9th International Conference on Educational Data Mining, p.30-p.37
学習コンテンツを視聴しているユーザにおいて、コンテンツに対して十分に集中していても、高サリエンシー領域に視線が追従しないケースは多々存在する。例えば、講義の学習コンテンツを視聴しているユーザは、講師がポインタで指している部分の根拠を探すために、その部分以外の箇所を見る場合がある。また、ユーザは、講師が移動しながら解説している場合、講師だけに目を向けるのではなく、解説対象となっている黒板の箇所を確認する場合がある。
しかしながら、上記の従来技術では、高サリエンシー領域にユーザの視線が追従していない場合に集中していないものと推定され、推定精度が悪い場合があるという問題がある。
1つの側面では、画像に対するユーザの集中度を精度よく推定できる算出プログラム、算出方法および算出装置を提供することを目的とする。
1つの案では、算出プログラムは、取得する処理と、特定する処理と、判定する処理と、算出する処理とをコンピュータに実行させる。取得する処理は、画像と、画像におけるユーザの視線位置とを取得する。特定する処理は、画像に含まれる特徴領域を特定する。判定する処理は、視線位置が特徴領域から外れていることを検知すると、視線位置が、画像内に含まれる特定の条件を満たす特定領域と特徴領域との間を往復移動するか否かを判定する。算出する処理は、判定の結果に基づいて、ユーザの画像に対する集中度を算出する。
画像に対するユーザの集中度を精度よく推定できる。
図1は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。 図2は、受講者の視線検出を説明する説明図である。 図3は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。 図4は、実施形態にかかる情報処理装置の動作例を示すフローチャートである。 図5Aは、視線の動きを説明する説明図である。 図5Bは、周期度合いの評価を説明する説明図である。 図6は、受講者の視線の動きの一例を説明する説明図である。 図7は、管理者への通知例を説明する説明図である。 図8は、表示画面の一例を説明する説明図である。 図9は、コンピュータ構成の一例を説明する説明図である。
以下、図面を参照して、実施形態にかかる算出プログラム、算出方法および算出装置を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する算出プログラム、算出方法および算出装置は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
図1は、実施形態にかかる情報処理装置の機能構成例を示すブロック図である。図1に示すように、情報処理装置1は、表示装置2と、視線検出装置3とが接続されたPC(Personal Computer)などであり、通信部10と、制御部20と、記憶部30とを有する。
情報処理装置1は、例えばネットなどを介して提供される講義などの学習コンテンツの画像をLCD(Liquid Crystal Display)等の表示装置2より視聴する受講者(ユーザ)が利用する端末装置などである。なお、学習コンテンツとして表示する画像は、講師が行う講義を撮影した動画像であってもよいし、講師が提示するプレゼンテーション資料などの静止画像であってもよい。
また、本実施形態では講師が行う講義を撮影した動画像のコンテンツを受講者であるユーザが視聴するものとして説明するが、ユーザが視聴するコンテンツも、学習コンテツに限定するものではなく、映画や娯楽番組などの映像コンテンツなどであってもよい。
視線検出装置3は、コンテンツの画像を視聴する受講者(ユーザ)の視線を、角膜反射法などの公知の視線検出技術を用いて検出する装置である。
図2は、受講者の視線検出を説明する説明図である。図2に示すように、視線検出装置3は、表示装置2の上部などに設置され、表示装置2に対面する受講者H1を撮影する可視光カメラまたは赤外線カメラなどである。例えば、視線検出装置3は、可視光カメラで撮影した受講者H1の目頭と虹彩の位置をもとに、表示装置2が受講者H1に対して表示している画像における受講者H1の視線位置を検出する。または、視線検出装置3は、赤外線カメラで撮影した受講者H1の角膜反射と動向の位置とをもとに、受講者H1の視線位置を検出する。次いで、視線検出装置3は、検出した視線位置を示す視線データを情報処理装置1へ出力する。
図1に戻り、通信部10は、制御部20の制御のもと、表示装置2および視線検出装置3、LAN(Local Area Network)、インターネットなどのネットワークを介した他の機器と通信を行う。通信部10は、例えば、NIC(Network Interface Card)などによって実現される。
通信部10は、インターネットなどを介して提供される講義などの学習コンテンツに関する動画情報31を受信し、記憶部30に格納する。また、通信部10は、視線検出装置3が検出した視線データを受信し、受信した視線データを制御部20へ出力する。
制御部20は、表示制御部21、領域検出部22、視線記録部23、追従判定部24、特定領域判定部25、周期性評価部26および集中度評価部27を有する。制御部20は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部20は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
表示制御部21は、表示装置2における画面表示などの表示処理を行う処理部である。具体的には、表示制御部21は、学習コンテンツなどの動画情報31を記憶部30より取得し、動画情報31に基づく画像(動画)を表示装置2へと表示する。
領域検出部22は、表示制御部21が表示装置2へ表示する画像(動画の場合は各フレーム)に含まれる各領域(特定領域および特徴領域)を検出する処理部である。
具体的には、領域検出部22は、表示制御部21が表示装置2へ表示する画像(動画の場合は各フレーム)について、輝度、色、方位、方向などの特徴ごとの分析を行う。次いで、領域検出部22は、輝度、色、方位、方向などの各特徴をもとに、ユーザ(受講者H1)に対して注意を誘引する特徴を含む、サリエンシーの高い高サリエンシー領域を特徴領域として検出する。一例として、領域検出部22は、輝度、色、方位、方向などの各特徴について、サリエンシーの高い領域を評価した2次元の特徴マップを計算し、計算した特徴マップを統合することで画像の中から高サリエンシー領域を検出する。領域検出部22は、検出した特徴領域(例えば高サリエンシー領域)の座標位置を示す情報を、画像ごと(動画の場合はフレームごと)に検出時刻などを付与した上でサリエンシー領域情報33として記憶部30に格納する。
また、領域検出部22は、表示制御部21が表示装置2へ表示する画像(動画の場合は各フレーム)内において、公知の画像認識処理により、特定の条件を満たす特定領域を検出する。領域検出部22は、検出した特定領域の座標位置を示す情報を、画像ごと(動画の場合はフレームごと)に時系列順に特定領域情報34として記憶部30に格納する。
具体的には、領域検出部22は、公知の画像認識処理により、画像に含まれる図および式の少なくとも一方の領域を特定領域として検出する。また、領域検出部22は、時系列順に記録された視線情報32を参照し、画像内において、受講者H1の視線位置に基づく視線の乱れと、視線の滞留とがある領域を特定領域として検出する。一例として、領域検出部22は、受講者H1の視線が一定時間滞留し、かつ滞留した領域内を読み取るような視線の乱れ(例えば視線の移動する角度と距離の分散が閾値以上)がある場合に、その領域を特定領域として検出する。次いで、領域検出部22は、検出した特定領域の座標位置を示す情報を検出時刻などを付与した上で特定領域情報34として記憶部30に格納する。
また、領域検出部22は、検出した特定領域に関して、動画情報31に含まれる音声(例えば講師の音声)での言及の有無を判別し、その判別結果を(例えばフラグなどで)特定領域情報34に含めてもよい。具体的には、領域検出部22は、検出した特定領域に対するOCR(Optical Character Recognition)処理による文字認識の結果と、動画情報31に含まれる音声に対する音声認識の結果とを比較し、特定領域に関する言及の有無を判別する。次いで、領域検出部22は、判別した言及の有無を特定領域情報34に付与する。
視線記録部23は、表示制御部21が表示装置2へ表示する画像について、視線検出装置3が検出した受講者H1の視線位置を視線情報32として記憶部30に記録する処理部である。具体的には、視線記録部23は、表示制御部21が表示装置2へ画像を表示している際に、視線検出装置3が出力した視線データを取得する。次いで、視線記録部23は、取得した視線データをもとに、画像ごと(動画の場合はフレームごと)に、画像に対する視線位置(画像上の座標)を示す視線情報32を、検出時刻などを付与した上で時系列順に記憶部30に記録する。
追従判定部24は、表示制御部21が表示装置2へ表示する画像に対し、受講者H1の視線位置が領域検出部22が検出した特徴領域に追従しているか否かを判定する処理部である。具体的には、追従判定部24は、画像ごとに時系列順に記録された視線情報32と、画像ごとのサリエンシー領域情報33とを検出時刻を合わせて比較することで、サリエンシー領域情報33が示す特徴領域の座標位置に対し、視線情報32が示す視線位置が追従しているか否かを判定する。
特定領域判定部25は、受講者H1の視線位置が特徴領域に追従していない場合、画像内に含まれる特定の条件を満たす特定領域と、特徴領域との間を受講者H1の視線位置が往復移動するか否かを判定する処理部である。具体的には、特定領域判定部25は、画像ごとに時系列順に記録された視線情報32、サリエンシー領域情報33および特定領域情報34を検出時刻を合わせて比較することで、特徴領域の座標位置と、特定領域の座標位置との間を受講者H1の視線位置が往復しているか否かを判定する。
周期性評価部26は、時系列順に記録された視線情報32をもとに、受講者H1の視線位置に関する移動の周期性を評価する処理部である。例えば、周期性評価部26は、視線情報32が示す視線位置の座標を極座標系(距離(l)、角度(θ))に変換する。次いで、周期性評価部26は、変換した極座標系より、距離(l)と角度(θ)のベクトル(l,θ)を生成する。次いで、周期性評価部26は、ベクトル(l,θ)それぞれにおいて、時系列順の視線位置の動きから時間の関数として記述し、正規化自己相関係数を算出する。次いで、周期性評価部26は、ベクトル(l,θ)それぞれの自己相関係数で、時刻0以外でのピーク(周期性が最も高い)の係数を求める。
周期性評価部26は、例えば、特定領域と、特徴領域との間を受講者H1の視線位置が往復移動する間について、ベクトル(l,θ)それぞれにおける正規化自己相関係数より、往復移動に関する周期性を評価する。
集中度評価部27は、表示装置2が表示する画像に対する受講者H1の視線位置に基づいて受講者H1の画像に対する集中度を評価する処理部である。具体的には、集中度評価部27は、追従判定部24の判定結果をもとに、受講者H1の視線位置が特徴領域に追従している場合は、追従度合いをもとに集中度を求める従来手法で集中度を評価する。また、集中度評価部27は、受講者H1の視線位置が特徴領域に追従していない場合は、特定領域判定部25の判定結果をもとに、特定領域と、特徴領域との間を受講者H1の視線位置が往復移動するか否かにより集中度を評価する。集中度評価部27は、受講者H1に関する集中度の評価結果を、通信部10を介して表示装置2やネットワーク上の他の機器へ出力する。
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。記憶部30は、動画情報31、視線情報32、サリエンシー領域情報33および特定領域情報34を格納する。
図3は、実施形態にかかる情報処理装置1の動作例を示すフローチャートである。なお、図3に示すフローチャートでは、表示制御部21による動画情報31の表示装置2への表示処理および領域検出部22による領域(特徴領域および特定領域)の検出処理はバックグラウンドで実行されているものとする。
図3に示すように、処理が開始されると、視線検出装置3は、受講者H1の視線位置を検出し、検出した視線位置を示す視線データを情報処理装置1へ出力する。視線記録部23は、視線検出装置3からの視線データが示す受講者H1の視線位置を視線情報32として記憶部30に記録する(S1)。
次いで、追従判定部24は、サリエンシー領域情報33を参照し、サリエンシー領域情報33が示すサリエンシーが高い領域(特徴領域)が動いているか否かを判別する(S2)。サリエンシーが高い領域が動いていない場合(S2:No)、追従判定部24は、S1へ処理を戻す。
サリエンシーが高い領域が動いている場合(S2:Yes)、追従判定部24は、視線情報32を参照し、視線情報32が示す受講者H1の視線位置がサリエンシーが高い領域に追従しているか否かを判別する(S3)。
受講者H1の視線位置がサリエンシーが高い領域に追従している場合(S3:Yes)、集中度評価部27は、追従度合いをもとに集中度を求める従来手法により、受講者H1の画像に対する集中度の評価値(α)を算出する(S4)。
受講者H1の視線位置がサリエンシーが高い領域に追従していない場合(S3:No)、特定領域判定部25は、サリエンシーが高い領域と、特定領域の間で、受講者H1の視線位置の周期的な往復があるか否かを判定する(S5)。往復がない場合(S5:No)、特定領域判定部25は、S1へ処理を戻す。
往復がある場合(S5:Yes)、集中度評価部27は、その往復の度合いから受講者H1の画像に対する集中度の評価値(α)を算出する(S6)。
S4、S6に次いで、集中度評価部27は、算出した評価値(α)の時間平均や評価値(α)の値に応じた重み付けなどを行うことで、時刻(時間帯)ごとの受講者H1の集中度を評価する(S7)。次いで、集中度評価部27は、集中度の評価結果を出力して処理を終了する。なお、評価結果については、集中度の評価値をそのまま出力してもよいし、評価値に対する閾値との比較結果(例えば閾値以上であれば集中している)を出力してもよい。
図4は、実施形態にかかる情報処理装置1の動作例を示すフローチャートであり、より具体的には、往復の度合いから集中度の評価値(α)を算出する処理(S6)の詳細を説明する図である。
図4に示すように、処理が開始されると、集中度評価部27は、サリエンシーが高い領域から移動してきた受講者H1の視線位置が特定領域に存在していたか否かを判定する(S10)。
ここで、特定領域は、領域検出部22が検出した特定領域情報34が示す座標位置の領域である。具体的には、特定領域は、表示装置2が表示している動画情報31における画像に含まれる図および式の少なくとも一方の領域である。また、特定領域は、時系列順に記録された視線情報32に基づいて検出された、受講者H1の視線の乱れと、視線の滞留とがある領域であってもよい。
図5Aは、視線の動きを説明する説明図である。図5Aに示す矢印は、所定の時間幅で計測した時刻ごと受講者H1の視線位置の動きを例示している。図5Aに示すように、領域検出部22は、時系列順に記録された視線情報32をもとに、受講者H1の視線が一定時間滞留する領域を特定領域R2として検出する。
また、ケースC1は視線の移動する角度と距離の分散が閾値より低い場合であり、ケースC2は視線の移動する角度と距離の分散が閾値より高い場合である。領域検出部22は、ケースC2のように視線の移動する角度と距離の分散が閾値より高い場合に、特定領域R2を検出してもよい。このように、領域検出部22は、文章の読み取りなど、画像の内容を確認するような視線の動き(乱れおよび滞留)のある領域を特定領域としてもよい。
受講者H1の視線位置が特定領域に存在していない場合(S10:No)、集中度評価部27は、S16へ処理を進める。受講者H1の視線位置が特定領域に存在している場合(S10:Yes)、集中度評価部27は、視線位置が特定領域に一定時間滞留したか否かを判別する(S11)。一定時間滞留した場合(S11:Yes)、集中度評価部27は、S14へ処理を進める。
一定時間滞留していない場合(S11:No)、集中度評価部27は、サリエンシーが高い領域に受講者H1の視線位置が戻ったか否かを判定する(S12)。サリエンシーが高い領域に視線位置が戻っていない場合(S12:No)、S16へ処理を進める。
サリエンシーが高い領域に視線位置が戻っている場合(S12:Yes)、集中度評価部27は、サリエンシーが高い領域に視線位置が一定時間滞留したか否かを判定する(S13)。サリエンシーが高い領域に視線位置が一定時間滞留していない場合(S13:No)、集中度評価部27は、S16へ処理を進める。
サリエンシーが高い領域に視線位置が一定時間滞留している場合(S13:Yes)、集中度評価部27は、サリエンシーが高い領域と、特定領域との間で一回以上の視線位置の往復があったか否かを判定する(S14)。一回以上の往復がない場合(S14:No)、集中度評価部27は、S16へ処理を進める。
一回上の往復がある場合(S14:Yes)、周期性評価部26は、往復時のスキャンパス(視線)と、特定領域の情報から周期度合いを算出する。次いで、集中度評価部27は、算出した周期度合いをもとに集中度の評価値(α)を算出する(S15)。
図5Bは、周期度合いの評価を説明する説明図である。図5Bに示すように、周期性評価部26は、時系列順に記録された視線情報32をもとに、各時刻(T)における受講者H1の視線位置R1を極座標系(距離(l)、角度(θ))に変換する(S20)。
次いで、周期性評価部26は、距離(l)、角度(θ)それぞれを時間(T)の関数として記述し(S21)、正規化自己相関係数(0~1)を算出する(S22)。ここで、周期性評価部26は、時刻0以外でのピークの係数を周期度合いの評価値(f)とする。
S15において、集中度評価部27は、周期度合いの評価値(f)と、特定領域の評価値(r)とをもとに、集中度の評価値(α)=f*rとして集中度の評価値を算出する。
なお、集中度評価部27は、特定領域の評価値(r)を、特定領域のおける図および式の少なくとも一方についての言及の有無をもとに求める。例えば、集中度評価部27は、特定領域情報34における言及の有無のフラグをもとに、言及がある場合はr=1とし、言及がない場合はr=0.5とする。
また、集中度評価部27は、特定領域の評価値(r)を受講者H1の視線の乱れと、視線の滞留とに応じて求めてもよい。例えば、集中度評価部27は、滞留時間を判別するための閾値(Th_d)以上、受講者H1の視線位置が滞留しているか否かを判別する。また、集中度評価部27は、受講者H1の視線位置の移動する角度と距離の分散が閾値(Th_l、Th_θ)以上の、視線の乱れがあるか否かを判別する。次いで、集中度評価部27は、視線の乱れがあり、滞留している場合はr=1とし、どちらか一方の場合はr=0.5とする。
S16において、集中度評価部27は、受講者H1は画像に対して集中していないものとして集中度の評価値(α)をα=0とする。
図6は、受講者H1の視線の動きの一例を説明する説明図である。図6に示すように、表示画面G1には、受講者H1が視聴している講義画面G2と、受講者H1を正面から撮影した受講者画面G3とが表示されているものとする。
ここで、講義画面G2は、講師H3が黒板を用いて講義を行っている画面であり、図や式などが記載された黒板が特定領域R2として検出されるものとする。また、講義画面G2では、講師H3の顔や指先などが高サリエンシー領域(特徴領域)として検出されるものとする。また、受講者H1は講師H3が行う講義に対して十分に集中しているものとする。
図6に示すように、講義画面G2を集中して視聴している受講者H1の視線位置R1は、必ずしも講師H3の顔や指先などの高サリエンシー領域に追従するものではない。例えば、講師H3が解説(言及)している黒板の記載(特定領域R2)を確認する場合がある。このため、受講者H1の視線位置R1の動きは、高サリエンシー領域と、黒板の記載(特定領域R2)とを往復するような規則性のある動きを示す。これに対し、集中していない場合の視線位置R1では、このような規則性のある動きはなく、不規則な動きとなる。
本実施形態では、高サリエンシー領域に受講者H1の視線が追従していない場合であっても、高サリエンシー領域と、黒板の記載(特定領域R2)とを往復するような規則性のある動きをもとに集中度を評価するので、集中度を精度よく推定することができる。
図7は、管理者への通知例を説明する説明図である。図7に示すように、情報処理装置1は、受講者H1における集中度の評価結果を、通信ネットワークNを介して管理者H2側の端末へ通知してもよい。これにより、管理者H2は、受講者H1の集中度を遠隔で知ることができる。
図8は、表示画面の一例を説明する説明図であり、より具体的には管理者H2側の端末における表示画面(G4、G5、G7)例を示す図である。
図8のケースC10に示すように、管理者H2の端末では、所定の受講者H1に関する情報処理装置1からの評価結果(集中度)を時間ごとに集計したグラフを評価結果画面G4に表示してもよい。
また、ケースC11に示すように、管理者H2の端末では、リアルタイムに配信している講義画面G2に対する、各受講者H1に関する情報処理装置1からの評価結果(集中度)を集計した棒グラフG6を、講義画面G2とともに評価結果画面G5に表示してもよい。
また、ケースC12に示すように、管理者H2の端末では、リアルタイムに配信している講義画面G2に対する、受講者H1a、H1b…それぞれの集中度を示す集中度指標G8を評価結果画面G7に表示してもよい。
以上のように、情報処理装置1は、画像と、この画像におけるユーザ(受講者H1)の視線位置R1とを取得する。また、情報処理装置1は、画像に含まれる特徴領域を特定する。また、情報処理装置1は、視線位置R1が特徴領域から外れていることを検知すると、視線位置R1が、画像内に含まれる特定の条件を満たす特定領域R2と特徴領域との間を往復移動するか否かを判定する。また、情報処理装置1は、判定の結果に基づいて、ユーザ(受講者H1)の画像に対する集中度を算出する。
これにより、情報処理装置1は、受講者H1において特徴領域への視線位置R1の追従がないようなケースにおいても、特定領域R2と特徴領域との間を往復移動するような視線の動きに応じて受講者H1の集中度を推定でき、画像に対する受講者H1の集中度を精度よく推定できる。例えば、特定領域R2と特徴領域との間を往復移動するような視線の動きで特定領域R2と特徴領域との内容を見比べているような受講者H1については、画像に対しては十分に集中しているものと推定できる。
また、情報処理装置1は、画像において、ユーザ(受講者H1)に対して注意を誘引する特徴を含む領域を特徴領域として特定する。これにより、情報処理装置1は、例えば、画像において動きのある講師H3の顔、指先などのサリエンシーの高い高サリエンシー領域を特徴領域として特定することができる。このため、情報処理装置1は、特定領域R2と高サリエンシー領域との間を往復移動するような視線の動きに応じて受講者H1の集中度を推定することができる。
また、情報処理装置1は、画像に含まれる図および式の少なくとも一方を特定領域R2とする。これにより、情報処理装置1は、画像内の図および式の少なくとも一方を特定領域R2とし、図および式の少なくとも一方と特徴領域との間を往復移動するような視線の動きに応じて受講者H1の集中度を推定できる。
また、情報処理装置1は、視線位置R1に基づく視線の乱れと、視線の滞留とがある領域を特定領域R2とする。これにより、情報処理装置1は、内容を確認するような視線の動き(乱れおよび滞留)のある領域を特定領域R2とすることができる。
また、情報処理装置1は、特定領域R2と特徴領域との間の視線の往復移動における時系列の変化の周期性をもとに集中度を算出する。例えば、受講者H1が集中していない場合、視線は不規則に移動する(目が泳ぐ)ことが多くなる。逆に、受講者H1が集中している場合、特定領域R2と特徴領域との間の視線の往復移動は周期性を伴ったものとなる。したがって、情報処理装置1は、特定領域R2と特徴領域との間の視線の往復移動における周期性をもとに受講者H1の集中度を算出することで、受講者H1の集中度を精度よく推定できる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、情報処理装置1の制御部20で行われる表示制御部21、領域検出部22、視線記録部23、追従判定部24、特定領域判定部25、周期性評価部26および集中度評価部27の各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、情報処理装置1で行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ構成(ハードウエア)の一例を説明する。図9は、コンピュータ構成の一例を説明位する説明図である。
図9に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、データ入力を受け付ける入力装置202と、モニタ203と、スピーカー204とを有する。また、コンピュータ200は、記憶媒体からプログラム等を読み取る媒体読取装置205と、各種装置と接続するためのインタフェース装置206と、有線または無線により外部機器と通信接続するための通信装置207とを有する。また、情報処理装置1は、各種情報を一時記憶するRAM208と、ハードディスク装置209とを有する。また、コンピュータ200内の各部(201~209)は、バス210に接続される。
ハードディスク装置209には、上記の実施形態で説明した機能構成(例えば表示制御部21、領域検出部22、視線記録部23、追従判定部24、特定領域判定部25、周期性評価部26および集中度評価部27)における各種の処理を実行するためのプログラム211が記憶される。また、ハードディスク装置209には、プログラム211が参照する各種データ212が記憶される。入力装置202は、例えば、操作者から操作情報の入力を受け付ける。モニタ203は、例えば、操作者が操作する各種画面を表示する。インタフェース装置206は、例えば印刷装置等が接続される。通信装置207は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU201は、ハードディスク装置209に記憶されたプログラム211を読み出して、RAM208に展開して実行することで、上記の機能構成(例えば表示制御部21、領域検出部22、視線記録部23、追従判定部24、特定領域判定部25、周期性評価部26および集中度評価部27)に関する各種の処理を行う。なお、プログラム211は、ハードディスク装置209に記憶されていなくてもよい。例えば、コンピュータ200が読み取り可能な記憶媒体に記憶されたプログラム211を読み出して実行するようにしてもよい。コンピュータ200が読み取り可能な記憶媒体は、例えば、CD-ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラム211を記憶させておき、コンピュータ200がこれらからプログラム211を読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)画像と、前記画像におけるユーザの視線位置とを取得し、
前記画像に含まれる特徴領域を特定し、
前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
処理をコンピュータに実行させることを特徴とする算出プログラム。
(付記2)前記特定する処理は、前記画像において、前記ユーザに対して注意を誘引する特徴を含む領域を前記特徴領域として特定する処理を含む、
ことを特徴とする付記1に記載の算出プログラム。
(付記3)前記特定する処理は、前記画像に含まれる図および式の少なくとも一方に対応する領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記1または2に記載の算出プログラム。
(付記4)前記特定する処理は、前記視線位置に基づく視線の乱れと、当該視線の滞留とがある領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記1または2に記載の算出プログラム。
(付記5)前記算出する処理は、前記往復移動における時系列の変化の周期性をもとに前記集中度を算出する処理を含む、
ことを特徴とする付記1乃至4のいずれか一に記載の算出プログラム。
(付記6)画像と、前記画像におけるユーザの視線位置とを取得し、
前記画像に含まれる特徴領域を特定し、
前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
処理をコンピュータが実行することを特徴とする算出方法。
(付記7)前記特定する処理は、前記画像において、前記ユーザに対して注意を誘引する特徴を含む領域を前記特徴領域として特定する処理を含む、
ことを特徴とする付記6に記載の算出方法。
(付記8)前記特定する処理は、前記画像に含まれる図および式の少なくとも一方に対応する領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記6または7に記載の算出方法。
(付記9)前記特定する処理は、前記視線位置に基づく視線の乱れと、当該視線の滞留とがある領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記6または7に記載の算出方法。
(付記10)前記算出する処理は、前記往復移動における時系列の変化の周期性をもとに前記集中度を算出する処理を含む、
ことを特徴とする付記6乃至9のいずれか一に記載の算出方法。
(付記11)画像と、前記画像におけるユーザの視線位置とを取得し、
前記画像に含まれる特徴領域を特定し、
前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
処理を実行する制御部を含むことを特徴とする算出装置。
(付記12)前記特定する処理は、前記画像において、前記ユーザに対して注意を誘引する特徴を含む領域を前記特徴領域として特定する処理を含む、
ことを特徴とする付記11に記載の算出装置。
(付記13)前記特定する処理は、前記画像に含まれる図および式の少なくとも一方に対応する領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記11または12に記載の算出装置。
(付記14)前記特定する処理は、前記視線位置に基づく視線の乱れと、当該視線の滞留とがある領域を前記特定領域として特定する処理を含む、
ことを特徴とする付記11または12に記載の算出装置。
(付記15)前記算出する処理は、前記往復移動における時系列の変化の周期性をもとに前記集中度を算出する処理を含む、
ことを特徴とする付記11乃至14のいずれか一に記載の算出装置。
1…情報処理装置
2…表示装置
3…視線検出装置
10…通信部
20…制御部
21…表示制御部
22…領域検出部
23…視線記録部
24…追従判定部
25…特定領域判定部
26…周期性評価部
27…集中度評価部
30…記憶部
31…動画情報
32…視線情報
33…サリエンシー領域情報
34…特定領域情報
200…コンピュータ
201…CPU
202…入力装置
203…モニタ
204…スピーカー
205…媒体読取装置
206…インタフェース装置
207…通信装置
208…RAM
209…ハードディスク装置
210…バス
211…プログラム
212…各種データ
C1~C12…ケース
G1…表示画面
G2…講義画面
G3…受講者画面
G4…評価結果画面
G5…評価結果画面
G6…棒グラフ
G7…評価結果画面
G8…集中度指標
H1、H1a、H1b…受講者
H2…管理者
H3…講師
N…通信ネットワーク
R1…視線位置
R2…特定領域

Claims (7)

  1. 画像と、前記画像におけるユーザの視線位置とを取得し、
    前記画像に含まれる特徴領域を特定し、
    前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
    前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
    処理をコンピュータに実行させることを特徴とする算出プログラム。
  2. 前記特定する処理は、前記画像において、前記ユーザに対して注意を誘引する特徴を含む領域を前記特徴領域として特定する処理を含む、
    ことを特徴とする請求項1に記載の算出プログラム。
  3. 前記特定する処理は、前記画像に含まれる図および式の少なくとも一方に対応する領域を前記特定領域として特定する処理を含む、
    ことを特徴とする請求項1または2に記載の算出プログラム。
  4. 前記特定する処理は、前記視線位置に基づく視線の乱れと、当該視線の滞留とがある領域を前記特定領域として特定する処理を含む、
    ことを特徴とする請求項1または2に記載の算出プログラム。
  5. 前記算出する処理は、前記往復移動における時系列の変化の周期性をもとに前記集中度を算出する処理を含む、
    ことを特徴とする請求項1乃至4のいずれか一項に記載の算出プログラム。
  6. 画像と、前記画像におけるユーザの視線位置とを取得し、
    前記画像に含まれる特徴領域を特定し、
    前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
    前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
    処理をコンピュータが実行することを特徴とする算出方法。
  7. 画像と、前記画像におけるユーザの視線位置とを取得し、
    前記画像に含まれる特徴領域を特定し、
    前記視線位置が前記特徴領域から外れていることを検知すると、前記視線位置が、前記画像内に含まれる特定の条件を満たす特定領域と前記特徴領域との間を往復移動するか否かを判定し、
    前記判定の結果に基づいて、前記ユーザの前記画像に対する集中度を算出する、
    処理を実行する制御部を含むことを特徴とする算出装置。
JP2020192697A 2020-11-19 2020-11-19 算出プログラム、算出方法および算出装置 Pending JP2022081260A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020192697A JP2022081260A (ja) 2020-11-19 2020-11-19 算出プログラム、算出方法および算出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020192697A JP2022081260A (ja) 2020-11-19 2020-11-19 算出プログラム、算出方法および算出装置

Publications (1)

Publication Number Publication Date
JP2022081260A true JP2022081260A (ja) 2022-05-31

Family

ID=81799369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020192697A Pending JP2022081260A (ja) 2020-11-19 2020-11-19 算出プログラム、算出方法および算出装置

Country Status (1)

Country Link
JP (1) JP2022081260A (ja)

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP4622702B2 (ja) 映像監視装置
US20150213609A1 (en) Image Cropping Suggestion
CN107851324B (zh) 信息处理系统、信息处理方法和记录介质
CN111144356B (zh) 一种远程教学的教师视线跟随方法及装置
Zaletelj Estimation of students' attention in the classroom from kinect features
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
WO2022239793A1 (ja) 被験者分析装置
JP7139704B2 (ja) 集中度評価プログラム、装置、及び方法
JP2022081260A (ja) 算出プログラム、算出方法および算出装置
Das et al. I Cannot See Students Focusing on My Presentation; Are They Following Me? Continuous Monitoring of Student Engagement through “Stungage”
Bertamini et al. Reasoning about visibility in mirrors: A comparison between a human observer and a camera
US12002287B2 (en) Computing device attention determination
US11909776B2 (en) Online video distribution support method, online video distribution support apparatus and online video distribution support system
US9911237B1 (en) Image processing techniques for self-captured images
Laco et al. Depth in the visual attention modelling from the egocentric perspective of view
WO2023234119A1 (ja) 情報処理装置、情報処理方法、プログラム
KR20220057892A (ko) 시선 기반 콘텐츠 교육 방법 및 이를 수행하기 위한 컴퓨팅 장치
CN113723155A (zh) 用于测量用户视觉体验度的方法和系统
Li Extracting and visualizing data from mobile and static eye trackers in R and Matlab
US11792357B1 (en) Anti-cheating methods in an extended reality environment
JP7266622B2 (ja) オンライン授業システム及びオンライン授業方法並びにプログラム
JP7034228B1 (ja) アイトラッキングシステム、アイトラッキング方法、及びアイトラッキングプログラム
Zou et al. Real-time cheating detection system based on sight detection
TWI767232B (zh) 透明顯示系統、視差校正方法與圖像輸出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521