JP2016224142A - Evaluation method, program and evaluation system - Google Patents
Evaluation method, program and evaluation system Download PDFInfo
- Publication number
- JP2016224142A JP2016224142A JP2015108188A JP2015108188A JP2016224142A JP 2016224142 A JP2016224142 A JP 2016224142A JP 2015108188 A JP2015108188 A JP 2015108188A JP 2015108188 A JP2015108188 A JP 2015108188A JP 2016224142 A JP2016224142 A JP 2016224142A
- Authority
- JP
- Japan
- Prior art keywords
- period
- window
- unit
- vector
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、表示に対するユーザの集中度を評価する技術に関する。 The present invention relates to a technique for evaluating a user's degree of concentration on display.
或る特許文献には、教師と生徒の視線の相関状態の程度によって、授業に対する生徒の集中度を推し量ることが記載されている。 One patent document describes that the degree of concentration of a student in a class is estimated based on the degree of correlation between the gazes of the teacher and the student.
このように、学習者の視線を捉えることによって、集中度を推し量ろうとする場合、正しく視線を判別できなければ、集中度の推量自体が信頼できないことになる。 In this way, when trying to estimate the degree of concentration by capturing the learner's line of sight, if the line of sight cannot be correctly identified, the concentration degree estimate itself is unreliable.
本発明の目的は、一側面では、表示オブジェクトに対するユーザの集中度をより正確に把握することである。 In one aspect, an object of the present invention is to more accurately grasp a user's degree of concentration with respect to a display object.
一態様に係る評価方法は、(A)少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、(B)第1期間の後、少なくとも第2オブジェクトを上記画面内に表示する第2期間におけるユーザの第2注視点を特定し、(C)第1オブジェクト内の基準点から第2オブジェクト内の基準点までの第1ベクトルの向きと、第1注視点から第2注視点までの第2ベクトルの向きとの近似度を算出する処理を含む。 An evaluation method according to an aspect includes: (A) identifying a first gaze point of a user in a first period for displaying at least a first object in a screen; and (B) after a first period, at least a second object The second gaze point of the user in the second period to be displayed on the screen is specified, and (C) the direction of the first vector from the reference point in the first object to the reference point in the second object, and the first gaze point And a process of calculating the degree of approximation with the direction of the second vector from the second gazing point.
一側面としては、表示オブジェクトに対するユーザの集中度をより正確に把握できる。 As one aspect, the degree of concentration of the user with respect to the display object can be grasped more accurately.
[実施の形態1]
図1に、視聴の様子を示す。本実施の形態に係るシステムでは、コンテンツ画面を表示し、併せてコンテンツ音声を出力するプレゼンテーションを行う。以下では、学習システムの例について説明する。ディスプレイ装置101は、コンテンツ画面を表示する。スピーカー102は、コンテンツ音声を出力する。ディスプレイ装置101の上部には、視線センサ装置103が設けられている。視線センサ装置103は、ディスプレイ装置101の前に着席している視聴者の目の動きを読み取り、視聴者の視線を検出する。ディスプレイ装置101、スピーカー102及び視線センサ装置103は、情報処理装置に接続されている。尚、視線センサ装置103は、顔の向きを読み取り、視聴者の視線を検出するものであってもよい。
[Embodiment 1]
FIG. 1 shows a state of viewing. In the system according to the present embodiment, a content screen is displayed, and a presentation that outputs content audio is also performed. Below, the example of a learning system is demonstrated. The
情報処理装置は、コンテンツデータに基づいて、プレゼンテーション処理を行う。更に、情報処理装置は、プレゼンテーションを行っている間に、視線センサ装置103によって検出された視線の先が、ディスプレイ装置101の表示面におけるどの位置を指しているかを計測する。情報処理装置は、そして、その計測結果に基づいて、視聴者によるコンテンツへの集中度の指標となる値(以下、集中度の指標値という。)を求める。
The information processing apparatus performs presentation processing based on the content data. Furthermore, the information processing apparatus measures which position on the display surface of the
このように、情報処理装置は、視聴者がコンテンツに集中しているかを評価する処理も行い、更にプレゼンテーション処理において、評価結果のフィードバックを受けて出力の流れを制御する。 In this way, the information processing apparatus also performs a process of evaluating whether the viewer is concentrated on the content, and further controls the flow of output upon receiving feedback of the evaluation result in the presentation process.
尚、視聴者の視線の先が指す表示上の点は、視聴者の視線とディスプレイ装置101の表示面との交点に相当する。従って、以下では視聴者の視線の先が指す表示上の点を、単に交点という。
The point on the display pointed to by the viewer's line of sight corresponds to the intersection of the viewer's line of sight and the display surface of the
また、一般的に、視線センサ装置103を用いた交点の検出が正確になるように、キャリブレーションが行われる。但し、キャリブレーションが有効であるのは、視聴者の目とディスプレイ装置101との位置関係が、キャリブレーションを行ったときと変わらないことが前提となる。つまり、ディスプレイ装置101が動かなくとも、視聴者はコンテンツの視聴中に体勢を変えると、視聴者の目とディスプレイ装置101との位置関係が当初と異なるようになる。そして、実際に注視している点と、検出した交点とがずれることがある。
In general, calibration is performed so that the intersection detection using the visual
本実施の形態では、このように視聴者の目の位置が移動し、交点を正しく検出できない場合であっても、より正しくコンテンツへの集中度を評価できるようにする。 In this embodiment, even if the viewer's eyes move in this way and the intersection cannot be detected correctly, the degree of concentration on the content can be evaluated more correctly.
尚、この例における情報処理装置は、ディスプレイ装置101、スピーカー102及び視線センサ装置103と分離したパーソナルコンピュータ又はサーバ装置である。但し、情報処理装置は、ディスプレイ装置101、スピーカー102及び視線センサ装置103と一体となったノートブックパーソナルコンピュータ、タブレット端末又はスマートフォンであってもよい。更に、ディスプレイ装置101は、プロジェクタのような投影型の表示装置であってもよい。
The information processing apparatus in this example is a personal computer or server apparatus separated from the
次に、この例において学習システムによって提示されるコンテンツの例について説明する。図2に、画面遷移の例を示す。この例におけるコンテンツは、学習教材であって、テーマS及びテーマTについて説明するものである。テーマSは、項目A及び項目Bを含む。また、テーマTは、項目C及び項目Dを含む。このコンテンツは、最初にテーマSを説明し、次にテーマTを説明し、最後に視聴者の集中度に応じてテストを行う。 Next, an example of content presented by the learning system in this example will be described. FIG. 2 shows an example of screen transition. The content in this example is a learning material and describes the theme S and the theme T. The theme S includes item A and item B. The theme T includes items C and D. In this content, the theme S is explained first, then the theme T is explained, and finally, the test is performed according to the degree of concentration of the viewer.
この例では、テーマを2つとしているが、3つ以上のテーマを扱うようにしてもよい。更に、テーマに含まれる項目は、2つに限らず、3つ以上であってもよい。 In this example, there are two themes, but three or more themes may be handled. Furthermore, the number of items included in the theme is not limited to two, and may be three or more.
図2の1段目は、テーマSを説明するためのページを示している。テーマSを説明するためのページの左上には、項目Aに関する第1ウィンドウ201が設けられている。第1ウィンドウ201には、項目Aについての説明文が表示されているものとする。但し、説明文とともに、あるいは説明文に代えて項目Aを理解するための画像が表示されていてもよい。
The first row of FIG. 2 shows a page for explaining the theme S. A
第1ウィンドウ201を表示している状態で、項目Aについて説明する音声が出力される。音声は、話者の音声を録音したデータを再生したものでもよいし、テキストデータを読み上げる合成音声であってもよい。このコンテンツの制作者は、視聴者が第1ウィンドウ201を見ながら、項目Aについて説明する音声を聞くことによって、項目Aに対して理解が深まることを企図している。
In the state where the
項目Aについて説明する音声の出力を終えると、図2の2段目に示すように、テーマSを説明するためのページの右下に項目Bに関する第2ウィンドウ203が新たに設けられる。第2ウィンドウ203には、項目Bについての説明文が表示されているものとする。
When the output of the sound describing the item A is finished, a
第2ウィンドウ203を表示している状態で、項目Bについて説明する音声が出力される。このコンテンツの制作者は、視聴者が第2ウィンドウ203を見ながら、項目Bについて説明する音声を聞くことによって、項目Bに対して理解が深まることを企図している。
In the state where the
このように、項目Aの説明から項目Bの説明に切り替わるタイミングで、視聴者の注視点は、第1ウィンドウ201内から第2ウィンドウ203内へと移ると想定される。
In this way, it is assumed that the viewer's gaze point shifts from the
そして、項目Bについて説明する音声の出力を終えると、図2の3段目に示すように、テーマSを説明するためのページから、テーマTを説明するためのページへ切り替わる。テーマTを説明するためのページの右上には、項目Cに関する第3ウィンドウ205が設けられている。第3ウィンドウ205には、項目Cについての説明文が表示されているものとする。
Then, when the output of the sound for explaining the item B is finished, the page for explaining the theme S is switched to the page for explaining the theme T as shown in the third row of FIG. In the upper right of the page for explaining the theme T, a
第3ウィンドウ205を表示している状態で、項目Cについて説明する音声が出力される。このコンテンツの制作者は、視聴者が第3ウィンドウ205を見ながら、項目Cについて説明する音声を聞くことによって、項目Cに対して理解が深まることを企図している。
In the state where the
項目Cについて説明する音声の出力を終えると、図2の4段目に示すように、テーマTを説明するためのページの左下に項目Dに関する第4ウィンドウ207が新たに設けられる。第4ウィンドウ207には、項目Dについての説明文が表示されているものとする。
When the output of the sound for explaining the item C is finished, a
第4ウィンドウ207を表示している状態で、項目Dについて説明する音声が出力される。このコンテンツの制作者は、視聴者が第4ウィンドウ207を見ながら、項目Dについて説明する音声を聞くことによって、項目Dに対して理解が深まることを企図している。
While the
このように、項目Cの説明から項目Dの説明に切り替わるタイミングで、視聴者の注視点は、第3ウィンドウ205内から第4ウィンドウ207内へと移ると想定される。
In this way, it is assumed that the viewer's gaze point shifts from the
注視点の移動が、コンテンツの制作における企図に沿っている場合、視聴者はコンテンツに集中していて、企図通りに学習しているものと推測される。一方、注視点の移動が、コンテンツの制作における企図に沿っていない場合、視聴者はコンテンツに集中しておらず、企図通りに学習していないものと推測される。そこで、本実施の形態では、上述したように説明が切り替わるタイミングにおける視聴者の注視点の動きに基づいて、視聴者がコンテンツに集中していたか否かを判定し、その判定結果に基づいてテストを行う。 If the movement of the gazing point is in line with the content creation plan, it is assumed that the viewer is concentrated on the content and is learning as intended. On the other hand, if the movement of the gazing point is not in line with the content creation plan, it is assumed that the viewer is not focused on the content and is not learning as intended. Therefore, in the present embodiment, as described above, it is determined whether the viewer is concentrated on the content based on the movement of the viewer's gazing point at the timing when the description is switched, and the test is performed based on the determination result. I do.
図2の1段目から2段目に切り替わるタイミングにおける視聴者の注視点の動きに基づいて、情報処理装置が、視聴者はテーマSに集中していなかったと判定した場合には、5段目の左側に示すように、テーマSについてのテストが行われる。一方、情報処理装置が、視聴者はテーマSに集中していたと判定した場合には、テーマSについてのテストは行われない。 If the information processing apparatus determines that the viewer is not concentrated on the theme S based on the movement of the viewer's gazing point at the timing of switching from the first stage to the second stage in FIG. As shown on the left side of, a test on the theme S is performed. On the other hand, when the information processing apparatus determines that the viewer is concentrated on the theme S, the test on the theme S is not performed.
同様に、図2の3段目から4段目に切り替わるタイミングにおける視聴者の注視点の動きに基づいて、情報処理装置が、視聴者はテーマTに集中していなかったと判定した場合には、5段目の右側に示すように、テーマTについてのテストが行われる。一方、情報処理装置が、視聴者はテーマTに集中していたと判定した場合には、テーマTについてのテストは行われない。以上で、画面遷移についての説明を終える。 Similarly, when the information processing apparatus determines that the viewer is not concentrated on the theme T based on the movement of the viewer's gazing point at the timing of switching from the third stage to the fourth stage in FIG. As shown on the right side of the fifth row, a test on the theme T is performed. On the other hand, when the information processing apparatus determines that the viewer is concentrated on the theme T, the test on the theme T is not performed. This is the end of the description of screen transition.
本実施の形態では、例えば図2の1段目から2段目への切り替わりに関して、視線を誘導しているレイアウト上の距離及び方向を第1ベクトルで表し、実際の計測に基づく注視点の動きを第2ベクトルで表す。そして、第1ベクトルの向きと第2ベクトルの向きが近似する場合に、視聴者はコンテンツに集中しているものと推定する。 In the present embodiment, for example, regarding the switching from the first stage to the second stage in FIG. 2, the distance and direction on the layout that guides the line of sight are represented by the first vector, and the movement of the gazing point based on the actual measurement Is represented by a second vector. Then, when the direction of the first vector and the direction of the second vector are approximated, it is estimated that the viewer is concentrated on the content.
続いて、情報処理装置において、視聴者による注視点を定める方法について説明する。視線センサ装置103は、1秒間に例えば数十回の検出を行う。また、検出結果は、視聴者が意識しているよりも大きくばらつく。本実施の形態では、検出された複数の交点に基づいて、視聴者が意識的に見ていると思われる点を注視点として特定する。
Next, a method for determining the point of interest by the viewer in the information processing apparatus will be described. The line-of-
図3に、計測された複数の交点と当該交点から導かれる注視点との例を示す。この例における座標系の原点は、表示面の左上端点である。そして、右方向にX座標の正方向が設定され、下方向にY座標の正方向が設定されている。 FIG. 3 shows an example of a plurality of measured intersections and gaze points derived from the intersections. The origin of the coordinate system in this example is the upper left corner of the display surface. The positive direction of the X coordinate is set in the right direction, and the positive direction of the Y coordinate is set in the downward direction.
この例は、図2の1段目に示した状態における第1注視点305と、図2の2段目に示した状態における第2注視点307との例を示している。
This example shows an example of the
第1注視点305は、表示面の左上近辺で検出された交点301a、交点301b、交点301c及び交点301dに基づいて特定されたものとする。実際には、もっと多くの交点301が広範囲に検出されるが、ここでは説明の便宜のために、4つの交点301に着目するものとする。
It is assumed that the
交点301a、交点301b、交点301c及び交点301dには、それぞれ周辺領域303が設定される。具体的には、交点301aに対して、周辺領域303aが設定され、交点301bに対して、周辺領域303bが設定され、交点301cに対して、周辺領域303cが設定され、更に交点301dに対して、周辺領域303dが設定されている。
A peripheral area 303 is set at each of the
そして、太線で示した領域は、周辺領域303a、周辺領域303b、周辺領域303c及び周辺領域303dに含まれた頻度が最も多いところを示している。この例では、この領域が周辺領域と重なった頻度は4である。そして、この領域の重心が第1注視点305である。
A region indicated by a thick line indicates a place where the frequency included in the
一方、第2注視点307は、表示面の右下近辺で検出された交点301e、交点301f、交点301g及び交点301hに基づいて特定されたものとする。交点301eに対して、周辺領域303eが設定され、交点301fに対して、周辺領域303fが設定され、交点301gに対して、周辺領域303gが設定され、更に交点301hに対して、周辺領域303hが設定されている。
On the other hand, the
そして、太線で示した領域は、周辺領域303e、周辺領域303f、周辺領域303g及び周辺領域303hに含まれた頻度が最も多いところを示している。この例では、この領域が周辺領域と重なった頻度は4である。そして、この領域の重心が第2注視点307である。
A region indicated by a thick line indicates a place where the frequency included in the
これらの結果を受けて、第2ベクトル309が定まる。第2ベクトル309は、第1注視点305を始点とし、第2注視点307を終点とする。
In response to these results, the
次に、図4を用いて、第1ベクトル405について説明する。第1ベクトル405は、第1ウィンドウ201の基準点401を始点とし、第2ウィンドウ203の基準点403を終点とする。この例における第1ウィンドウ201の基準点401は、第1ウィンドウ201における重心である。同じく第2ウィンドウ203の基準点403は、第2ウィンドウ203における重心である。
Next, the
キャリブレーションを行ったときと同じ体勢で、視聴者がコンテンツに集中している場合には、第2ベクトル309は、ほぼ第1ベクトル405と一致する。つまり、第1注視点305は、第1ウィンドウ201の基準点401とほぼ一致し、第2注視点307は、第2ウィンドウ203の基準点403とほぼ一致する。
When the viewer is concentrated on the content in the same posture as when the calibration was performed, the
一方、視聴者がコンテンツに集中していない場合には、キャリブレーションを行ったときと同じ体勢であったとしても、第2ベクトル309は第1ベクトル405と一致しない。
On the other hand, if the viewer is not concentrated on the content, the
視聴者がコンテンツに集中していない場合における第1ベクトル405及び第2ベクトル309aの例を、図5に示す。図2の1段目に示した状態において、視聴者は第1ウィンドウ201内を主に見ていたものとする。そのため、第1注視点305aは、第1ウィンドウ201内に収まっている。しかし、図2の2段目に示した状態に移った段階で、視聴者がよそ見をしたため、第2注視点307aは、第2ウィンドウ203内に収まっていない。このようなケースでは、第1ベクトル405の向きと第2ベクトル309aの向きとは、異なる。
An example of the
次に、視聴者が前のめりの体勢、つまり視聴者の目の位置がキャリブレーションのときよりもディスプレイ装置101の表示面に近づいている状態を想定する。図6に、この状態における第1ベクトル405及び第2ベクトル309bの例を示す。この例で、視聴者は、図2の1段目に示した状態において第1ウィンドウ201内を主に見て、図2の2段目に示した状態において第2ウィンドウ203内を主に見ていたものとする。
Next, it is assumed that the viewer is in a forward posture, that is, the viewer's eyes are closer to the display surface of the
第1注視点305bは、基準点401から上方向にずれている。第2注視点307bは、基準点403から右上方向にずれている。そして、第2ベクトル309bは、第1ベクトル405よりも大きい。従って、第1注視点305bと基準点401との位置の比較、第2注視点307bと基準点403との位置の比較及び第2ベクトル309bと第1ベクトル405との比較のいずれにおいても、近似しない。
The
しかし、第2ベクトル309bの向きと第1ベクトル405の向きとは、近似している。本実施の形態は、この特性に基づく。
However, the direction of the
図7に、視聴者が後ろに引いた体勢、つまり視聴者の目の位置がキャリブレーションのときよりもディスプレイ装置101の表示面から遠のいている状態における第1ベクトル405及び第2ベクトル309cの例を示す。この例で、視聴者は、図2の1段目に示した状態において第1ウィンドウ201内を主に見て、図2の2段目に示した状態において第2ウィンドウ203内を主に見ていたものとする。
FIG. 7 shows an example of the
第1注視点305cは、基準点401から下方向にずれている。第2注視点307cは、基準点403から左方向にずれている。そして、第2ベクトル309cは、第1ベクトル405よりも小さい。従って、第1注視点305cと基準点401との位置の比較、第2注視点307cと基準点403との位置の比較及び第2ベクトル309cと第1ベクトル405との比較のいずれにおいても、近似しない。
The
しかし、第2ベクトル309cの向きと第1ベクトル405の向きとは、近似している。本実施の形態は、この特性に基づく。
However, the direction of the
以下では、情報処理装置801の動作について説明する。図8に、情報処理装置801のモジュール構成例を示す。情報処理装置801は、プレゼンテーション部803及び評価部805を有する。
Below, operation | movement of the
プレゼンテーション部803は、プレゼンテーションを行う。具体的には、プレゼンテーション部803は、コンテンツデータに基づいて、ページ及びウィンドウを表示する。更に、プレゼンテーション部803は、コンテンツデータに基づいて、説明の音声を出力する。
The
プレゼンテーション部803は、表示処理部811、音声出力部813、第1通知部815、第1判定部817、受取部819、第1受付部821及びコンテンツ記憶部823を有する。表示処理部811は、ページ及びウィンドウを表示する処理を行う。音声出力部813は、音声を出力する処理を行う。第1通知部815は、評価部805に対する通知を行う。第1判定部817は、各種の判定を行う。受取部819は、評価部805から視聴者の集中に関する判定結果を受け取る。第1受付部821は、視聴者の指示を受け付ける。コンテンツ記憶部823は、コンテンツのデータを記憶している。コンテンツのデータには、例えば各ページの画像データ、各ウィンドウに表示される説明文又は画像のデータ、各ウィンドウのサイズ及び位置などが含まれる。この例で、位置は、ウィンドウの左上端点の座標を表す。また、コンテンツのデータには、説明の音声を生成するためのデータも含まれる。
The
評価部805は、コンテンツに対する視聴者の集中度を評価する。評価部805は、制御部831、第2受付部833、特定部835、算出部837、第2判定部839、第2通知部841、出力部843、レイアウト記憶部845及び頻度記憶部847を有する。
The
制御部831は、視線センサ装置103を制御して、交点座標を検出する。第2受付部833は、プレゼンテーション部803からの通知を受け付ける。特定部835は、後述する第1特定処理乃至第4特定処理を実行する。算出部837は、各種の算出を行う。第2判定部839は、各種の判定を行う。第2通知部841は、視聴者のコンテンツへの集中に関する判定結果をプレゼンテーション部803へ通知する。出力部843は、集中度の指標値を出力する。レイアウト記憶部845は、各ウィンドウのサイズ及び位置を記憶する。頻度記憶部847は、後述する第1特定処理乃至第4特定処理において、各画素が周辺領域303と重なった頻度をカウントするために用いられる。
The
上述したプレゼンテーション部803、評価部805、表示処理部811、音声出力部813、第1通知部815、第1判定部817、受取部819、第1受付部821、制御部831、第2受付部833、特定部835、算出部837、第2判定部839、第2通知部841及び出力部843、は、ハードウエア資源(例えば、図22)と、以下で述べる処理をプロセッサに実行させるプログラムとを用いて実現される。
The
上述したコンテンツ記憶部823、レイアウト記憶部845及び頻度記憶部847は、ハードウエア資源(例えば、図22)を用いて実現される。
The
処理の説明に移る。図9A乃至図9Eに、プレゼンテーション処理フローの例を示す。表示処理部811は、ディスプレイ装置101の画面に、テーマSのページを表示する(S901)。この例におけるページは、テーマ名及び背景の画像からなる。
Let's move on to the processing. 9A to 9E show examples of the presentation process flow. The
表示処理部811は、テーマSのページにおける所定の表示位置に、第1ウィンドウ201を表示する(S903)。このとき、第1ウィンドウ201の輝度を高めるようにしてもよい。或いは、第1ウィンドウ201を指で指すアバターのアニメーションを表示するようにしてもよい。
The
音声出力部813は、項目Aについて説明する音声の出力を開始する(S905)。このとき、冒頭で第1ウィンドウ201に注目するように指示する音声メッセージを出力するようにしてもよい。そして、第1通知部815は、第1期間の開始を評価部805に通知する(S907)。この通知には、第1ウィンドウ201のサイズ及び位置が含まれている。
The
ここで、図10を用いて、注視点を求めるサンプリング期間について説明する。右方向に時間の経過を示している。尚、以下では、第1ウィンドウ201に対する第1注視点305を求めるためのサンプリング期間を第1期間という。第2ウィンドウ203に対する第2注視点307を求めるためのサンプリング期間を第2期間という。第3ウィンドウ205に対する第3注視点を求めるためのサンプリング期間を第3期間という。第4ウィンドウ207に対する第4注視点を求めるためのサンプリング期間を第4期間という。
Here, a sampling period for obtaining a gazing point will be described with reference to FIG. The passage of time is shown in the right direction. Hereinafter, a sampling period for obtaining the
第1期間は、矢印1001に示すように、項目Aを説明する期間の全体に相当する。但し、矢印1005に示すように、第1期間は、項目Aの説明から項目Bの説明に切り替わるタイミングから所定時間T1だけ遡った時点から開始するようにしてもよい。
The first period corresponds to the entire period for explaining item A, as indicated by an
第2期間は、矢印1003に示すように、項目Bを説明する期間の全体に相当する。但し、矢印1007及び矢印1011に示すように、第2期間は、項目Aの説明から項目Bの説明に切り替わるタイミングから所定時間T2だけ経過した時点で終了するようにしてもよい。また、矢印1009及び矢印1011に示すように、項目Aの説明から項目Bの説明に切り替わるタイミングから所定の過渡期間T3を過ぎた時点から第2期間が開始するようにしてもよい。
The second period corresponds to the entire period for explaining item B as indicated by an
第3期間は、矢印1021に示すように、項目Cを説明する期間の全体に相当する。但し、矢印1025に示すように、第3期間は、項目Cの説明から項目Dの説明に切り替わるタイミングから所定時間T1だけ遡った時点から開始するようにしてもよい。
The third period corresponds to the entire period for explaining item C, as indicated by
第4期間は、矢印1023に示すように、項目Dを説明する期間の全体に相当する。但し、矢印1027及び矢印1031に示すように、第4期間は、項目Cの説明から項目Dの説明に切り替わるタイミングから所定時間T2だけ経過した時点で終了するようにしてもよい。また、矢印1029及び矢印1031に示すように、項目Cの説明から項目Dの説明に切り替わるタイミングから所定の過渡期間T3を過ぎた時点から第4期間が開始するようにしてもよい。
The fourth period corresponds to the entire period for explaining the item D as indicated by an
図9Aの説明に戻る。図10の矢印1001に示した第1期間を用いる場合には、項目Aの説明を始めた時点で、第1通知部815は、第1期間の開始を評価部805に通知する。一方、図10の矢印1005に示した第1期間を用いる場合には、項目Aの説明から項目Bの説明に切り替わるタイミングまでの期間が所定時間T1になった時点で、第1通知部815は、第1期間の開始を評価部805に通知するようにしてもよい。
Returning to the description of FIG. 9A. When the first period indicated by the
第1判定部817は、項目Bの説明に移るタイミングに至ったか否かを判定する(S909)。項目Aについて説明する音声の出力が終了した時点で、第1判定部817は、項目Bの説明に移るタイミングに至ったと判定する。
The
項目Bの説明に移るタイミングに至っていないと判定した場合には、第1判定部817は、項目Bの説明に移るタイミングに至るまで、そのまま待機する。
When it is determined that the timing for moving to the description of item B has not been reached, the
項目Bの説明に移るタイミングに至ったと判定した場合には、第1通知部815は、第1期間の終了を評価部805に通知する(S911)。そして、端子Aを介して、図9Bに示したS913の処理に移る。
When it is determined that the timing for moving to the description of item B has been reached, the
図9Bの説明に移る。表示処理部811は、テーマSのページにおける所定の表示位置に、第2ウィンドウ203を表示する(S913)。このとき、第2ウィンドウ203の輝度を高めるようにしてもよい。或いは、第2ウィンドウ203を指で指すアバターのアニメーションを表示するようにしてもよい。
Turning to the description of FIG. 9B. The
音声出力部813は、項目Bについて説明する音声の出力を開始する(S915)。このとき、冒頭で第2ウィンドウ203に注目するように指示する音声メッセージを出力するようにしてもよい。そして、第1通知部815は、第2期間の開始を評価部805に通知する(S917)。つまり、項目Bの説明を始めた時点で、第1通知部815は、第2期間の開始を評価部805に通知する。この通知には、第2ウィンドウ203のサイズ及び位置が含まれている。
The
そして、第1判定部817は、テーマSの説明を終えるタイミングに至ったか否かを判定する(S919)。項目Bについて説明する音声の出力が終了した時点で、第1判定部817は、テーマSの説明を終えるタイミングに至ったと判定する。
And the
テーマSの説明を終えるタイミングに至っていないと判定した場合には、第1判定部817は、テーマSの説明を終えるタイミングに至るまで、そのまま待機する。
If it is determined that the timing for finishing the description of the theme S has not been reached, the
テーマSの説明を終えるタイミングに至ったと判定した場合には、第1通知部815は、第2期間の終了を評価部805に通知する(S921)。
If it is determined that it is time to finish the description of the theme S, the
受取部819は、評価部805から、テーマSに対する視聴者の集中に関する判定結果を受け取る(S922)。尚、テーマSに対する視聴者の集中に関する判定結果を、後述する図9EのS945において、まとめて受け取るようにしてもよい。そして、端子Bを介して、図9Cに示したS923の処理に移る。
The receiving
図9Cの説明に移る。この時点で、説明の内容がテーマSからテーマTへ切り替わる。表示処理部811は、ディスプレイ装置101の画面に、テーマTのページを表示する(S923)。
Turning to the description of FIG. 9C. At this point, the contents of the explanation are switched from theme S to theme T. The
表示処理部811は、テーマTのページにおける所定の表示位置に、第3ウィンドウ205を表示する(S925)。このとき、第3ウィンドウ205の輝度を高めるようにしてもよい。或いは、第3ウィンドウ205を指で指すアバターのアニメーションを表示するようにしてもよい。
The
音声出力部813は、項目Cについて説明する音声の出力を開始する(S927)。このとき、冒頭で第3ウィンドウ205に注目するように指示する音声メッセージを出力するようにしてもよい。そして、第1通知部815は、第3期間の開始を評価部805に通知する(S929)。この通知には、第3ウィンドウ205のサイズ及び位置が含まれている。
The
図10の矢印1021に示した第3期間を用いる場合には、項目Cの説明を始めた時点で、第1通知部815は、第3期間の開始を評価部805に通知する。一方、図10の矢印1025に示した第3期間を用いる場合には、項目Cの説明から項目Dの説明に切り替わるタイミングまでの期間が、所定時間T1になった時点で、第1通知部815は、第3期間の開始を評価部805に通知するようにしてもよい。
When the third period indicated by the
第1判定部817は、項目Dの説明に移るタイミングに至ったか否かを判定する(S931)。項目Cについて説明する音声の出力が終了した時点で、第1判定部817は、項目Dの説明に移るタイミングに至ったと判定する。
The
項目Dの説明に移るタイミングに至っていないと判定した場合には、第1判定部817は、項目Dの説明に移るタイミングに至るまで、そのまま待機する。
If it is determined that the timing for shifting to the description of item D has not been reached, the
項目Dの説明に移るタイミングに至ったと判定した場合には、第1通知部815は、第3期間の終了を評価部805に通知する(S933)。そして、端子Cを介して、図9Dに示したS935の処理に移る。
When it is determined that the timing for moving to the description of the item D has been reached, the
図9Dの説明に移る。表示処理部811は、テーマTのページにおける所定の表示位置に、第4ウィンドウ207を表示する(S935)。このとき、第4ウィンドウ207の輝度を高めるようにしてもよい。或いは、第4ウィンドウ207を指で指すアバターのアニメーションを表示するようにしてもよい。
Turning to the description of FIG. 9D. The
音声出力部813は、項目Dについて説明する音声の出力を開始する(S937)。このとき、冒頭で第4ウィンドウ207に注目するように指示する音声メッセージを出力するようにしてもよい。そして、第1通知部815は、第4期間の開始を評価部805に通知する(S939)。つまり、項目Dの説明を始めた時点で、第1通知部815は、第4期間の開始を評価部805に通知する。この通知には、第4ウィンドウ207のサイズ及び位置が含まれている。
The
第1判定部817は、テーマTの説明を終えるタイミングに至ったか否かを判定する(S941)。項目Dについて説明する音声の出力が終了した時点で、第1判定部817は、テーマTの説明を終えるタイミングに至ったと判定する。
The
テーマTの説明を終えるタイミングに至っていないと判定した場合には、第1判定部817は、テーマTの説明を終えるタイミングに至るまで、そのまま待機する。
When it is determined that the timing for finishing the explanation of the theme T has not been reached, the
テーマTの説明を終えるタイミングに至ったと判定した場合には、第1通知部815は、第4期間の終了を評価部805に通知する(S943)。そして、端子Dを介して、図9Eに示したS945の処理に移る。
If it is determined that it is time to finish the description of the theme T, the
図9Eの説明に移る。受取部819は、評価部805から、テーマTに対する視聴者の集中に関する判定結果を受け取る(S945)。上述したように、受取部819は、このタイミングで、テーマSに対する視聴者の集中に関する判定結果を併せて受け取るようにしてもよい。
Turning to the description of FIG. 9E. The receiving
第1判定部817は、判定結果によって、視聴者がテーマSに集中していたか否かを判定する(S947)。視聴者がテーマSに集中していなかったと判定した場合には、表示処理部811は、テーマSのテストページを表示し(S949)、第1受付部821は、テーマSのテストにおける回答を受け付ける(S951)。
The
テーマSのテストにおける回答を受け付けると、表示処理部811は、テーマSのテストに関する解説ページを表示する(S953)。当該解説ページを閉じるタイミングで、S955の処理に移る。例えば、視聴者がページを閉じさせる指示を行った時点で、当該解説ページを閉じるものとする。
Upon receiving an answer in the theme S test, the
一方、S947の処理において、視聴者がテーマSに集中していたと判定した場合には、テーマSに関するテストは行われない。従って、そのままS955の処理に移る。 On the other hand, in the process of S947, when it is determined that the viewer is concentrated on the theme S, the test on the theme S is not performed. Accordingly, the process proceeds to S955 as it is.
第1判定部817は、判定結果によって、視聴者がテーマTに集中していたか否かを判定する(S955)。視聴者がテーマTに集中していなかったと判定した場合には、表示処理部811は、テーマTのテストページを表示し(S957)、第1受付部821は、テーマTのテストにおける回答を受け付ける(S959)。
The
テーマTのテストにおける回答を受け付けると、表示処理部811は、テーマTのテストに関する解説ページを表示する(S961)。当該解説ページを閉じるタイミングで、プレゼンテーション処理を終える。例えば、視聴者がページを閉じさせる指示を行った時点で、当該解説ページを閉じるものとする。
Upon receiving an answer in the theme T test, the
一方、S955の処理において、視聴者がテーマTに集中していたと判定した場合には、テーマTに関するテストは行われない。従って、そのままプレゼンテーション処理を終える。 On the other hand, in the process of S955, when it is determined that the viewer is concentrated on the theme T, the test on the theme T is not performed. Therefore, the presentation process is finished as it is.
続いて、評価処理について説明する。評価処理は、プレゼンテーション処理と並行して実行される。図11A及び図11Bに、評価処理フローの例を示す。制御部831は、視線センサ装置103を用いて、交点座標の計測を開始する(S1101)。交点座標は、視聴者の視線の先が指す座標、つまり視聴者の視線とディスプレイ装置101の画面との交点を指す座標である。制御部831は、計測終了が指示されるまで、随時交点座標の計測を繰り返す。
Subsequently, the evaluation process will be described. The evaluation process is executed in parallel with the presentation process. 11A and 11B show an example of the evaluation process flow. The
第2受付部833は、プレゼンテーション部803から第1期間開始の通知を受ける(S1103)。このとき受け付けた第1ウィンドウ201のサイズ及び位置は、レイアウト記憶部845に記憶される。第1期間開始の通知を受けると、特定部835は、第1特定処理を実行する(S1105)。
The
図12に、第1特定処理フローの例を示す。第1特定処理を開始する時点で、頻度記憶部847に記憶されている頻度のデータは初期化されているものとする。つまり、各画素に対する頻度は0である。
FIG. 12 shows an example of the first specific processing flow. It is assumed that the frequency data stored in the
特定部835は、制御部831から、現時点で検出した交点座標を取得する(S1201)。更に、特定部835は、交点の周辺領域303を特定する(S1203)。周辺領域303の形状は第1ウィンドウ201と等しく、周辺領域303の重心は交点と一致する。
The identifying
特定部835は、周辺領域303に含まれる各画素に対応する頻度に1を加える(S1205)。そして、特定部835は、第2受付部833で第1期間終了の通知を受けたか否かを判定する(S1207)。
The specifying
未だ第1期間終了の通知を受けていないと判定した場合には、S1201に示した処理に戻って、上述した処理を繰り返す。 If it is determined that the notification of the end of the first period has not yet been received, the processing returns to S1201 and the above-described processing is repeated.
一方、第1期間終了の通知を受けたと判定した場合には、特定部835は、頻度データにおける最大の頻度を特定する(S1209)。
On the other hand, when determining that the notification of the end of the first period has been received, the specifying
図13を用いて、最大の頻度について説明する。図13は、図3に示した表示面の左上付近を拡大した図である。上述したように、第1注視点305における周辺領域303の重複の頻度は4である。これは、最大の頻度に相当する。範囲1301は、第1注視点305を重心に合わせた場合の第1ウィンドウ201と同じ大きさである。そして、範囲1301には、交点301a乃至交点301dが含まれている。このように、最大の頻度は、第1期間において視聴者の視線が第1ウィンドウ201の大きさに相当する範囲1301内に収まっていた頻度と一致する。
The maximum frequency will be described with reference to FIG. FIG. 13 is an enlarged view of the vicinity of the upper left of the display surface shown in FIG. As described above, the frequency of overlap of the peripheral region 303 at the
図12の説明に戻る。更に、特定部835は、頻度が最大である画素を特定し、その画素に相当する点を第1注視点とする(S1211)。尚、頻度が最大である画素が複数ある場合には、いずれかの画素を特定する。例えば、複数の画素における重心に最も近い画素を特定する。第1特定処理を終えると、図11Aに示したS1107の処理に戻る。
Returning to the description of FIG. Further, the specifying
図11Aの説明に戻る。第2受付部833は、プレゼンテーション部803から第2期間開始の通知を受ける(S1107)。このとき受け付けた第2ウィンドウ203のサイズ及び位置は、レイアウト記憶部845に記憶される。第2期間開始の通知を受けると、特定部835は、第2特定処理を実行する(S1109)。図10に示した矢印1009又は矢印1011の期間を第2期間として用いる場合には、特定部835は、第2期間開始の通知を受けてから過渡期間T3が経過した時点で、第2特定処理を実行するようにしてもよい。
Returning to the description of FIG. The
第2特定処理は、第1特定処理とほぼ同様である。第2特定処理における周辺領域303の形状は第2ウィンドウ203と等しい。図12に示したS1207において、第1期間終了の通知に代えて、第2期間終了の通知を受けたか否かを判定する。また、図10に示した矢印1007又は矢印1011の期間を第2期間とする場合には、同じくS1207において、第1期間終了の通知を受け付けてから所定時間T2が経過したか否かを判定する。そして、同じくS1211において、頻度が最大である画素を、第2注視点とする。
The second specifying process is substantially the same as the first specifying process. The shape of the peripheral area 303 in the second specifying process is equal to that of the
算出部837は、第1ベクトル405を算出する(S1111)。第1ベクトル405は、第1ウィンドウ201における基準点401を始点とし、第2ウィンドウ203における基準点403を終点とするベクトルである。従って、第2ウィンドウ203における基準点403の座標から、第1ウィンドウ201における基準点401の座標を引くことによって、第1ベクトル405が算出される。
The
尚、第1ウィンドウ201における基準点401の座標は、第1ウィンドウ201の位置を示すX座標に第1ウィンドウ201の幅の半分を加え、第1ウィンドウ201の位置を示すY座標に第1ウィンドウ201の高さの半分を加えることによって求められる。同様に、第2ウィンドウ203における基準点403の座標は、第2ウィンドウ203の位置を示すX座標に第2ウィンドウ203の幅の半分を加え、第2ウィンドウ203の位置を示すY座標に第2ウィンドウ203の高さの半分を加えることによって求められる。
Note that the coordinates of the
算出部837は、第2ベクトル309を算出する(S1113)。第2ベクトル309は、第1注視点305を始点とし、第2注視点307を終点とするベクトルである。従って、第2特定処理で特定された第2注視点307の座標から、第1特定処理で特定された第1注視点305の座標を引くことによって、第2ベクトル309が算出される。
The calculating
算出部837は、第1ベクトル405の向きと第2ベクトル309の向きとの近似度を算出する(S1115)。この例で、第1ベクトル405の向きと第2ベクトル309の向きとの近似度は、第1ベクトル405と第2ベクトル309とのなす角θの余弦の値cosθである。例えば、第1ベクトル405と第2ベクトル309との内積を求め、内積の値を第1ベクトル405の大きさと第2ベクトル309の大きさとで除することによって、余弦の値cosθを求めるようにしてもよい。
The calculating
算出部837は、第1期間から第2期間にかけての集中度の指標値を算出する(S1117)。算出部837は、第2特定処理で求めた最大の頻度、つまり第2期間において視聴者の視線が第2ウィンドウ203の大きさに相当する範囲1301内に収まっていた頻度を第2期間の長さで除して、第2ウィンドウ203を注視する頻度(時間当たり)を求める。そして、集中度の指標値は、第1ベクトル405の向きと第2ベクトル309の向きとの近似度+係数×第2ウィンドウ203を注視する頻度(時間当たり)で求められる。この式で係数を0とした場合に、集中度の指標値は、第1ベクトル405の向きと第2ベクトル309の向きとの近似度と等しい。この式によれば、集中度の指標値は、視聴者の視線が第1ウィンドウ201から第2ウィンドウ203へ追ったことと共に、第2ウィンドウ203の範囲内を注視していた時間が長いことを反映している。
The calculating
第2判定部839は、視聴者が第1期間から第2期間にかけてコンテンツに集中していたか否かを判定する(S1119)。第2判定部839は、集中度の指標値が閾値以上である場合に、視聴者が第1期間から第2期間にかけてコンテンツに集中していたと判定する。反対に、第2判定部839は、集中度の指標値が閾値を超えていない場合に、視聴者が第1期間から第2期間にかけてコンテンツに集中していなかったと判定する。
The
第2通知部841は、第1期間から第2期間にかけてのコンテンツへの集中に関する判定結果をプレゼンテーション部803へ渡す(S1121)。尚、後述する図11BのS1139のタイミングで、第3期間から第4期間にかけてのコンテンツへの集中に関する判定結果と併せて、第1期間から第2期間にかけてのコンテンツへの集中に関する判定結果をプレゼンテーション部803へ渡すようにしてもよい。つまり、コンテンツへの集中に関する判定を行う都度、プレゼンテーション部803へ判定結果を別個に渡してもよいし、各判定結果をまとめてプレゼンテーション部803へ渡すようにしてもよい。そして、端子Eを介して、図11Bに示したS1123の処理に移る。
The
図11Bの説明に移る。第2受付部833は、プレゼンテーション部803から第3期間開始の通知を受ける(S1123)。このとき受け付けた第3ウィンドウ205のサイズ及び位置は、レイアウト記憶部845に記憶される。第3期間開始の通知を受けると、特定部835は、第3特定処理を実行する(S1125)。
Turning to the description of FIG. 11B. The
第3特定処理は、第1特定処理とほぼ同様である。第3特定処理における周辺領域303の形状は第3ウィンドウ205と等しい。図12に示したS1207において、第1期間終了の通知に代えて、第3期間終了の通知を受けたか否かを判定する。同じくS1211において、頻度が最大である画素を、第3注視点とする。
The third specifying process is substantially the same as the first specifying process. The shape of the peripheral area 303 in the third specifying process is equal to that of the
第2受付部833は、プレゼンテーション部803から第4期間開始の通知を受ける(S1127)。このとき受け付けた第4ウィンドウ207のサイズ及び位置は、レイアウト記憶部845に記憶される。特定部835は、第4特定処理を実行する(S1129)。図10に示した矢印1029又は矢印1031の期間を第4期間として用いる場合には、特定部835は、第4期間開始の通知を受けてから過渡期間T3が経過した時点で、第4特定処理を実行するようにしてもよい。
The
第4特定処理は、第1特定処理とほぼ同様である。第4特定処理における周辺領域303の形状は第4ウィンドウ207と等しい。図12に示したS1207において、第1期間終了の通知に代えて、第4期間終了の通知を受けたか否かを判定する。また、図10に示した矢印1027又は矢印1031の期間を第4期間とする場合には、同じくS1207において、第3期間終了の通知を受け付けてから所定時間T2が経過したか否かを判定する。そして、同じくS1211において、頻度が最大である画素を、第4注視点とする。
The fourth specifying process is substantially the same as the first specifying process. The shape of the peripheral area 303 in the fourth specifying process is the same as that of the
算出部837は、第3ベクトルを算出する(S1131)。第3ベクトルは、第3ウィンドウ205における基準点を始点とし、第4ウィンドウ207における基準点を終点とするベクトルである。従って、第4ウィンドウ207における基準点の座標から、第3ウィンドウ205における基準点の座標を引くことによって、第3ベクトルが算出される。
The calculating
尚、第3ウィンドウ205における基準点401の座標は、第3ウィンドウ205の位置を示すX座標に第3ウィンドウ205の幅の半分を加え、第3ウィンドウ205の位置を示すY座標に第3ウィンドウ205の高さの半分を加えることによって求められる。同様に、第4ウィンドウ207における基準点403の座標は、第4ウィンドウ207の位置を示すX座標に第4ウィンドウ207の幅の半分を加え、第4ウィンドウ207の位置を示すY座標に第4ウィンドウ207の高さの半分を加えることによって求められる。
Note that the coordinates of the
算出部837は、第4ベクトルを算出する(S1133)。第4ベクトルは、第3注視点を始点とし、第4注視点を終点とするベクトルである。従って、第4特定処理で特定された第4注視点の座標から、第3特定処理で特定された第3注視点の座標を引くことによって、第4ベクトルが算出される。
The calculating
算出部837は、第3ベクトルの向きと第4ベクトルの向きとの近似度を算出する(S1135)。この例で、第3ベクトルの向きと第4ベクトルの向きとの近似度は、第3ベクトルと第4ベクトルとのなす角γの余弦の値cosγである。例えば、第3ベクトルと第4ベクトルとの内積を求め、内積の値を第3ベクトルの大きさと第4ベクトルの大きさとで除することによって、余弦の値cosγを求めるようにしてもよい。
The calculating
算出部837は、第3期間から第4期間にかけての集中度の指標値を算出する(S1137)。算出部837は、第4特定処理で求めた最大の頻度、つまり第4期間において視聴者の視線が第4ウィンドウ207の大きさに相当する範囲内に収まっていた頻度を第4期間の長さで除して、第4ウィンドウ207を注視する頻度(時間当たり)を求める。そして、以下の式に従って、集中度の指標値を算出する。第3ベクトルの向きと第4ベクトルの向きとの近似度+係数×第4ウィンドウ207を注視する頻度(時間当たり)で求められる。この式で係数を0とした場合に、集中度の指標値は、第3ベクトルの向きと第4ベクトルの向きとの近似度と等しい。この式によれば、集中度の指標値は、視聴者の視線が第3ウィンドウ205から第4ウィンドウ207へ追ったことと共に、第4ウィンドウ207の範囲内を注視していた時間が長いことを反映している。
The
第2判定部839は、視聴者が第3期間から第4期間にかけてコンテンツに集中していたか否かを判定する(S1138)。第2判定部839は、集中度の指標値が閾値以上である場合に、視聴者が第3期間から第4期間にかけてコンテンツに集中していたと判定する。反対に、第2判定部839は、集中度の指標値が閾値を超えていない場合に、視聴者が第3期間から第4期間にかけてコンテンツに集中していなかったと判定する。
The
第2通知部841は、第3期間から第4期間にかけてのコンテンツへの集中に関する判定結果をプレゼンテーション部803へ渡す(S1139)。上述したように、このとき第1期間から第2期間にかけてのコンテンツへの集中に関する判定結果も併せて、プレゼンテーション部803へ渡すようにしてもよい。
The
制御部831は、視線センサ装置103を用いた交点座標の計測を停止する(S1141)。そして、出力部843は、集中度の指標値を出力する(S1143)。例えば、評価対象となった各期間(この例では、第1期間乃至第2期間(テーマSの説明期間)と第3期間乃至第4期間(テーマTの説明期間))に対応付けて、当該期間における集中度の指標値を出力する。出力部843は、例えば教師の端末に集中度の指標値を送信するようにしてもよい。或いは、出力部843は、例えば視聴者の端末に集中度の指標値を送信するようにしてもよい。更に、出力部843は、集中度の指標値に判定結果(集中していたか否か)を付するようにしてもよい。また、出力部843は、集中度の指標値に、集中度の指標値に関する統計値(例えば、平均値及び分散)を付するようにしてもよい。
The
本実施の形態によれば、画面に表示されているウィンドウに対する視聴者の集中度をより正確に把握することができる。 According to the present embodiment, it is possible to more accurately grasp the degree of viewer concentration with respect to the window displayed on the screen.
また、視聴者の集中度を示す指標値に、視線を移した先のウィンドウに注目していた度合いを反映することができる。 In addition, it is possible to reflect the degree of attention focused on the previous window whose line of sight has been shifted to the index value indicating the degree of concentration of the viewer.
また、コンテンツへの集中度に応じて、当該コンテンツによる表示内容を変えられる。 In addition, the display content of the content can be changed according to the degree of concentration on the content.
また、音声に対する視聴者の集中度をより正確に把握することができる。 Further, it is possible to more accurately grasp the degree of concentration of the viewer with respect to the voice.
[実施の形態2]
本実施の形態では、別のウィンドウ表示態様について説明する。
[Embodiment 2]
In this embodiment, another window display mode will be described.
図14に、実施の形態2に係る画面遷移の例を示す。図14の1段目は、図2の1段目と同様である。実施の形態2では、図14の2段目に示したように、第2ウィンドウ203を表示する時点で、第1ウィンドウ201が消える。図14の3段目は、図2の3段目と同様である。実施の形態2では、図14の4段目に示したように、第4ウィンドウ207を表示する時点で、第3ウィンドウ205が消える。
FIG. 14 shows an example of screen transition according to the second embodiment. The first level in FIG. 14 is the same as the first level in FIG. In the second embodiment, as shown in the second row of FIG. 14, the
図15A及び図15Bを用いて、実施の形態2に係るプレゼンテーション処理について説明する。まず、実施の形態1の場合と同様に、図9AのS901乃至S911に示した処理を行う。そして、端子Aを介して、図15Aに示したS1501の処理に移る。
The presentation process according to
表示処理部811は、テーマSのページから第1ウィンドウ201を消去する(S1501)。図15Aに示したS913乃至S922の処理は、図9Bの場合と同様である。そして、端子Bを介して、図9Cに示したS923の処理に移る。
The
実施の形態1の場合と同様に、図9CのS923乃至S933に示した処理を行う。そして、端子Cを介して、図15Bに示したS1503の処理に移る。
As in the case of
表示処理部811は、テーマTのページから第3ウィンドウ205を消去する(S1503)。図15Bに示したS935乃至S943の処理は、図9Dの場合と同様である。そして、端子Dを介して、図9Eに示したS945の処理に移る。
The
実施の形態1の場合と同様に、図9EのS945乃至S961に示した処理を行う。 As in the case of the first embodiment, the processing shown in S945 to S961 in FIG. 9E is performed.
本実施の形態によれば、ウィンドウの切り替わりがより明確になる。 According to the present embodiment, the switching of windows becomes clearer.
[実施の形態3]
本実施の形態では、更に別のウィンドウ表示態様について説明する。
[Embodiment 3]
In the present embodiment, another window display mode will be described.
図16に、実施の形態3に係る画面遷移の例を示す。実施の形態3では、図16の1段目に示したように、第1ウィンドウ201を表示する時点で、第2ウィンドウ203も表示する。図16の2段目に示したように、項目Bの説明に移るタイミングで、表示レイアウトは変化しない。実施の形態3では、図16の3段目に示したように、第3ウィンドウ205を表示する時点で、第4ウィンドウ207も表示する。そして、図16の4段目に示したように、項目Dの説明に移るタイミングで表示レイアウトは変化しない。
FIG. 16 shows an example of screen transition according to the third embodiment. In the third embodiment, as shown in the first row of FIG. 16, when the
図17A乃至図17Dを用いて、実施の形態3に係るプレゼンテーション処理について説明する。図17AのS901及びS903に示した処理は、図9Aの場合と同様である。表示処理部811は、テーマSのページにおける所定の表示位置に、第2ウィンドウ203を表示する(S1701)。
A presentation process according to the third embodiment will be described with reference to FIGS. 17A to 17D. The processes shown in S901 and S903 in FIG. 17A are the same as those in FIG. 9A. The
図17AのS905及びS911に示した処理は、図9Aの場合と同様である。そして、端子Fを介して、図17Bに示したS915の処理に移る。 The processing shown in S905 and S911 in FIG. 17A is the same as that in FIG. 9A. Then, the process proceeds to the process of S915 illustrated in FIG.
図17Bの説明に移る。図17Bに示したS915乃至S922の処理は、図9Bの場合と同様である。そして、端子Gを介して、図17Cに示したS923の処理に移る。 Turning to FIG. 17B. The processing from S915 to S922 shown in FIG. 17B is the same as that in FIG. 9B. Then, the process proceeds to the process of S923 illustrated in FIG.
図17Cの説明に移る。図17CのS923及びS925に示した処理は、図9Cの場合と同様である。表示処理部811は、テーマTのページにおける所定の表示位置に、第4ウィンドウ207を表示する(S1703)。
Turning to the description of FIG. 17C. The processing shown in S923 and S925 in FIG. 17C is the same as that in FIG. 9C. The
図17CのS927及びS933に示した処理は、図9Cの場合と同様である。そして、端子Hを介して、図17Dに示したS937の処理に移る。 The processing shown in S927 and S933 in FIG. 17C is the same as that in FIG. 9C. Then, the process proceeds to the process of S937 illustrated in FIG.
図17Dの説明に移る。図17Dに示したS937乃至S943の処理は、図9Dの場合と同様である。そして、端子Dを介して、図9Eに示したS945の処理に移る。 Turning to the description of FIG. 17D. The processing from S937 to S943 shown in FIG. 17D is the same as that in FIG. 9D. Then, the process proceeds to S945 illustrated in FIG.
実施の形態1の場合と同様に、図9EのS945乃至S961に示した処理を行う。 As in the case of the first embodiment, the processing shown in S945 to S961 in FIG. 9E is performed.
本実施の形態によれば、ウィンドウの表示処理がより簡便になる。 According to the present embodiment, the window display process becomes simpler.
[実施の形態4]
本実施の形態では、別のフィードバック態様について説明する。
[Embodiment 4]
In this embodiment, another feedback mode will be described.
図18及び図19を用いて、実施の形態4に係るプレゼンテーション処理について説明する。まず、実施の形態1の場合と同様に、図9A及び図9Bに示したS901乃至S922の処理を実行する。そして、図9Bに示した端子Bから、図18に示した端子B1を介してS1801に示した処理に移る。 The presentation process according to the fourth embodiment will be described with reference to FIGS. First, similarly to the case of the first embodiment, the processing of S901 to S922 shown in FIGS. 9A and 9B is executed. Then, the process proceeds from the terminal B shown in FIG. 9B to the process shown in S1801 via the terminal B1 shown in FIG.
受取部819は、テーマSに対する視聴者の集中に関する判定結果を受け取る(S1801)。第1判定部817は、判定結果によって、視聴者がテーマSに集中していたか否かを判定する(S1803)。
The receiving
視聴者がテーマSに集中していなかったと判定した場合には、表示処理部811は、注意ウィンドウを表示する(S1805)。注意ウィンドウでは、視聴者に対してコンテンツに集中するように促す注意コメントが表示される。第1判定部817は、注意ウィンドウを閉じたか否かを判定する(S1807)。表示処理部811は、所定時間を経過すると、注意ウィンドウを自動的に閉じるようにしてもよい。注意ウィンドウを未だ閉じていないと判定した場合には、第1判定部817は、注意ウィンドウを閉じるタイミングに至るまで、そのまま待機する。
If it is determined that the viewer is not concentrated on the theme S, the
S1807において、注意ウィンドウを閉じたと判定した場合には、端子B2から、図9Cに示した端子Bを介して、S923の処理に移る。 If it is determined in S1807 that the caution window has been closed, the process proceeds from the terminal B2 to the process in S923 via the terminal B illustrated in FIG. 9C.
S1803の説明に戻って、視聴者がテーマSに集中していたと判定した場合にも、端子B2から、図9Cに示した端子Bを介して、S923の処理に移る。 Returning to the description of S1803, when it is determined that the viewer is concentrated on the theme S, the process proceeds from the terminal B2 to the process of S923 via the terminal B shown in FIG. 9C.
実施の形態1の場合と同様に、図9C及び図9Dに示したS923乃至S943の処理を実行する。そして、図9Dに示した端子Dから、図19に示した端子Dを介してS1901に示した処理に移る。 As in the case of the first embodiment, the processing of S923 to S943 shown in FIGS. 9C and 9D is executed. Then, the process proceeds from the terminal D shown in FIG. 9D to the process shown in S1901 via the terminal D shown in FIG.
受取部819は、テーマTに対する視聴者の集中に関する判定結果を受け取る(S1901)。第1判定部817は、判定結果によって、視聴者がテーマTに集中していたか否かを判定する(S1903)。
The receiving
視聴者がテーマTに集中していなかったと判定した場合には、表示処理部811は、注意ウィンドウを表示する(S1905)。第1判定部817は、注意ウィンドウを閉じたか否かを判定する(S1907)。注意ウィンドウを未だ閉じていないと判定した場合には、第1判定部817は、注意ウィンドウを閉じるタイミングに至るまで、そのまま待機する。
If it is determined that the viewer is not concentrated on the theme T, the
S1907において、注意ウィンドウを閉じたと判定した場合には、プレゼンテーション処理を終える。 If it is determined in S1907 that the caution window has been closed, the presentation process ends.
S1903の説明に戻って、視聴者がテーマTに集中していたと判定した場合にも、プレゼンテーション処理を終える。 Returning to the description of S1903, the presentation process is also ended when it is determined that the viewer is concentrated on the theme T.
本実施の形態によれば、視聴者へコンテンツへの集中を喚起することができる。 According to the present embodiment, it is possible to urge the viewer to concentrate on the content.
[実施の形態5]
本実施の形態では、更に別のフィードバック態様について説明する。
[Embodiment 5]
In the present embodiment, another feedback aspect will be described.
図20及び図21を用いて、実施の形態5に係るプレゼンテーション処理について説明する。まず、実施の形態1の場合と同様に、図9A及び図9Bに示したS901乃至S922の処理を実行する。そして、図9Bに示した端子Bから、図20に示した端子B3を介してS2001に示した処理に移る。 The presentation process according to the fifth embodiment will be described with reference to FIGS. First, similarly to the case of the first embodiment, the processing of S901 to S922 shown in FIGS. 9A and 9B is executed. Then, the process proceeds to the process shown in S2001 from the terminal B shown in FIG. 9B via the terminal B3 shown in FIG.
受取部819は、テーマSに対する視聴者の集中に関する判定結果を受け取る(S2001)。第1判定部817は、判定結果によって、視聴者がテーマSに集中していたか否かを判定する(S2003)。
The receiving
視聴者がテーマSに集中していたと判定した場合には、表示処理部811は、テーマSの補足ウィンドウを表示する(S2005)。補足ウィンドウでは、テーマSについて補足する内容(例えば、テーマSに関する小話)が表示される。第1判定部817は、補足ウィンドウを閉じたか否かを判定する(S2007)。例えば、第1受付部821においてウィンドウクローズの指示を受け付けた場合に、補足ウィンドウを閉じるようにしてもよい。補足ウィンドウを未だ閉じていないと判定した場合には、第1判定部817は、補足ウィンドウを閉じるタイミングに至るまで、そのまま待機する。
If it is determined that the viewer is concentrated on the theme S, the
S2007において、補足ウィンドウを閉じたと判定した場合には、端子B4から、図9Cに示した端子Bを介して、S923の処理に移る。 If it is determined in S2007 that the supplementary window is closed, the process proceeds from the terminal B4 to the process of S923 via the terminal B illustrated in FIG. 9C.
S2003の説明に戻って、視聴者がテーマSに集中していなかったと判定した場合にも、端子B4から、図9Cに示した端子Bを介して、S923の処理に移る。 Returning to the description of S2003, even when it is determined that the viewer is not concentrated on the theme S, the process proceeds from the terminal B4 to the process of S923 via the terminal B shown in FIG. 9C.
実施の形態1の場合と同様に、図9C及び図9Dに示したS923乃至S943の処理を実行する。そして、図9Dに示した端子Dから、図21に示した端子Dを介してS2101に示した処理に移る。 As in the case of the first embodiment, the processing of S923 to S943 shown in FIGS. 9C and 9D is executed. Then, the process proceeds from the terminal D illustrated in FIG. 9D to the process illustrated in S2101 via the terminal D illustrated in FIG.
受取部819は、テーマTに対する視聴者の集中に関する判定結果を受け取る(S2101)。第1判定部817は、判定結果によって、視聴者がテーマTに集中していたか否かを判定する(S2103)。
The receiving
視聴者がテーマTに集中していたと判定した場合には、表示処理部811は、テーマTの補足ウィンドウを表示する(S2105)。補足ウィンドウでは、テーマTについて補足する内容(例えば、テーマTに関する小話)が表示される。第1判定部817は、補足ウィンドウを閉じたか否かを判定する(S2107)。補足ウィンドウを未だ閉じていないと判定した場合には、第1判定部817は、補足ウィンドウを閉じるタイミングに至るまで、そのまま待機する。
If it is determined that the viewer is concentrated on the theme T, the
S2107において、補足ウィンドウを閉じたと判定した場合には、プレゼンテーション処理を終える。 If it is determined in step S2107 that the supplementary window has been closed, the presentation process ends.
S2103の説明に戻って、視聴者がテーマTに集中していなかったと判定した場合にも、プレゼンテーション処理を終える。 Returning to the description of S2103, the presentation process is also ended when it is determined that the viewer has not concentrated on the theme T.
本実施の形態によれば、視聴者の興味に応えることができる。 According to this embodiment, it is possible to respond to the interest of the viewer.
上述した学習システムの構成及び処理を、広告システムに適用してもよい。広告システムでは、テーマSを商品Sの紹介に置き換えてもよい。その場合、項目Aを、商品Sのコンセプトに置き換え、項目Bを、商品Sに対する口コミ情報に置き換えてもよい。同様に、テーマTを商品Tの紹介に置き換えてもよい。その場合、項目Cを、商品Tのコンセプトに置き換え、項目Dを、商品Tに対する口コミ情報に置き換えてもよい。 The configuration and processing of the learning system described above may be applied to an advertising system. In the advertisement system, the theme S may be replaced with the introduction of the product S. In that case, the item A may be replaced with the concept of the product S, and the item B may be replaced with word-of-mouth information for the product S. Similarly, the theme T may be replaced with the introduction of the product T. In this case, the item C may be replaced with the concept of the product T, and the item D may be replaced with word-of-mouth information for the product T.
また、テーマSに関するテストを、商品Sに対する要望を求めるアンケートに置き換えてもよい。同様に、テーマTに関するテストを、商品Tに対する要望を求めるアンケートに置き換えてもよい。 Moreover, you may replace the test regarding the theme S with the questionnaire which requests | requires the request with respect to the goods S. FIG. Similarly, the test related to the theme T may be replaced with a questionnaire for requesting the product T.
また、テーマSの補足ウィンドウを、商品Sの価格を提示する価格ウィンドウに置き換えてもよい。同様に、テーマTの補足ウィンドウを、商品Tの価格を提示する価格ウィンドウに置き換えてもよい。 Further, the supplement window of the theme S may be replaced with a price window that presents the price of the product S. Similarly, the supplemental window of theme T may be replaced with a price window that presents the price of product T.
更に、上述した学習システムの構成及び処理を、飲食店のメニューシステムに適用してもよい。メニューシステムでは、テーマSを料理Sの紹介に置き換えてもよい。その場合、項目Aを、料理Sの調理過程の画像に置き換え、項目Bを、料理Sが盛り付けられた画像に置き換えてもよい。同様に、テーマTを料理Tの紹介に置き換えてもよい。その場合、項目Cを、料理Tの調理過程の画像に置き換え、項目Dを、料理Tが盛り付けられた画像に置き換えてもよい。 Furthermore, you may apply the structure and process of the learning system which were mentioned above to the menu system of a restaurant. In the menu system, the theme S may be replaced with the introduction of the dish S. In that case, the item A may be replaced with an image of the cooking process of the dish S, and the item B may be replaced with an image on which the dish S is arranged. Similarly, the theme T may be replaced with the introduction of the dish T. In that case, the item C may be replaced with an image of the cooking process of the dish T, and the item D may be replaced with an image on which the dish T is arranged.
テーマSの補足ウィンドウを、料理Sを注文する注文ウィンドウに置き換えてもよい。同様に、テーマTの補足ウィンドウを、料理Tを注文する注文ウィンドウに置き換えてもよい。 The supplementary window for theme S may be replaced with an order window for ordering food S. Similarly, the supplementary window for theme T may be replaced with an order window for ordering dishes T.
以上本発明の実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上述の機能ブロック構成はプログラムモジュール構成に一致しない場合もある。 Although the embodiment of the present invention has been described above, the present invention is not limited to this. For example, the functional block configuration described above may not match the program module configuration.
また、上で説明した各記憶領域の構成は一例であって、上記のような構成でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ、処理の順番を入れ替えることや複数の処理を並列に実行させるようにしても良い。 Further, the configuration of each storage area described above is an example, and the above configuration is not necessarily required. Further, in the processing flow, if the processing result does not change, the processing order may be changed or a plurality of processes may be executed in parallel.
なお、上で述べた情報処理装置801は、コンピュータ装置であって、図22に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
The
以上述べた本発明の実施の形態をまとめると、以下のようになる。 The embodiment of the present invention described above is summarized as follows.
本実施の形態に係る評価方法は、(A)少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、(B)第1期間の後、少なくとも第2オブジェクトを上記画面内に表示する第2期間におけるユーザの第2注視点を特定し、(C)第1オブジェクト内の基準点から第2オブジェクト内の基準点までの第1ベクトルの向きと、第1注視点から第2注視点までの第2ベクトルの向きとの近似度を算出する処理を含む。 In the evaluation method according to the present embodiment, (A) the first gaze point of the user in the first period in which at least the first object is displayed on the screen is specified, and (B) at least the second object after the first period. The second gaze point of the user in the second period is displayed in the screen, and (C) the direction of the first vector from the reference point in the first object to the reference point in the second object, and the first It includes processing for calculating the degree of approximation with the direction of the second vector from the gazing point to the second gazing point.
このようにすれば、表示オブジェクトに対するユーザの集中度をより正確に把握することができる。 In this way, the user's degree of concentration with respect to the display object can be grasped more accurately.
更に、第2期間においてユーザの視線が第2オブジェクトの大きさに相当する範囲内に収まっていた、時間当たりの頻度を算出するようにしてもよい。また、近似度と時間当たりの頻度とに基づいて、ユーザの集中度を示す指標値を算出するようにしてもよい。 Furthermore, the frequency per time when the user's line of sight was within the range corresponding to the size of the second object in the second period may be calculated. An index value indicating the degree of user concentration may be calculated based on the degree of approximation and the frequency per time.
このようにすれば、ユーザの集中度を示す指標値に、視線を移した先のオブジェクトに注目していた度合いを反映することができる。 In this way, it is possible to reflect the degree of attention paid to the previous object whose line of sight has been shifted to the index value indicating the degree of user concentration.
更に、少なくとも近似度に基づいて、ユーザが、第1オブジェクト及び第2オブジェクトを含むコンテンツに集中していたか否かを判定するようにしてもよい。また、判定結果に応じて、コンテンツの表示を制御するようにしてもよい。 Furthermore, it may be determined based on at least the degree of approximation whether or not the user has concentrated on the content including the first object and the second object. Further, content display may be controlled in accordance with the determination result.
このようにすれば、コンテンツへの集中度に応じて、当該コンテンツによる表示内容を変えられる。 In this way, the display content of the content can be changed according to the degree of concentration on the content.
更に、第1期間において第1オブジェクトに関する音声を出力するようにしてもよい。また、第2期間において第2オブジェクトに関する音声を出力するようにしてもよい。 Furthermore, you may make it output the audio | voice regarding a 1st object in a 1st period. Moreover, you may make it output the audio | voice regarding a 2nd object in a 2nd period.
このようにすれば、音声に対するユーザの集中度をより正確に把握することができる。 In this way, the user's degree of concentration on the voice can be grasped more accurately.
なお、上記方法による処理をコンピュータに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納されるようにしてもよい。尚、中間的な処理結果は、一般的にメインメモリ等の記憶装置に一時保管される。 A program for causing a computer to perform the processing according to the above method can be created. The program can be a computer-readable storage medium such as a flexible disk, a CD-ROM, a magneto-optical disk, a semiconductor memory, a hard disk, or the like. It may be stored in a storage device. Note that intermediate processing results are generally temporarily stored in a storage device such as a main memory.
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)
少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、
前記第1期間の後、少なくとも第2オブジェクトを前記画面内に表示する第2期間における前記ユーザの第2注視点を特定し、
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する
処理を含み、コンピュータにより実行される評価方法。
(Appendix 1)
Identifying at least the first gaze point of the user in the first period of displaying the first object on the screen;
After the first period, specify a second gaze point of the user in a second period in which at least a second object is displayed in the screen,
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point An evaluation method that includes a process and is executed by a computer.
(付記2)
更に、
前記第2期間において前記ユーザの視線が前記第2オブジェクトの大きさに相当する範囲内に収まっていた、時間当たりの頻度を算出し、
前記近似度と前記時間当たりの頻度とに基づいて、前記ユーザの集中度を示す指標値を算出する
処理を含む付記1記載の評価方法。
(Appendix 2)
Furthermore,
Calculating the frequency per time that the user's line of sight was within a range corresponding to the size of the second object in the second period;
The evaluation method according to
(付記3)
更に、
少なくとも前記近似度に基づいて、前記ユーザが、前記第1オブジェクト及び前記第2オブジェクトを含むコンテンツに集中していたか否かを判定し、
判定結果に応じて、前記コンテンツの表示を制御する
処理を含む付記1又は2記載の評価方法。
(Appendix 3)
Furthermore,
Based on at least the degree of approximation, it is determined whether or not the user has concentrated on content including the first object and the second object;
The evaluation method according to
(付記4)
更に、
前記第1期間において前記第1オブジェクトに関する音声を出力し、
前記第2期間において前記第2オブジェクトに関する音声を出力する
処理を含む付記1乃至3のいずれか1つ記載の評価方法。
(Appendix 4)
Furthermore,
Outputting a sound related to the first object in the first period;
The evaluation method according to any one of
(付記5)
少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、
前記第1期間の後、少なくとも第2オブジェクトを前記画面内に表示する第2期間における前記ユーザの第2注視点を特定し、
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する
処理をコンピュータに実行させるプログラム。
(Appendix 5)
Identifying at least the first gaze point of the user in the first period of displaying the first object on the screen;
After the first period, specify a second gaze point of the user in a second period in which at least a second object is displayed in the screen,
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point Yes A program that causes a computer to execute processing.
(付記6)
少なくとも第1オブジェクトを画面内に表示する第1期間におけるユーザの第1注視点を特定し、前記第1期間の後、少なくとも第2オブジェクトを前記画面内に表示する第2期間における前記ユーザの第2注視点を特定する特定部と、
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する算出部と
を有する評価装置。
(Appendix 6)
A first gaze point of a user in a first period in which at least a first object is displayed in the screen is specified, and after the first period, the user's first glance in a second period in which at least a second object is displayed in the screen. 2 specific part to identify the gaze point;
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point An evaluation device comprising:
101 ディスプレイ装置 102 スピーカー
103 視線センサ装置 201 第1ウィンドウ
203 第2ウィンドウ 205 第3ウィンドウ
207 第4ウィンドウ 301 交点
303 周辺領域 305 第1注視点
307 第2注視点 309 第2ベクトル
401 基準点 403 基準点
405 第1ベクトル 801 情報処理装置
803 プレゼンテーション部 805 評価部
811 表示処理部 813 音声出力部
815 第1通知部 817 第1判定部
819 受取部 821 第1受付部
823 コンテンツ記憶部 831 制御部
833 第2受付部 835 特定部
837 算出部 839 第2判定部
841 第2通知部 843 出力部
845 レイアウト記憶部 847 頻度記憶部
1301 範囲
DESCRIPTION OF
Claims (5)
前記第1期間の後、少なくとも第2オブジェクトを前記画面内に表示する第2期間における前記ユーザの第2注視点を特定し、
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する
処理を含み、コンピュータにより実行される評価方法。 Identifying at least the first gaze point of the user in the first period of displaying the first object on the screen;
After the first period, specify a second gaze point of the user in a second period in which at least a second object is displayed in the screen,
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point An evaluation method that includes a process and is executed by a computer.
前記第2期間において前記ユーザの視線が前記第2オブジェクトの大きさに相当する範囲内に収まっていた、時間当たりの頻度を算出し、
前記近似度と前記時間当たりの頻度とに基づいて、前記ユーザの集中度を示す指標値を算出する
処理を含む請求項1記載の評価方法。 Furthermore,
Calculating the frequency per time that the user's line of sight was within a range corresponding to the size of the second object in the second period;
The evaluation method according to claim 1, further comprising: calculating an index value indicating the degree of user concentration based on the degree of approximation and the frequency per time.
少なくとも前記近似度に基づいて、前記ユーザが、前記第1オブジェクト及び前記第2オブジェクトを含むコンテンツに集中していたか否かを判定し、
判定結果に応じて、前記コンテンツの表示を制御する
処理を含む請求項1又は2記載の評価方法。 Furthermore,
Based on at least the degree of approximation, it is determined whether or not the user has concentrated on content including the first object and the second object;
The evaluation method according to claim 1, further comprising a process of controlling display of the content according to a determination result.
前記第1期間の後、少なくとも第2オブジェクトを前記画面内に表示する第2期間における前記ユーザの第2注視点を特定し、
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する
処理をコンピュータに実行させるプログラム。 Identifying at least the first gaze point of the user in the first period of displaying the first object on the screen;
After the first period, specify a second gaze point of the user in a second period in which at least a second object is displayed in the screen,
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point Yes A program that causes a computer to execute processing.
前記第1オブジェクト内の基準点から前記第2オブジェクト内の基準点までの第1ベクトルの向きと、前記第1注視点から前記第2注視点までの第2ベクトルの向きとの近似度を算出する算出部と
を有する評価装置。 A first gaze point of a user in a first period in which at least a first object is displayed in the screen is specified, and after the first period, the user's first glance in a second period in which at least a second object is displayed in the screen. 2 specific part to identify the gaze point;
Approximation between the direction of the first vector from the reference point in the first object to the reference point in the second object and the direction of the second vector from the first gazing point to the second gazing point An evaluation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015108188A JP2016224142A (en) | 2015-05-28 | 2015-05-28 | Evaluation method, program and evaluation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015108188A JP2016224142A (en) | 2015-05-28 | 2015-05-28 | Evaluation method, program and evaluation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016224142A true JP2016224142A (en) | 2016-12-28 |
Family
ID=57747958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015108188A Pending JP2016224142A (en) | 2015-05-28 | 2015-05-28 | Evaluation method, program and evaluation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016224142A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019215731A (en) * | 2018-06-13 | 2019-12-19 | 富士通株式会社 | Concentration evaluation program, device, and method |
EP3598381A4 (en) * | 2017-03-13 | 2020-01-22 | Sony Corporation | Information processing device and information processing method |
WO2021172584A1 (en) | 2020-02-28 | 2021-09-02 | ダイキン工業株式会社 | Efficiency estimation device |
JP2021140139A (en) * | 2020-02-28 | 2021-09-16 | ダイキン工業株式会社 | Efficiency estimation device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228785A (en) * | 2000-02-15 | 2001-08-24 | Hitachi Ltd | Method and device for transmitting computer support information |
JP2004062393A (en) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | Method and device for determining attention |
JP2005261728A (en) * | 2004-03-19 | 2005-09-29 | Fuji Xerox Co Ltd | Line-of-sight direction recognition apparatus and line-of-sight direction recognition program |
JP2013242434A (en) * | 2012-05-21 | 2013-12-05 | Sony Corp | Information processing device, information processing method and information processing system |
US20140341473A1 (en) * | 2011-12-06 | 2014-11-20 | Kyungpook National University Industry-Academic Cooperation Foundation | Apparatus and method for enhancing user recognition |
-
2015
- 2015-05-28 JP JP2015108188A patent/JP2016224142A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001228785A (en) * | 2000-02-15 | 2001-08-24 | Hitachi Ltd | Method and device for transmitting computer support information |
JP2004062393A (en) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | Method and device for determining attention |
JP2005261728A (en) * | 2004-03-19 | 2005-09-29 | Fuji Xerox Co Ltd | Line-of-sight direction recognition apparatus and line-of-sight direction recognition program |
US20140341473A1 (en) * | 2011-12-06 | 2014-11-20 | Kyungpook National University Industry-Academic Cooperation Foundation | Apparatus and method for enhancing user recognition |
JP2013242434A (en) * | 2012-05-21 | 2013-12-05 | Sony Corp | Information processing device, information processing method and information processing system |
Non-Patent Citations (1)
Title |
---|
高宇他3名: "ユーザの視線情報を用いたマルチメディアコンテンツ学習支援システムの提案", ヒューマンインタフェースシンポジウム2008 論文集[DVD−ROM], JPN6019005108, 1 September 2008 (2008-09-01), JP, pages 305 - 308, ISSN: 0003978773 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3598381A4 (en) * | 2017-03-13 | 2020-01-22 | Sony Corporation | Information processing device and information processing method |
US11557214B2 (en) | 2017-03-13 | 2023-01-17 | Sony Corporation | Information processing apparatus and method for processing information |
JP2019215731A (en) * | 2018-06-13 | 2019-12-19 | 富士通株式会社 | Concentration evaluation program, device, and method |
JP7139704B2 (en) | 2018-06-13 | 2022-09-21 | 富士通株式会社 | CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD |
WO2021172584A1 (en) | 2020-02-28 | 2021-09-02 | ダイキン工業株式会社 | Efficiency estimation device |
JP2021140139A (en) * | 2020-02-28 | 2021-09-16 | ダイキン工業株式会社 | Efficiency estimation device |
CN115136225A (en) * | 2020-02-28 | 2022-09-30 | 大金工业株式会社 | Efficiency estimation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10586391B2 (en) | Interactive virtual reality platforms | |
JP6165846B2 (en) | Selective enhancement of parts of the display based on eye tracking | |
US10511804B2 (en) | Display apparatus and control methods thereof | |
US20180292907A1 (en) | Gesture control system and method for smart home | |
KR101563312B1 (en) | System for gaze-based providing education content | |
US10373357B2 (en) | Device and method for displaying screen based on event | |
US20160179211A1 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
US9087056B2 (en) | System and method for providing augmented content | |
KR20160080083A (en) | Systems and methods for generating haptic effects based on eye tracking | |
Herskovitz et al. | Making mobile augmented reality applications accessible | |
JP2016224142A (en) | Evaluation method, program and evaluation system | |
EP3511803A1 (en) | Method and apparatus to determine trigger intent of user | |
JP2014071811A5 (en) | ||
CN103765346A (en) | Eye gaze based location selection for audio visual playback | |
Zhang et al. | Eye tracking for public displays in the wild | |
AU2019222974B2 (en) | Interfaces and techniques to retarget 2d screencast videos into 3d tutorials in virtual reality | |
KR20150096826A (en) | Display apparatus and controlling method thereof | |
Stearns et al. | The design and preliminary evaluation of a finger-mounted camera and feedback system to enable reading of printed text for the blind | |
EP3447610A1 (en) | User readiness for touchless gesture-controlled display systems | |
US11410330B2 (en) | Methods, devices, and systems for determining field of view and producing augmented reality | |
US20190058861A1 (en) | Apparatus and associated methods | |
US20180365884A1 (en) | Methods, devices, and systems for determining field of view and producing augmented reality | |
WO2022206731A1 (en) | Notification method for distance education, apparatus, and head mounted display device | |
Galko et al. | Tools used in ambient user interfaces | |
Zhang et al. | Leveraging CD gain for precise barehand video timeline browsing on smart displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190813 |