JP2016114684A - Degree-of-comprehension estimation system, degree-of-comprehension estimation method, and degree-of-comprehension estimation program - Google Patents
Degree-of-comprehension estimation system, degree-of-comprehension estimation method, and degree-of-comprehension estimation program Download PDFInfo
- Publication number
- JP2016114684A JP2016114684A JP2014251674A JP2014251674A JP2016114684A JP 2016114684 A JP2016114684 A JP 2016114684A JP 2014251674 A JP2014251674 A JP 2014251674A JP 2014251674 A JP2014251674 A JP 2014251674A JP 2016114684 A JP2016114684 A JP 2016114684A
- Authority
- JP
- Japan
- Prior art keywords
- line
- slide
- sight
- switching
- level estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、講義視聴中の受講者の理解度を推定する技術に関する。 The present invention relates to a technique for estimating an understanding level of a student who is viewing a lecture.
従来、初等学校等では、教室内で教師と生徒が対面しながら授業を行っている。このとき、非特許文献1が示すように、教師は生徒の様子を観察したり生徒に質問を投げかけたりしながら、生徒らの授業への理解度や集中度を見極めつつ授業の進行を調整している。また、生徒は授業中に理解が不足している部分を教師に質問することで授業への理解を深めることができる。
Traditionally, in primary schools, teachers and students face classes in the classroom. At this time, as shown in Non-Patent
しかし、近年インターネットを通して行われるe−learningのような講義では、受講者の様子を観察する教師がいないため、非特許文献2が示すように、受講者は講義についての質問ができず、講義への集中度が低下してしまうことによって、講義への理解が十分に深められないことが報告されている。 However, in lectures such as e-learning conducted over the Internet in recent years, since there is no teacher who observes the state of the students, as shown in Non-Patent Document 2, the students cannot ask questions about the lectures and go to the lectures. It has been reported that understanding of lectures cannot be deepened sufficiently due to a decline in the degree of concentration.
この問題を解決するために、講義中の受講者の理解度を推定する手法や、推定した受講者の理解度に応じて適切な復習教材を提供する手法が提案されている。これについて、非特許文献3では、計測した受講者の脳波を用いて受講者の集中度を推定し、集中度が低下している部分は理解が不足しているとして、その部分の復習を促す手法を提案している。 In order to solve this problem, a method for estimating the level of understanding of the students in the lecture and a method for providing appropriate review materials according to the estimated level of understanding of the students have been proposed. In this regard, in Non-Patent Document 3, the concentration of the student is estimated using the measured brain waves of the student, and the part where the degree of concentration is low is assumed to be insufficiently understood. A method is proposed.
しかしながら、非特許文献3でも述べられているように、受講者は講義内容の中で知識を既に持っている部分については、必ずしも集中して受講するとは限らない。反面、講義内容の中で理解しようとしている部分、つまり知識を十分に持っていない部分については、高い集中力で講義を受講する可能性がある。そのため、講義中の集中度からでは講義に対して復習すべき箇所の推定精度が低いことがある。 However, as described in Non-Patent Document 3, the student does not always concentrate on the part of the lecture content that already has knowledge. On the other hand, there is a possibility of attending the lecture with high concentration for the part of the lecture content that you are trying to understand, that is, the part that you do not have enough knowledge. For this reason, there are cases where the estimation accuracy of the portion to be reviewed for the lecture is low from the concentration level during the lecture.
一方、非特許文献3が示唆しているように、受講者は自身が既に持っている知識の程度に応じて、講義中に表示されるデジタル教材を精読するか否かを判断していると考えられる。つまり、受講者が精読しているデジタル教材の部分は、受講者が十分に知識をもっていない部分であり、受講者が講義を理解するために必要な部分であると考えられる。このとき、講義の進行が受講者の講義を理解する速度よりも速いことがあり、受講者が講義中の部分を精読し終わる前に講義が次へ進行してしまうことがある。 On the other hand, as Non-Patent Document 3 suggests, the student determines whether or not to read the digital teaching materials displayed during the lecture according to the level of knowledge he already has. Conceivable. In other words, the part of the digital teaching material that the student has read carefully is the part that the student does not have enough knowledge, and is necessary for the student to understand the lecture. At this time, the progress of the lecture may be faster than the speed at which the student understands the lecture, and the lecture may proceed to the next before the student finishes reading the part being lectured.
本発明は、上記事情を鑑みてなされたものであり、講義の中で受講者が理解する必要があるにも関わらず十分に精読できなかったと考えられる部分を推定することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to estimate a part of the lecture that is considered to have been insufficiently read although the student needs to understand.
以上の課題を解決するため、請求項1に記載の理解度推定装置は、講義コンテンツを受講中の受講者の視線情報を取得して記憶手段に記憶させる取得手段と、前記視線情報に含まれる視線座標および当該視線座標の計測時刻と、前記講義コンテンツのスライドがスライドして切り替えられた切替時刻とを用いて、前記スライドの切替前後の視線移動方向をそれぞれ算出し、前記切替前後の視線移動方向と前記スライドのスライド方向とに基づき当該スライドに対する前記受講者の理解度を決定する決定手段と、を有することを要旨とする。
In order to solve the above problems, the understanding level estimation device according to
請求項2に記載の理解度推定装置は、請求項1に記載の理解度推定装置において、前記決定手段は、前記スライド方向に対する前記切替前後の視線移動方向のなす角に基づき前記受講者の理解度を決定することを要旨とする。
The understanding level estimation device according to claim 2 is the understanding level estimation device according to
請求項3に記載の理解度推定装置は、請求項1又は2に記載の理解度推定装置において、前記決定手段は、前記スライド方向に対する前記切替前後の視線移動方向のなす角をそれぞれ算出し、一方のなす角の余弦値と他方のなす角の余弦値の正負符号が異なる場合に前記受講者の理解度は低いと決定することを要旨とする。
The understanding level estimation device according to claim 3 is the understanding level estimation device according to
請求項4に記載の理解度推定装置は、請求項1乃至3のいずれかに記載の理解度推定装置において、前記講義コンテンツの各スライドが切替前の視線移動方向とは異なる方向でスライドしながら切り替わるように前記講義コンテンツを加工する加工手段を更に有することを要旨とする。
The understanding level estimation device according to claim 4 is the understanding level estimation device according to any one of
請求項5に記載の理解度推定装置は、請求項4に記載の理解度推定装置において、前記加工手段は、切替開始直後よりも切替終了直前のスライド速度が遅くなるように前記講義コンテンツを加工することを要旨とする。 The understanding level estimation device according to claim 5 is the understanding level estimation device according to claim 4, wherein the processing means processes the lecture content so that a slide speed immediately before the end of switching is slower than immediately after the start of switching. The gist is to do.
請求項6に記載の理解度推定方法は、理解度推定装置で行う理解度推定方法において、前記理解度推定装置は、講義コンテンツを受講中の受講者の視線情報を取得して記憶手段に記憶させる取得ステップと、前記視線情報に含まれる視線座標および当該視線座標の計測時刻と、前記講義コンテンツのスライドがスライドして切り替えられた切替時刻とを用いて、前記スライドの切替前後の視線移動方向をそれぞれ算出し、前記切替前後の視線移動方向と前記スライドのスライド方向とに基づき当該スライドに対する前記受講者の理解度を決定する決定ステップと、を有することを要旨とする。 The understanding level estimation method according to claim 6 is an understanding level estimation method performed by an understanding level estimation device, wherein the understanding level estimation device acquires line-of-sight information of a student who is attending a lecture content and stores it in a storage unit. Using the acquisition step, the line-of-sight coordinates included in the line-of-sight information, the measurement time of the line-of-sight coordinates, and the switching time when the slide of the lecture content is slid and switched, the line-of-sight movement direction before and after switching the slide And determining the degree of understanding of the student with respect to the slide based on the line-of-sight movement direction before and after the switching and the slide direction of the slide.
請求項7に記載の理解度推定プログラムは、請求項1乃至5のいずれかに記載の理解度推定装置としてコンピュータを機能させることを要旨とする。
The gist of the understanding level estimation program according to claim 7 is to cause a computer to function as the understanding level estimation device according to any one of
本発明によれば、講義の中で受講者が理解する必要があるにも関わらず十分に精読できなかったと考えられる部分を推定できる。 According to the present invention, it is possible to estimate a portion of a lecture that is considered to have not been read thoroughly even though the student needs to understand.
以下、本発明を実施する一実施の形態について図面を用いて説明する。 Hereinafter, an embodiment for carrying out the present invention will be described with reference to the drawings.
図1は、本実施の形態に係る理解度推定システムの構成を示す図である。理解度推定システム1は、講義に対する受講者の理解度を推定する理解度推定装置10と、該受講者が受講時に使用するクライアント端末30と、を備えて構成される。該理解度推定装置10と該クライアント端末30は、相互に通信可能に接続されている。
FIG. 1 is a diagram showing a configuration of an understanding level estimation system according to the present embodiment. The understanding
続いて、理解度推定装置10の機能を説明する。理解度推定装置10は、コンテンツ加工機能部101と、視線情報取得機能部102と、方向一致度推定機能部103と、コンテンツDB104と、視線情報DB105と、スライド情報DB106と、を備えて構成される。
Next, functions of the understanding
コンテンツ加工機能部101は、クライアント端末30から要求された講義コンテンツをコンテンツDB104から取得し、該講義コンテンツのスライド(スライド画面,スライド頁)を所定の方向にスライドさせながら切り替える機能を追加するように構成されている。
The content
視線情報取得機能部102は、クライアント端末30で所定のタイミング毎に計測される受講者の視線情報(視線座標,計測時刻)を取得し、視線情報DB105に格納するように構成されている。
The line-of-sight information
方向一致度推定機能部103は、クライアント端末30から送信されるスライドの切替時刻を取得し、該切替時刻と上記視線情報(視線座標,計測時刻)とを用いて切替前後の視線移動方向をそれぞれ算出し、該切替前後の視線移動方向とスライド方向(上記所定の方向)とに基づいてスライドに対する受講者の理解度を推定(決定)して、理解度の低いスライドに関する情報をスライド情報DB106に格納するように構成されている。
The direction coincidence
次に、クライアント端末30の機能を説明する。クライアント端末30は、コンテンツ要求機能部301と、コンテンツ受信機能部302と、視線情報送信機能部303と、切替タイミング通知機能部304と、を備えて構成される。
Next, functions of the
コンテンツ要求機能部301は、受講者が指定した講義コンテンツを理解度推定装置10に要求するように構成されている。コンテンツ受信機能部302は、該要求に応じて理解度推定装置10から送信された講義コンテンツを取得し、モニタやマイクで再生するように構成されている。
The content
視線情報送信機能部303は、再生中の講義コンテンツのスライドに対する受講者の視線位置(水平−垂直位置)を視線座標として計測し、該視線座標と計測時刻とを理解度推定装置10に送信するように構成されている。切替タイミング通知機能部304は、講義コンテンツのスライドが切り替えられた切替時刻を理解度推定装置10に通知するように構成されている。
The gaze information
かかる理解度推定装置10およびクライアント端末30は、CPU等の演算機能やメモリ等の記憶機能を備えたコンピュータ(例えば、サーバ、パソコン)で実現できる。また、理解度推定装置10としてコンピュータを機能させるための理解度推定プログラムや該理解度推定プログラムの記憶媒体を作成することも可能である。
The understanding
次に、理解度推定システム1で行う理解度推定方法を説明する。図2は、理解度推定方法の処理シーケンスを示す図である。
Next, an understanding level estimation method performed by the understanding
まず、ステップS1において、コンテンツ要求機能部301は、受講者の指定操作に基づき、講義Aに関する講義コンテンツCAの送信を理解度推定装置10に要求する。
First, in step S1, the content
次に、ステップS2において、コンテンツ加工機能部101は、クライアント端末30から講義コンテンツCAの送信要求を受信した場合、コンテンツDB104から該講義コンテンツCAを取得する。図3は、コンテンツDB104のデータ例を示す図である。コンテンツDB104には、複数の講義コンテンツが格納されており、講義IDカラムと講義コンテンツカラムとから構成される。講義IDカラムには、講義コンテンツを一意に識別可能なIDが格納される。講義コンテンツカラムには、講義コンテンツが格納される。講義コンテンツとは、1枚以上のスライドからなるデジタル教材データと該スライドの内容を説明するための音声データである。
Next, in step S2, the contents
次に、ステップS3において、コンテンツ加工機能部101は、講義コンテンツCAの各スライドsを切り替える際にスライド表示を行うため、該スライドsのスライド方向νs(νsは単位ベクトル,ベクトル表示「→」は省略)を決定する。具体的には、受講者がスライド内で視線を移動させる1つ以上の視線移動方向νu(νuは単位ベクトル,ベクトル表示「→」は省略)を推定し、該視線移動方向νuのいずれかと逆方向となる方向の1つをスライド方向νsとする。
Next, in step S3, the contents processing
例えば、「画像検索を用いたディジタルアーカイブのインデクシング」技術(川嶋,05-01045,p.486-p.491)を用いて、スライド中の文章や箇条書きが読み書きされる方向を視線移動方向νuとして推定する。例えば、スライド中の文章や箇条書きが左から右方向に、かつ、上から下方向に読み進めるように構成されている場合、受講者はスライドを読むために左から右方向、又は、上から下方向に視線を移動させると考えられる。この場合、視線移動方向νuを、左から右への水平方向と、上から下への垂直方向とする。したがい、このとき、スライド方向νsは、右から左への水平方向、又は、下から上への垂直方向とする。なお、一般的なスライドは、スライドの構成が一貫性を保っていると考えられるため、ある1枚のスライドに対して視線移動方向νuを推定すれば十分である。仮に、スライドの構成が一貫性を保っていない場合には、スライド毎にスライド方向νsを決定してもよいし、どれか1枚のスライドに対して決定したスライド方向νsに統一してもよい。 For example, using the “indexing of digital archives using image search” technology (Kawashima, 05-01045, p.486-p.491), the direction in which the text and bullets in the slide are read and written is the direction of the eye movement ν Estimated as u . For example, if the text or bullets in a slide are configured to read from left to right and from top to bottom, students can read the slide from left to right or from top It is thought that the line of sight is moved downward. In this case, the line-of-sight movement direction ν u is a horizontal direction from left to right and a vertical direction from top to bottom. Therefore, at this time, the slide direction ν s is set to the horizontal direction from right to left or the vertical direction from bottom to top. In addition, since it is thought that the structure of a general slide maintains consistency, it is sufficient to estimate the line-of-sight movement direction ν u for a certain slide. If the configuration of the slide when no maintaining consistency may be determined sliding direction [nu s for each slide, are unified to any sliding direction [nu s determined for one slide Also good.
次に、ステップS4において、コンテンツ加工機能部101は、講義コンテンツCAの各スライドに対して、スライドの切り替わり時に上記スライド方向νsにスライドしながら切り替わるようなエフェクトを付与する。このとき、例えば、文章の最後部分等、スライド中で最後に読まれると考えられる箇所がクライアント端末上にできるだけ長い時間表示されるようなエフェクトをスライドに付与する。例えば、一般的なスライドは左上から右下に向かって文章等が記述されることが多いため、スライドの右下ができるだけ長く表示されるようにする。
Next, in step S4, the contents processing
次に、ステップS5において、コンテンツ加工機能部101は、ステップS4で加工された講義コンテンツCA’をクライアント端末30に送信する。
Next, in step S5, the content
その後、ステップS6において、コンテンツ受信機能部302は、理解度推定装置10から講義コンテンツCA’を受信後、クライアント端末上で再生を開始する。該講義コンテンツCA’は、ステップS4で行われた加工処理により、講義の進行に合せて所定のタイミングで各スライドがスライドしつつ、かつ、文章の最後が長く表示されながら切り替えられることになる。例えば、スライドの切替開始直後よりも切替終了直前のスライド速度が遅くなるように制御される。
Thereafter, in step S6, the content
続いて、ステップS7において、視線情報送信機能部303は、講義コンテンツCA’を受講中の受講者の視線座標(水平−垂直座標)を一定のタイミング毎に計測し、該視線座標と計測時刻とを理解度推定装置10に送信する。例えば、既存の眼球運動測定器を用いて受講者の視線座標値をm秒間隔(mは正の実数)で計測し、計測する度に該視線座標値と計測時刻とを送信する。
Subsequently, in step S7, the line-of-sight information
その後、ステップS8において、視線情報取得機能部102は、クライアント端末30から講義コンテンツCA’を受講中の受講者の視線座標と計測時刻とを受信し、視線情報DB105に格納する。図4は、視線情報DB105のデータ例を示す図である。視線情報DB105には、受講者の視線情報が格納されており、講義IDカラムと計測時刻カラムと視線座標カラムとから構成される。図4の場合、講義コンテンツC1の受講者は1:25からm秒間で左から右方向に視線を移動させている。
Thereafter, in step S <b> 8, the line-of-sight information
また、ステップS9において、切替タイミング通知機能部304は、講義コンテンツCA’の再生中にスライドsが切り替えられたときに、該スライドsの切替時刻tを理解度推定装置10に通知する。
In step S9, when the slide s is switched during the reproduction of the lecture content C A ′, the switching timing
その後、ステップS10において、方向一致度推定機能部103は、スライドsのスライド方向と、該スライドsの切替前後の受講者の視線移動方向とを用いて、該スライドsに対する受講者の理解度を推定する。ここでは、講義コンテンツを閲覧中にスライドが移動した場合、人間の目は自然と該スライドを追う(動くものを追い易い)という特性を利用している。ステップS3において、スライド閲覧時の受講者の視線方向と逆方向にスライドを移動させるようにすることで、スライドが移動するのにつられて視線方向が変わることを検知しやすくなり、十分に精読できなかったスライドを特定する。以下詳述する。
Thereafter, in step S10, the direction coincidence degree
クライアント端末30から該スライドsの切替時刻tを受信すると、まず、該スライドsの切替時刻tと、視線情報DB105の視線情報(視線座標,計測時刻)とを用いて、切替時刻t直前の受講者の視線移動方向νb(ベクトル表示「→」は省略)と切替時刻t直後の受講者の視線移動方向νa(ベクトル表示「→」は省略)を推定する。例えば、「切替時刻t−所定時刻T1(T1は正の実数)」に最も近い時刻の視線座標(x0,y0)と、切替時刻tに最も近い時刻の視線座標(x1,y1)と、「切替時刻t+所定時刻T2(T2は正の実数)」に最も近い時刻の視線座標(x2,y2)とを視線情報DB105から取得し、視線移動方向νb=(x1−x0,y1−y0),視線移動方向νa=(x2−x1,y2−y1)を算出する。
When the switching time t of the slide s is received from the
続いて、該スライドsにおいて、かかる2つの視線移動方向νb,νaと、ステップS3で決定したスライド方向νsとから、該スライド方向νsに対する2つのベクトル(νb,νa)のなす角θ1,θ2をそれぞれ算出する。そして、なす角θ1,θ2が所定の閾値以下の場合、受講者はスライドsを精読しきれなかったと判定し、該スライドsの情報をスライド情報DB106に格納する。
Subsequently, in the slide s, two vectors (ν b , ν a ) for the slide direction ν s are calculated from the two line-of-sight movement directions ν b , ν a and the slide direction ν s determined in step S3. The formed angles θ 1 and θ 2 are respectively calculated. If the formed angles θ 1 and θ 2 are equal to or smaller than a predetermined threshold, the student determines that the slide s has not been read thoroughly, and stores information on the slide s in the
例えば、スライド方向νsと視線移動方向νbとのなす角θ1(0°≦θ1≦180°)の余弦cosθ1を式(1)より算出する。同様に、スライド方向νsと視線移動方向νaとのなす角θ2(0°≦θ2≦180°)の余弦cosθ2を式(2)より算出する。 For example, the cosine cos [theta] 1 of the angle theta 1 between the slide direction [nu s and eye movement direction ν b (0 ° ≦ θ 1 ≦ 180 °) calculated from equation (1). Similarly, the cosine cos [theta] 2 of the angle theta 2 between the sliding direction [nu s and eye movement direction ν a (0 ° ≦ θ 2 ≦ 180 °) calculated from equation (2).
そして、例えば、−1≦cosθ1≦M1(M1は−1≦M1≦0を満たす実数)、かつ、0≦cosθ2≦M2(M2は0≦M2≦1を満たす実数)の場合、スライドsの切替前後における受講者の視線方向は一致していない(反対方向である)ため、該受講者は視線を左右又は上下に何度も動かして視線方向を変化させ、該スライドsの最後部分を再読している可能性がある。そのため、かかる場合、該スライドsに対する受講者の理解度は低い(受講者の理解が不十分)と推定し、該スライドsのスライド番号をスライド情報DB106に格納する。図5は、スライド情報DB106のデータ例を示す図である。スライド情報DB106は、講義IDカラムとスライドカラムとから構成される。スライドカラムには、スライドのスライド番号が格納される。
For example, −1 ≦ cos θ 1 ≦ M 1 (M 1 is a real number satisfying −1 ≦ M 1 ≦ 0) and 0 ≦ cos θ 2 ≦ M 2 (M 2 is a real number satisfying 0 ≦ M 2 ≦ 1). ), The student's gaze direction before and after the switching of the slide s does not match (the opposite direction), so the student moves the gaze direction left and right or up and down several times to change the gaze direction, There is a possibility that the last part of the slide s is reread. Therefore, in such a case, it is estimated that the student's level of understanding of the slide s is low (the student's understanding is insufficient), and the slide number of the slide s is stored in the
その他、単純になす角θ1,θ2に基づき受講者の理解度を推定してもよい。具体的には、「スライドの切替えが発生したことによって視線移動方向が変わった→十分に精読できずにスライドが切り替わってしまった→理解度が低い」と考えられるため、一方のなす角θ1が90°より大きく(スライド方向とベクトルの向きが反対)、かつ、他方のなす角θ2が90°より小さい(スライド方向とベクトルの向きが同じ)の場合に、受講者の理解度は低いと推定する。 In addition, the understanding level of the students may be estimated based on the angles θ 1 and θ 2 that are simply formed. Specifically, since it is considered that “the line-of-sight movement direction has changed due to the switching of the slide → the slide has been switched without being fully read → the degree of understanding is low”, one angle θ 1 Is less than 90 ° (sliding direction and vector direction are opposite) and the other angle θ 2 is smaller than 90 ° (sliding direction and vector direction are the same) Estimated.
なお、本実施の形態では、講義コンテンツの各スライドを切替前の視線移動方向の反対方向にスライドさせる場合を例に説明したが、スライドが移動するのにつられて視線方向が変わることを検知できればよいため、切替前の視線移動方向とは異なる方向、つまり切替前の視線移動方向と同一方向以外の任意の方向にスライドをスライドさせるようにしてもよい。 In this embodiment, an example has been described in which each slide of lecture content is slid in the direction opposite to the line-of-sight movement direction before switching. However, if it can be detected that the line-of-sight direction changes as the slide moves. Therefore, the slide may be slid in a direction different from the line-of-sight movement direction before switching, that is, in an arbitrary direction other than the same direction as the line-of-sight movement direction before switching.
本実施の形態によれば、理解度推定装置10において、講義コンテンツを受講中の受講者の視線情報を取得し、該視線情報に含まれる視線座標および該視線座標の計測時刻と、講義コンテンツのスライドsがスライドして切り替えられた切替時刻tとを用いて、該スライドsの切替前後の視線移動方向νb,νaをそれぞれ算出し、該切替前後の視線移動方向νb,νaと該スライドsのスライド方向νsとに基づき該スライドsに対する受講者の理解度を決定するので、講義の中で受講者が理解する必要があるにも関わらず十分に精読できなかったと考えられる部分を推定できる。これにより、結果として、講義に対する受講者の理解度の推定精度を向上できる。
According to the present embodiment, the understanding
1…理解度推定システム
10…理解度推定装置
101…コンテンツ加工機能部
102…視線情報取得機能部
103…方向一致度推定機能部
104…コンテンツDB
105…視線情報DB
106…スライド情報DB
30…クライアント端末
301…コンテンツ要求機能部
302…コンテンツ受信機能部
303…視線情報送信機能部
304…切替タイミング通知機能部
S1〜S10…ステップ
DESCRIPTION OF
105 ... Gaze information DB
106 ... slide information DB
DESCRIPTION OF
Claims (7)
前記視線情報に含まれる視線座標および当該視線座標の計測時刻と、前記講義コンテンツのスライドがスライドして切り替えられた切替時刻とを用いて、前記スライドの切替前後の視線移動方向をそれぞれ算出し、前記切替前後の視線移動方向と前記スライドのスライド方向とに基づき当該スライドに対する前記受講者の理解度を決定する決定手段と、
を有することを特徴とする理解度推定装置。 An acquisition means for acquiring gaze information of a student who is taking lecture content and storing it in a storage means;
Using the line-of-sight coordinates included in the line-of-sight information, the measurement time of the line-of-sight coordinates, and the switching time when the slide of the lecture content has been slid and switched, respectively calculate the line-of-sight movement direction before and after switching the slide, Determining means for determining the level of understanding of the student with respect to the slide based on the line-of-sight movement direction before and after the switching and the slide direction of the slide;
A comprehension level estimation device characterized by comprising:
前記スライド方向に対する前記切替前後の視線移動方向のなす角に基づき前記受講者の理解度を決定することを特徴とする請求項1に記載の理解度推定装置。 The determining means includes
The comprehension level estimation apparatus according to claim 1, wherein the comprehension level of the student is determined based on an angle formed by a gaze movement direction before and after the switching with respect to the slide direction.
前記スライド方向に対する前記切替前後の視線移動方向のなす角をそれぞれ算出し、一方のなす角の余弦値と他方のなす角の余弦値の正負符号が異なる場合に前記受講者の理解度は低いと決定することを特徴とする請求項1又は2に記載の理解度推定装置。 The determining means includes
When the angle formed by the line-of-sight movement direction before and after the switching with respect to the sliding direction is calculated, and the sign of the cosine value of one angle and the cosine value of the other angle are different, the understanding level of the student is low The understanding level estimation device according to claim 1, wherein the understanding level estimation device is determined.
切替開始直後よりも切替終了直前のスライド速度が遅くなるように前記講義コンテンツを加工することを特徴とする請求項4に記載の理解度推定装置。 The processing means includes
5. The comprehension level estimation apparatus according to claim 4, wherein the lecture content is processed so that a slide speed immediately before the end of switching is slower than immediately after the start of switching.
前記理解度推定装置は、
講義コンテンツを受講中の受講者の視線情報を取得して記憶手段に記憶させる取得ステップと、
前記視線情報に含まれる視線座標および当該視線座標の計測時刻と、前記講義コンテンツのスライドがスライドして切り替えられた切替時刻とを用いて、前記スライドの切替前後の視線移動方向をそれぞれ算出し、前記切替前後の視線移動方向と前記スライドのスライド方向とに基づき当該スライドに対する前記受講者の理解度を決定する決定ステップと、
を有することを特徴とする理解度推定方法。 In the understanding level estimation method performed by the understanding level estimation device,
The understanding level estimation device comprises:
An acquisition step of acquiring gaze information of a student who is taking lecture content and storing it in a storage means;
Using the line-of-sight coordinates included in the line-of-sight information, the measurement time of the line-of-sight coordinates, and the switching time when the slide of the lecture content has been slid and switched, respectively calculate the line-of-sight movement direction before and after switching the slide, A determination step for determining the degree of understanding of the student with respect to the slide based on the line-of-sight movement direction before and after the switching and the slide direction of the slide;
A comprehension level estimation method characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014251674A JP6339929B2 (en) | 2014-12-12 | 2014-12-12 | Understanding level estimation device, understanding level estimation method, and understanding level estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014251674A JP6339929B2 (en) | 2014-12-12 | 2014-12-12 | Understanding level estimation device, understanding level estimation method, and understanding level estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016114684A true JP2016114684A (en) | 2016-06-23 |
JP6339929B2 JP6339929B2 (en) | 2018-06-06 |
Family
ID=56140008
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014251674A Active JP6339929B2 (en) | 2014-12-12 | 2014-12-12 | Understanding level estimation device, understanding level estimation method, and understanding level estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6339929B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020519931A (en) * | 2017-05-04 | 2020-07-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Evaluation derived by calculation in child education system |
US20220311808A1 (en) * | 2021-03-29 | 2022-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Online video distribution support method, online video distribution support apparatus and online video distribution support system |
JP7458302B2 (en) | 2020-11-18 | 2024-03-29 | 株式会社日立製作所 | Comprehension difficulty level calculation device and comprehension difficulty level calculation method. |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04255889A (en) * | 1991-02-08 | 1992-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Deciding method for document comprehension |
JP2005338173A (en) * | 2004-05-24 | 2005-12-08 | Advanced Telecommunication Research Institute International | Foreign language reading comprehension learning support device |
US20100046911A1 (en) * | 2007-12-28 | 2010-02-25 | Benesse Corporation | Video playing system and a controlling method thereof |
JP2013205951A (en) * | 2012-03-27 | 2013-10-07 | Fujitsu Ltd | Information providing method, information providing program and information providing device |
-
2014
- 2014-12-12 JP JP2014251674A patent/JP6339929B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04255889A (en) * | 1991-02-08 | 1992-09-10 | Nippon Telegr & Teleph Corp <Ntt> | Deciding method for document comprehension |
JP2005338173A (en) * | 2004-05-24 | 2005-12-08 | Advanced Telecommunication Research Institute International | Foreign language reading comprehension learning support device |
US20100046911A1 (en) * | 2007-12-28 | 2010-02-25 | Benesse Corporation | Video playing system and a controlling method thereof |
JP2013205951A (en) * | 2012-03-27 | 2013-10-07 | Fujitsu Ltd | Information providing method, information providing program and information providing device |
Non-Patent Citations (2)
Title |
---|
渡邊 栄治 EIJI WATANABE: "e−Learningにおける受講者の動作の分析 Analysis of movements of students in e-Learning", 電子情報通信学会技術研究報告 VOL.109 NO.335 IEICE TECHNICAL REPORT, vol. 第109巻, JPN6017038629, 4 December 2009 (2009-12-04), JP, pages 79 - 84, ISSN: 0003658751 * |
渡邊 栄治 EIJI WATANABE: "e−Learningにおける受講者の動作の分析 Analysis of Movements of Students in e-Learning", 電子情報通信学会技術研究報告 VOL.109 NO.335 IEICE TECHNICAL REPORT, vol. 第109巻, JPN6017038631, 4 December 2009 (2009-12-04), JP, pages 73 - 78, ISSN: 0003658752 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020519931A (en) * | 2017-05-04 | 2020-07-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Evaluation derived by calculation in child education system |
JP7058016B2 (en) | 2017-05-04 | 2022-04-21 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Assessments derived from calculations in the child education system |
JP7458302B2 (en) | 2020-11-18 | 2024-03-29 | 株式会社日立製作所 | Comprehension difficulty level calculation device and comprehension difficulty level calculation method. |
US20220311808A1 (en) * | 2021-03-29 | 2022-09-29 | Panasonic Intellectual Property Management Co., Ltd. | Online video distribution support method, online video distribution support apparatus and online video distribution support system |
US11909776B2 (en) | 2021-03-29 | 2024-02-20 | Panasonic Intellectual Property Management Co., Ltd. | Online video distribution support method, online video distribution support apparatus and online video distribution support system |
Also Published As
Publication number | Publication date |
---|---|
JP6339929B2 (en) | 2018-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rochlen et al. | First-person point-of-view–augmented reality for central line insertion training: a usability and feasibility study | |
Sannikov et al. | Interactive educational content based on augmented reality and 3D visualization | |
McAlister | Use of instructor-produced YouTube® videos to supplement manual skills training in occupational therapy education | |
JP6339929B2 (en) | Understanding level estimation device, understanding level estimation method, and understanding level estimation program | |
Shirazi et al. | Assessing the pedagogical value of augmented reality-based learning in construction engineering | |
US20130059281A1 (en) | System and method for providing real-time guidance to a user | |
Pantelić et al. | The development of educational augmented reality application: a practical approach | |
Cohen et al. | The next generation of endoscopic simulation | |
Abuzinadah et al. | Towards empowering hearing impaired students' skills in computing and technology | |
CN114007098B (en) | Method and device for generating 3D holographic video in intelligent classroom | |
Quintana et al. | Object and gesture recognition to assist children with autism during the discrimination training | |
US20170358273A1 (en) | Systems and methods for resolution adjustment of streamed video imaging | |
Soleimani et al. | Augmented reality and virtual reality scaffoldings in improving the abstract genre structure in a collaborative learning environment: A CALL study | |
KR20110024880A (en) | System and method for learning a sentence using augmented reality technology | |
Saad et al. | An emerging of e-learning and continuance satisfaction in higher education: A review | |
JP2022058315A (en) | Assist system, assist method and assist program | |
Isaacson et al. | Guided laparoscopic video tutorials for medical student instruction in abdominal anatomy | |
Miyakoda et al. | Effective learning materials for mobile devices: Image vs. Sound | |
Persson et al. | Investigating learners’ viewing behaviour in watching a designed instructional video | |
JP6824105B2 (en) | Information processing equipment, information processing methods and information processing programs | |
Sage | What pace is best? Assessing adults’ learning from slideshows and video | |
KR20160136760A (en) | Method for educating Chinese characters by using augmented reality | |
Wahoski | Video Modelling: An Intervention for Autism. | |
JP7442611B2 (en) | Event support system, event support method, event support program | |
Grohs et al. | Exploring the Feasibility of an Educational Computer Game as a Novel Means of Assessing Problem Solving Competencies |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6339929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |