JP2022135476A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2022135476A
JP2022135476A JP2021035304A JP2021035304A JP2022135476A JP 2022135476 A JP2022135476 A JP 2022135476A JP 2021035304 A JP2021035304 A JP 2021035304A JP 2021035304 A JP2021035304 A JP 2021035304A JP 2022135476 A JP2022135476 A JP 2022135476A
Authority
JP
Japan
Prior art keywords
sight
line
student
lecturer
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021035304A
Other languages
Japanese (ja)
Inventor
隆司 大森
Takashi Omori
徹志 山田
Tetsushi Yamada
真宏 宮田
Masahiro Miyata
壮介 藤掛
Sosuke Fujikake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamagawa Gakuen
Original Assignee
Tamagawa Gakuen
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamagawa Gakuen filed Critical Tamagawa Gakuen
Priority to JP2021035304A priority Critical patent/JP2022135476A/en
Publication of JP2022135476A publication Critical patent/JP2022135476A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To efficiently grasp a mental state of a participant in a lecture in an on-demand format, which is an important issue when a provider of the lecture maintains and improves quality of a service.SOLUTION: A lecturer-side information acquisition unit 101 acquires lecturer-side information on a lecturer T who transmits information while looking at a resume R displayed in at least a part of a screen of a lecturer terminal 2, the lecturer-side information indicating a correspondence relationship between the lecturer's line-of-sight Lt and the resume R. A participant-side information acquisition unit 102 acquires participant-side information on a participant S who receives the transmission of information while looking at the resume R displayed in at least a part of a screen of a participant terminal 3, the participant-side information indicating the correspondence relationship between the participant's line-of-sight Ls and the resume R. A detection unit 103 detects feature quantities of the lecturer-side information and the participant-side information. An estimation unit 104 estimates a mental state of the participant S on the basis of, the detected feature quantities.SELECTED DRAWING: Figure 12

Description

本発明は、情報処理装置、及びプログラムに関する。 The present invention relates to an information processing device and a program.

近年の社会状況の変化に伴い、人の学習環境が多様化している。その中でも、社会状況の急激な変化に対応して学習を継続できるオンライン学習への期待が高まっており、オンライン学習を支援するための関連技術も提案されている(例えば特許文献1参照)。
また、予め記録された講義の内容を再生することで受講できるいわゆるオンデマンド形式の講義は、オンライン学習の一例であり、その存在の重要性は日々高まっている。
People's learning environments are diversifying with the recent changes in social conditions. Among them, expectations are rising for online learning, which enables learning to continue in response to rapid changes in social conditions, and related technologies for supporting online learning have been proposed (see, for example, Patent Document 1).
In addition, so-called on-demand lectures that can be taken by reproducing the contents of pre-recorded lectures are an example of online learning, and the importance of their existence is increasing day by day.

特開2003-330355号公報JP-A-2003-330355

しかしながら、オンデマンド形式の講義は、当然ながら記録の時点で受講者側を見ることすらできないため、対面形式の講義であれば把握可能な受講者の内的状態を把握することが困難となる。講義を受講する受講者の内的状態を把握することは、サービスの質の維持や向上を図るうえで重要な課題となるが、従来のオンデマンド形式の講義の提供側は、講義を受講した受講者に対して事後的に実施されるテストの結果等から受講者の内的状態を推察するしかなかった。 However, in an on-demand lecture, it is of course impossible to even see the student at the time of recording, so it is difficult to grasp the inner state of the student, which can be grasped in a face-to-face lecture. Understanding the internal state of the students who take the lectures is an important issue in maintaining and improving the quality of the service. There was no choice but to guess the internal state of the student from the results of the test that was conducted for the student after the fact.

本発明は、このような状況を鑑みてなされたものであり、オンデマンド形式の講義の提供側が、サービスの質の維持や向上を図るうえで重要な課題となる、講義の受講側の内的状態の把握を効率よく行えるようにすることを目的とする。 The present invention has been made in view of this situation, and it is an important issue for the provider of on-demand lectures to maintain and improve the quality of the service. The purpose is to enable the status to be grasped efficiently.

上記目的を達成するため、本発明の一態様の情報処理装置は、
第1画面の所定位置に表示された所定画像を見ながら情報を伝達する第1ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第1情報を取得する第1取得手段と、
第2画面の所定位置に表示された前記所定画像を見ながら、前記情報の伝達を受ける第2ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第2情報を取得する第2取得手段と、
前記第1情報及び前記第2情報の特徴量を検出する検出手段と、
検出された前記特徴量に基づいて、前記第2ユーザの内的状態の推定を行う推定手段と、
を備える。
In order to achieve the above object, an information processing device according to one aspect of the present invention includes:
a first acquisition means for acquiring first information indicating a correspondence relationship between a history of movement of a line of sight of a first user who transmits information while viewing a predetermined image displayed at a predetermined position on a first screen and the predetermined image; ,
Acquiring second information indicating a correspondence relationship between a history of movement of the line of sight of a second user to whom the information is transmitted and the predetermined image while viewing the predetermined image displayed at a predetermined position on the second screen; 2 acquisition means;
detection means for detecting the feature amount of the first information and the second information;
estimating means for estimating the internal state of the second user based on the detected feature quantity;
Prepare.

本発明の一態様のプログラムは、上述の本発明の一態様の情報処理装置に対応するプログラムである。 A program of one aspect of the present invention is a program corresponding to the above-described information processing apparatus of one aspect of the present invention.

本発明によれば、オンデマンド形式の講義の提供側が、サービスの質の維持や向上を図るうえで重要な課題となる、講義の受講側の内的状態の把握を効率よく行えるようにすることができる。 According to the present invention, the on-demand lecture provider can efficiently grasp the internal state of the lecture attendee, which is an important issue in maintaining and improving the quality of the service. can be done.

本発明の一実施形態に係るサーバが適用される情報処理システムにより実現可能となる本サービスの概要を示す図である。1 is a diagram showing an overview of this service that can be realized by an information processing system to which a server according to an embodiment of the invention is applied; FIG. 講義の受講中に受講者端末に表示される画面の具体例を示す図である。It is a figure which shows the specific example of the screen displayed on a student terminal during taking a lecture. 受講者と講師との視線間距離を示すグラフである。It is a graph which shows the distance between eyes|visual_axis of a student and a lecturer. 図3と異なる他の受講者と講師との視線間距離を示すグラフである。FIG. 4 is a graph showing the line-of-sight distance between another student different from that in FIG. 3 and the lecturer; FIG. 講師の視線の移動速度と、受講者の視線の移動速度と、視線間距離との関係性を示すグラフである。It is a graph which shows the relationship between the movement speed of a lecturer's line of sight, the movement speed of a student's line of sight, and the distance between eyes. (A)は、視線同調が発生している場合の視線間距離の時間変化を示すグラフである。(B)は、受講者がレジュメを見るものの、視線非同調が発生している場面における視線間距離の時間変化を示すグラフである。(A) is a graph showing the change over time of the distance between the lines of sight when line-of-sight synchronization occurs. (B) is a graph showing the change over time of the eye-to-eye distance in a scene where the student looks at the resume but the eye-gaze non-synchronization occurs. 図6の(A)のグラフと、図6の(B)のグラフとの視線間距離の分布を示すヒストグラムである。FIG. 7 is a histogram showing the distribution of distances between sight lines between the graph of FIG. 6(A) and the graph of FIG. 6(B); FIG. (A)及び(B)は、分析に使用されなかった他のレジュメでの視線間距離の分布を示すグラフである。(A) and (B) are graphs showing the distribution of distances between gazes in other resumes that were not used in the analysis. 本発明の一実施形態に係るサーバが適用される情報処理システムにより実現可能となる本サービスの概要を示す図である。1 is a diagram showing an overview of this service that can be realized by an information processing system to which a server according to an embodiment of the invention is applied; FIG. 本発明の情報処理装置の一実施形態に係るサーバが適用される情報処理システムの構成の一例を示す図である。It is a figure showing an example of composition of an information processing system in which a server concerning one embodiment of an information processor of the present invention is applied. 図10に示す情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。11 is a block diagram showing an example of a hardware configuration of a server in the information processing system shown in FIG. 10; FIG. 図10の情報処理システムを構成するサーバの機能的構成のうち、内的状態推定処理を実行するための機能的構成の一例を示す機能ブロック図である。FIG. 11 is a functional block diagram showing an example of a functional configuration for executing an internal state estimation process among the functional configurations of a server configuring the information processing system of FIG. 10;

以下、本発明の実施形態について、図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1乃至図9を参照して、本発明の一実施形態に係るサーバ1が適用される情報処理システムにより実現可能となるサービス(以下、「本サービス」と呼ぶ)の概要について説明する。 First, with reference to FIGS. 1 to 9, an outline of a service (hereinafter referred to as "this service") that can be realized by an information processing system to which a server 1 according to an embodiment of the present invention is applied will be described. .

図1は、本発明の一実施形態に係るサーバが適用される情報処理システムにより実現可能となる本サービスの概要を示す図である。 FIG. 1 is a diagram showing an overview of this service that can be realized by an information processing system to which a server according to one embodiment of the present invention is applied.

本サービスは、講師Tの講義をオンデマンド形式のコンテンツとして作成して受講者Sに提供するオンデマンド講義提供者(図示せず)に対して提供されるサービスである。
本サービスでは、オンデマンド形式の講義において、表情、姿勢、動作として表出される受講者Sの内的状態が、講師T及び受講者Sの夫々の視線に関する情報に基づいて検出される。そして、その情報を講師T及びオンデマンド講義提供者に提供することで、受講者Sに対する適切な働きかけが行われることの支援が行われる。ここで、「内的状態」とは、受講者Sの講義に対する感情や興味の状態のことをいう。
This service is a service provided to an on-demand lecture provider (not shown) who prepares a lecture of a lecturer T as on-demand content and provides it to a student S. FIG.
In this service, in an on-demand lecture, the internal state of the student S, which is expressed as facial expressions, postures, and actions, is detected based on the information regarding the line of sight of the lecturer T and the student S, respectively. Then, by providing the information to the lecturer T and the on-demand lecture provider, it is possible to support the appropriate approach to the student S. Here, the "internal state" refers to the state of the student S' feelings and interest in the lecture.

本サービスは、人の表情や身体的な立振舞いよりも、人の思考の内容をより深く表しているとされる、視線の相互作用に注目したサービスである。具体的には、ICT(Information and Communication Technology)技術により、講師T及び受講者Sの夫々の顔の撮像画像から視線を夫々抽出する。そして、講師T及び受講者Sの夫々が、講師端末2及び受講者端末3の夫々の画面の少なくとも一部分に共有するように表示された講義用のレジュメRを見つめる視線を抽出する。抽出された視線の履歴は、軌跡として画面上に表示される。具体的には、図1の講師端末2の画面には、共有するように表示されたレジュメRと、講師Tの視線の動きの履歴を軌跡で示した講師視線Ltが表示されている。また、図1の受講者端末3の画面には、共有するように表示されたレジュメRと、受講者Sの視線の動きの履歴を軌跡で示した受講者視線Lsとが表示されている。 This service focuses on eye interaction, which is said to more deeply express the content of a person's thoughts than a person's facial expressions or physical behavior. Specifically, the line of sight is extracted from the captured images of the faces of the lecturer T and the student S, respectively, using ICT (Information and Communication Technology). Then, each of the instructor T and the student S extracts the line of sight of the lecture resume R displayed so as to be shared on at least a part of the screens of the instructor terminal 2 and the student terminal 3, respectively. The extracted line-of-sight history is displayed on the screen as a trajectory. Specifically, on the screen of the lecturer terminal 2 in FIG. 1, a resume R that is displayed so as to be shared and the lecturer's line of sight Lt that shows the movement history of the lecturer T's line of sight in the form of a trajectory are displayed. Also, on the screen of the student terminal 3 in FIG. 1, the resume R displayed so as to be shared and the student's line of sight Ls showing the history of the movement of the student S's line of sight in the form of a trajectory are displayed.

オンデマンド講義提供者がオンデマンド講義のコンテンツを作成する際、講師Tは、講師端末2の画面の少なくとも一部に表示されたレジュメRを参照しながら講義を開始する。このとき、講師端末2に表示されるレジュメR、及び講師視線Ltは、講義開始から経過した時間に対応付けられて、講師側情報として記録される。 When the on-demand lecture provider creates the contents of the on-demand lecture, the lecturer T starts the lecture while referring to the resume R displayed on at least a part of the screen of the lecturer terminal 2 . At this time, the resume R displayed on the lecturer terminal 2 and the lecturer's line of sight Lt are recorded as lecturer-side information in association with the elapsed time from the start of the lecture.

記録された講義の音声のデータと、レジュメRのデータとの組み合わせが、オンデマンド講義のコンテンツとして受講者Sに提供されると、受講者Sは、そのコンテンツを受講者端末3にダウンロード等して再生する。すると、受講者端末3にレジュメRが表示されて、講師Tの講義が始まる。受講者Sは、受講者端末3に表示されたレジュメRを見ながら、講師Tの講義の内容を聴くことでオンデマンド講義を受講する。このとき、受講者端末3に表示されるレジュメR及び受講者視線Lsは、講義開始から経過した時間に対応付けられて、受講者側情報として記録される。 When the combination of the recorded speech data of the lecture and the data of the resume R is provided to the student S as the content of the on-demand lecture, the student S downloads the content to the student terminal 3. to play. Then, the resume R is displayed on the student terminal 3, and the lecture by the lecturer T begins. A student S takes an on-demand lecture by listening to the content of the lecture given by the lecturer T while looking at the resume R displayed on the student terminal 3 . At this time, the resume R and the student's line of sight Ls displayed on the student terminal 3 are recorded as student-side information in association with the time that has elapsed since the start of the lecture.

本サービスでは、記録された講師側情報と受講者側情報との比較が行われる。この比較により、講師Tがどこを見ながら講義を行い、受講者Sがどこを見ながら受講しているのかを経時的に把握することが可能となる。比較の結果、例えば受講者視線Lsが講師視線Ltに追従する動きがみられる場合には、視線同調という現象が発生しているといえる。 In this service, the recorded instructor side information and student side information are compared. By this comparison, it is possible to grasp over time what the lecturer T is looking at during the lecture and what the student S is looking at while attending the lecture. As a result of the comparison, if, for example, the student's line of sight Ls follows the lecturer's line of sight Lt, it can be said that the phenomenon of line-of-sight synchronization has occurred.

まず、視線同調の原理について説明する。「視線同調」とは、講師視線Ltにより示される「講義の内容の説明」という過程と、受講者視線Lsにより示される「講義の内容の理解」という過程とが同期された現象のことをいう。講師TがレジュメRの所定位置を見ながら説明し、これを受講者Sが真剣に聞きながら同じレジュメRを見るならば、講義の進行とともに講師T及び受講者SがレジュメRの同じ位置を追従するように順次見ていくことになる。このようなときに視線同調が発赤する。視線同調の発生は、講師側と受講者側との学習に関する内的状態の一致を示している。 First, the principle of line-of-sight synchronization will be described. "Gaze Synchronization" refers to a phenomenon in which the process of "explaining the content of the lecture" indicated by the instructor's line of sight Lt and the process of "understanding the content of the lecture" indicated by the student's line of sight Ls are synchronized. . If the lecturer T gives an explanation while looking at a predetermined position of the resume R and the student S looks at the same resume R while listening seriously, the lecturer T and the student S will follow the same position of the resume R as the lecture progresses. I will look at it step by step. In such a case, line-of-sight synchronization becomes red. The occurrence of line-of-sight synchronization indicates the matching of internal states regarding learning between the instructor and the student.

視線同調は、一般的には、オンラインによるライブ講義や対面形式の講義において、講師側と受講者側とが画面やスライドを共有しているときに発生する現象であると認識されている。本サービスでは、講師Tが講義内容を記録するタイミングと、受講者Sが講義内容を視聴するタイミングとの間に時間的な隔たりがあるオンデマンド講義であっても、受講者Sが講義にコミットしているのであれば視線同調の発生を検出することができる。また,オンデマンド講義は、講師T1人に対して受講者Sが多数存在することが前提となるが、本サービスでは、複数の受講者Sの受講者側情報が夫々取得されるので、個々の受講者Sの視線同調の発生を検知することができる。その結果、1対n(nは1以上の整数値)の多様なオンデマンド講義における受講者Sの個々の内的状態の推定が可能となる。 Gaze synchronization is generally recognized as a phenomenon that occurs when the lecturer and students share screens and slides in online live lectures and face-to-face lectures. In this service, even in an on-demand lecture in which there is a time gap between the timing at which the lecturer T records the lecture content and the timing at which the student S views the lecture content, the student S commits to the lecture. If so, the occurrence of line-of-sight alignment can be detected. In addition, on-demand lectures are premised on the presence of a large number of students S for one lecturer T, but in this service, since student-side information of a plurality of students S is acquired, individual Occurrence of gaze synchronization of the student S can be detected. As a result, it becomes possible to estimate the internal state of each student S in various on-demand lectures of 1:n (where n is an integer value of 1 or more).

次に、視線同調の計算原理について説明する。近年のICT技術及びAI(人工知能)技術の進歩により、カメラで撮像された画像のデータに基づく実時間の視線検出が可能になった。これにより、図1に示すように、講師Tによる講義収録時における講師視線Ltと、受講者Sの受講時(再生時)における受講者視線Lsとを抽出することで、視線同調の発生を検出することができる。以下、具体的なステップについて説明する。 Next, the calculation principle of line-of-sight synchronization will be described. Recent advances in ICT technology and AI (artificial intelligence) technology have enabled real-time line-of-sight detection based on image data captured by a camera. As a result, as shown in FIG. 1, the occurrence of line-of-sight synchronization is detected by extracting the lecturer's line of sight Lt when the lecturer T recorded the lecture and the student's line of sight Ls when the student S took the lecture (during playback). can do. Specific steps will be described below.

まず、オンデマンド講義提供者によるオンデマンド講義のコンテンツが作成される。具体的には、講師Tが、講師端末2の画面の少なくとも一部に表示されたレジュメRを意図的に見ながら説明する。このとき、講師視線Ltと、講師Tの身体の動きの履歴と、講師Tの説明の音声のデータとが記録される(ステップS1)。具体的には、講師Tが使用するレジュメRの記録が行われるとともに、講師Tを撮像した画像のデータから、講師視線Ltと、講師Tの身体の動きが記録される。そして、講師視線Lt、及び講師Tの身体の動きの記録は、講義の収録後に分析される。分析の結果は、講師Tが講義中にレジュメRを注視しているために視線同調が発生しているタイミングと、講師TがレジュメRを見ていない等のために視線同調が発生していないタイミングが抽出される際に利用される。 First, content for an on-demand lecture is created by an on-demand lecture provider. Specifically, the lecturer T explains while intentionally looking at the resume R displayed on at least a part of the screen of the lecturer terminal 2 . At this time, the instructor's line of sight Lt, the history of the instructor's T body movements, and the speech data of the instructor's explanation are recorded (step S1). Specifically, the resume R used by the lecturer T is recorded, and from the data of the image of the lecturer T, the lecturer's line of sight Lt and the movement of the lecturer T's body are recorded. Then, the lecturer's line of sight Lt and the recording of the lecturer's T body movements are analyzed after the lecture is recorded. As a result of the analysis, the timing at which line-of-sight synchronization occurs because lecturer T is gazing at resume R during the lecture and the line-of-sight synchronization does not occur because lecturer T is not looking at resume R. Used when timing is extracted.

ここで、「画面の少なくとも一部」としたのは、必ずしもレジュメRが講師端末2の画面全体に表示されるわけではなく、いわゆるデスクトップ画面の任意の位置に任意の大きさに変更されて表示することができるからである。この点については後述する受講者端末3の少なくとも一部にレジュメRが表示される場合も同様である。
また、「意図的に」としたのは、講師TによってはレジュメRを見ることなく講義が行われる場合もあるため、このような場合には視線同調の趣旨が没却されてしまうからである。このため、オンデマンド講義のコンテンツが作成される際には、講師TにレジュメRを意図的に見てもらいながら講義を行ってもらう必要がある。
Here, "at least part of the screen" means that the resume R is not necessarily displayed on the entire screen of the lecturer terminal 2, but is displayed at an arbitrary position on the so-called desktop screen in an arbitrary size. Because you can. This point is the same when the resume R is displayed on at least a part of the student terminal 3, which will be described later.
In addition, the reason why the word "intentionally" is used is that, depending on the lecturer T, there are cases where the lecture is given without looking at the resume R, and in such a case, the purpose of line-of-sight synchronization is lost. . For this reason, when the content of an on-demand lecture is created, it is necessary to have the lecturer T give the lecture while intentionally viewing the resume R.

受講者Sは、受講者端末3の少なくとも一部に表示されたレジュメRを見ながら講師Tの講義を受講する。このとき、受講者視線Lsが記録される(ステップS2)。具体的には、受講者端末3の撮像機能により受講者Sの顔及び上半身を撮像して記録した動画像のデータから特徴量が抽出される。この場合、受講者Sの視線や姿勢等が継続的に抽出されて、視線同調の発生が検出される。 A student S attends a lecture by a lecturer T while looking at a resume R displayed on at least a part of the student terminal 3 . At this time, the student's line of sight Ls is recorded (step S2). Specifically, the feature amount is extracted from the moving image data recorded by capturing the face and upper body of the student S using the imaging function of the student terminal 3 . In this case, the line of sight, posture, etc. of the student S are continuously extracted, and the occurrence of line-of-sight synchronization is detected.

講師視線Lt及び受講者視線Lsが記録されると、両者の同調の程度が算出される(ステップS3)。
講師T及び受講者Sは、いずれも同じレジュメRを夫々見ているので、講師Tが説明するレジュメRの所定部位を見つめて話し、受講者Sがその説明を聞きながらレジュメRの所定部位を見つめているのであれば、講師T及び受講者Sの夫々の視線は、レジュメRの同じ部位を見ている蓋然性が高い。そこで、本サービスでは、講師視線Lt及び受講者視線Lsの夫々をレジュメRに重畳させて表示して、時々刻々と移動する両者の距離(以下、「視線間距離」)を計算する。これにより、視線間距離は、視線の揺らぎと計測の誤差の範囲内に収まることが期待できる。
When the instructor's line of sight Lt and the student's line of sight Ls are recorded, the degree of synchronization between the two is calculated (step S3).
Since both the lecturer T and the student S are looking at the same resume R, they stare at a predetermined part of the resume R explained by the lecturer T and speak, and the student S listens to the explanation and looks at the predetermined part of the resume R. If they are staring at each other, there is a high probability that the instructor T and the student S are looking at the same part of the resume R with their respective line of sight. Therefore, in this service, the instructor's line of sight Lt and the student's line of sight Ls are displayed superimposed on the resume R, and the moving distance between the two (hereinafter referred to as "distance between the lines of sight") is calculated. As a result, it can be expected that the line-of-sight distance will be within the range of line-of-sight fluctuation and measurement error.

本サービスには、講師視線Ltを記録することで新規に作成したオンデマンド講義のコンテンツで視線同調を検出するサービスの他に、講師視線Ltを利用しないサービスも含まれる。例えば、講師視線Ltが記録されていない既存のオンデマンド講義を真剣に受講する複数の受講者視線Lsを記録して、受講者Sが見るべきレジュメRの部位を明示する、受講者S向けのサービスがある。この受講者S向けのサービスは、既存のオンデマンド講義を複数の受講者Sが講義を受講し、そのときの複数の受講者視線Lsを記録する。これにより、n人の受講者Sが真剣に講義を受講しているのであれば、n人の受講者Sの受講者視線Lsのうち多くはレジュメRに重畳するかこれに近い位置に表示されるはずである。このときのn人の受講者Sの受講者視線Lsの位置は、講義の説明の流れの中における各タイミングで受講者Sが見るべき位置となる。 This service includes not only a service for detecting line-of-sight synchronization in on-demand lecture content newly created by recording the line-of-sight Lt of the lecturer, but also a service that does not use the line-of-sight Lt of the lecturer. For example, by recording the line of sight Ls of a plurality of students seriously taking an existing on-demand lecture in which the lecturer's line of sight Lt is not recorded, and specifying the part of the resume R that the student S should see, There is service. In this service for students S, a plurality of students S take an existing on-demand lecture and record the lines of sight Ls of the students at that time. As a result, if the n students S are seriously attending the lecture, most of the student's line of sight Ls of the n students S is superimposed on the resume R or displayed at a position close to it. should be The position of the student's line of sight Ls of the n students S at this time is the position that the student S should look at at each timing in the flow of the explanation of the lecture.

n人の受講者Sの夫々の視線を記録の結果を見ると、n人の受講者Sの夫々の視線が幅広く分散する場合がある。この場合、そのタイミングにおける講義の文脈は、レジュメRの特定の部位を見るのではなく、n人の受講者Sが、夫々興味や解釈の異なる部位を見ていることが推定される。この場合、そのタイミングにおけるn人の受講者Sの夫々の視線の相互間距離は、視線同調の情報としての重要性は低い。これに対して、n人の受講者Sの夫々の視線の分散が少ないタイミングにおける視線の相互間距離は、より重要性が高い情報として評価される。 Looking at the result of recording the line of sight of each of the n students S, the lines of sight of each of the n students S may be widely dispersed. In this case, the context of the lecture at that timing is presumed not to look at a specific part of the resume R, but to look at parts of n students S who have different interests and interpretations. In this case, the mutual distance between the lines of sight of the n students S at that timing is of low importance as information for line-of-sight synchronization. On the other hand, the mutual distance between the sight lines of the n students S at the timing when the dispersion of the sight lines is small is evaluated as information with higher importance.

また、n人の受講者Sの中には、時として、気が散ったり、他に興味を示したりする者も存在する。このような場合、少人数の視線の動きが異なることになるので、例えばn人の受講者Sの視線の平均値からの距離や、その前後の時間の距離等を指標とすることで、異なる視線の動きを示した少人数の受講者Sの夫々の受講者側情報は、視線同調の計算から除くこともできる。
n人の受講者Sの視線のばらつきに関する情報は、講師側情報から得られない情報であり、そのタイミングにおける説明の文脈の情報を加味するための「重み付け」となる情報である。このため、講師視線Ltを用いたオンデマンド講義のコンテンツを新規に作成してn人の受講者Sに提供して視線を記録した後、この「重み付け」となる情報を生成して、後付けとなるオプション情報として新たな受講者Sに提供することもできる。また、今後の講義の参考情報として講師Tに提供することもできる。
In addition, some of the n students S are sometimes distracted or show other interests. In such a case, the movement of the line of sight of a small number of students will be different. The student-side information of each of the small number of students S who showed eye-gaze movement can also be excluded from the calculation of eye-gaze alignment.
The information on the variation in the line of sight of the n students S is information that cannot be obtained from the instructor's side information, and is information that serves as "weighting" for adding information on the context of the explanation at that timing. For this reason, after creating a new on-demand lecture content using the lecturer's line of sight Lt and providing it to n students S to record the line of sight, the information to be this "weighting" is generated, and added as an afterthought. It can also be provided to a new student S as optional information. It can also be provided to the lecturer T as reference information for future lectures.

また、講義の質は、講師Tの話し方や説明の手法といった講義の進め方だけではなく、講義に使用する資料(例えばレジュメR等)も大きく影響する。具体的には例えば、講師Tの講義の内容が適切であったとしても、講義に使用する資料と説明の順番が異なったり、資料に関係のない説明がなされたり、資料の情報量に対して説明の情報量が過多であったりする場合がある。このような場合には、資料と講師Tの説明との間に乖離が起きているため、受講者Sは資料のどこを見ればよいのかを適切に判断することができず、講義の内容を理解することが困難になる。資料と講師Tの説明との間に乖離が起きると、受講者Sの視線にばらつきが生じ、個々の受講者Sにおける視線同調も起こり難くなり、受講者Sの集団としての視線分布も分散が大きくなる。
これに対して、資料に含まれていない内容が講師Tの説明に含まれていたとしても、講義の内容に沿った要点を講師Tが口頭で教示できるならば、受講者Sは資料を適切に目で追ってその内容を理解することができる。この場合、視線同調が発生する蓋然性が高くなる。
このように、本サービスでは、視線同調の発生の比率や時間の分布を用いることで、講師Tが使用する資料が講師Tの実際の説明と合っているかどうかを判断することもできる。
In addition, the quality of a lecture is greatly affected not only by the manner in which the lecture is conducted, such as the speaking style of the lecturer T and the method of explanation, but also by materials used in the lecture (eg, resume R, etc.). Specifically, for example, even if the content of Lecturer T's lecture is appropriate, the order in which the materials used in the lecture and the explanations are given may be different, or explanations may be given that are not related to the materials. The amount of information in the explanation may be excessive. In such a case, since there is a discrepancy between the material and the lecturer T's explanation, the student S cannot properly judge where to look in the material, and the contents of the lecture cannot be understood. difficult to understand. If there is a discrepancy between the materials and the lecturer T's explanation, the line of sight of the students S will vary, it will be difficult for the individual students S to synchronize their lines of sight, and the distribution of the line of sight of the students S as a group will also vary. growing.
On the other hand, even if lecturer T's explanation includes content that is not included in the material, if lecturer T can verbally teach the main points in line with the content of the lecture, student S will be able to use the material appropriately. It is possible to understand the contents by following with the eyes. In this case, the probability of occurrence of line-of-sight synchronization increases.
Thus, in this service, it is possible to determine whether or not the material used by the lecturer T matches the actual explanation of the lecturer T by using the occurrence rate of line-of-sight synchronization and the time distribution.

従来、目は心の窓ともいわれている。このため、講師Tの説明に対する受講者視線Lsに基づいて受講者Sの理解の度合いを推定することができる。オンデマンド講義では、視線同調として講師Tと受講者Sとが同じ位置を見るだけではなく、(1)講師Tの視線が先に動き、受講者Sの視線が追従する、(2)受講者Sが講師Tの説明の先を予測してレジュメRの先読みをする、(3)受講者Sが前の説明の箇所に戻って内容を確認する、など講義に対する受講者Sの理解を表す視線の動きが予想される。本サービスでは、このような講師視線Ltと受講者視線Lsとの相互作用についての特徴量が検出されて、個々の受講者Sの内的状態が推定されることで学習の質が評価される。 Traditionally, the eyes are said to be the window to the soul. Therefore, the degree of understanding of the student S can be estimated based on the student's line of sight Ls with respect to the lecturer T's explanation. In the on-demand lecture, not only are the lecturer T and the student S looking at the same position as line-of-sight synchronization, but (1) the line of sight of the lecturer T moves first and the line of sight of the student S follows, and (2) the students. The line of sight that expresses the understanding of the student S for the lecture, such as S pre-reading the resume R by predicting the future of the lecturer T's explanation, (3) the student S returning to the previous explanation and confirming the content. movement is expected. In this service, the quality of learning is evaluated by detecting the feature amount of the interaction between the instructor's line of sight Lt and the student's line of sight Ls, and estimating the internal state of each student S. .

図2は、講義の受講中に受講者端末に表示される画面の具体例を示す図である。 FIG. 2 is a diagram showing a specific example of a screen displayed on a student terminal during a lecture.

講師Tが講師端末2の画面の少なくとも一部に表示されたレジュメRを見ながら講義を行うと、それと同時に講義の内容と講師視線Ltとが記録されて、オンデマンド講義のコンテンツが作成される。
受講者Sは、オンデマンド講義を受講する場合、受講者端末3を操作して、画面の少なくとも一部分に、レジュメRと、講師Tの顔の撮像画像とを表示させる。受講者Sがオンデマンド講義を受講すると、その講義中に、受講者Sの顔が撮像されて受講者視線Lsが記録される。そして、講師Tと受講者Sとの夫々がレジュメRのどの部分を見ているかを示す講師側情報と受講者側情報とが夫々取得される。そして、講師側情報と受講者側情報とに基づいて視線同調が検出される。視線同調を検出する際、AI(人工知能)の技術が利用される。また、講師視線Lt及び受講者視線Lsの夫々と、レジュメR画面上の位置とを合わせるためのキャリブレーションの処理をどのように行うかについては特に限定されないが、本実施形態で以下の手法が用いられる。即ち、まず、レジュメRの四隅の夫々に所定のマークを順番に表示させて、受講者Sがそのマークを注視する。そして、そのマークに代わる文字が表示された瞬間に口頭でその旨を報告する。
When the lecturer T gives a lecture while looking at the resume R displayed on at least a part of the screen of the lecturer terminal 2, the contents of the lecture and the lecturer's line of sight Lt are recorded at the same time, and the content of the on-demand lecture is created. .
When the student S attends the on-demand lecture, the student S operates the student terminal 3 to display the resume R and the captured image of the instructor T's face on at least a part of the screen. When a student S attends an on-demand lecture, the face of the student S is imaged and the student's line of sight Ls is recorded during the lecture. Then, the instructor side information and the student side information indicating which part of the resume R each of the instructor T and the student S is viewing are obtained. Then, line-of-sight synchronization is detected based on the instructor side information and the student side information. AI (artificial intelligence) technology is used to detect line-of-sight alignment. In addition, there is no particular limitation on how the calibration process is performed to align the instructor's line of sight Lt and the student's line of sight Ls with the position on the resume R screen. Used. That is, first, predetermined marks are displayed in order at the four corners of the resume R, and the student S gazes at the marks. Then, at the moment when the character replacing the mark is displayed, the fact is verbally reported.

図3は、受講者と講師との視線間距離を示すグラフである。 FIG. 3 is a graph showing the line-of-sight distance between the student and the lecturer.

図3に示すグラフの縦軸は、レジュメRの横幅を基準長さ1とする視線間距離を示している。また、横軸は、208秒間のフレーム数(208秒×25fps=5200フレーム)を示している。具体的には、1枚のレジュメRを視聴する208秒間の受講者視線Lsと講師視線Ltとの視線間距離が示されている。視線間距離は、受講者Sの授業参加の質を評価するための情報として活用することができる。
図3に示すように、視線間距離0.2以下を多く含む区間(破線四角形の枠で囲まれた区間)と、視線間距離0.6以上を多く含む区間(実線四角形の枠で囲まれた2つの区間)が特徴的となる。視線同調が発生している区間では、視線間距離が小さくなるため、視線間距離0.2以下を多く含む区間では視線同調が発生している蓋然性が高い。なお、視線間距離0.2以下を多く含む区間であっても突発的に大きな視線間距離が出るタイミングがある。これは、視覚目標を視力の高い網膜中心窩で捉えるための急速眼球運動であるサッケード等により、講師T又は受講者Sの視線が急速に動いたタイミングである可能性が高い。視線間距離0.6以上を多く含む区間は、講師視線Lt及び受講者視線Lsの夫々がレジュメRの横幅の0.6倍、即ちレジュメRの左右に分かれる程度以上に離れていることを示している。ただし、視線間距離0.6以上を多く含む区間の時間は短く、例えば実線四角形で囲まれた2つの区間のうち、左側の区間のように突発的な場合と、右側の区間のように数秒間続く場合とがある。
以下、図4を参照して、このように突発的又は持続的に生じる大きな視線間距離について説明する。
The vertical axis of the graph shown in FIG. 3 indicates the line-of-sight distance when the horizontal width of the resume R is set to 1 as the reference length. Also, the horizontal axis indicates the number of frames in 208 seconds (208 seconds×25 fps=5200 frames). Specifically, the line-of-sight distance between the student's line of sight Ls and the lecturer's line of sight Lt for 208 seconds for viewing one resume R is shown. The line-of-sight distance can be used as information for evaluating the quality of student S' participation in class.
As shown in FIG. 3, there are a section including many eye-to-sight distances of 0.2 or less (the section surrounded by the dashed square frame) and a section including many eye-to-sight distances of 0.6 or more (the solid-line rectangle frame). two sections) are characteristic. Since the inter-line-of-sight distance is small in a section in which line-of-sight alignment occurs, there is a high probability that line-of-sight alignment has occurred in a section including many inter-line-of-sight distances of 0.2 or less. Note that even in a section including many eye-to-sight distances of 0.2 or less, there is a timing at which a large eye-to-sight distance suddenly appears. There is a high possibility that this is the timing when the line of sight of the lecturer T or the student S moves rapidly due to a saccade or the like, which is a rapid eyeball movement for capturing the visual target at the fovea centralis of the retina, which has high visual acuity. Sections that include many distances between the line of sight of 0.6 or more indicate that the line of sight Lt of the lecturer and the line of sight of the student Ls are separated by 0.6 times the width of the resume R, that is, at least to the extent that the resume R is divided into left and right. ing. However, the duration of the section containing a lot of eye-to-sight distances of 0.6 or more is short. It may last for seconds.
Hereinafter, such a sudden or persistently large inter-line-of-sight distance will be described with reference to FIG.

図4は、図3と異なる他の受講者と講師との視線間距離を示すグラフである。
即ち、図4に示すグラフは、図3の例の受講者Sとは異なる他の受講者Sと教師Tとの視線間距離を示している。
FIG. 4 is a graph showing the line-of-sight distance between another student and the lecturer different from FIG.
That is, the graph shown in FIG. 4 shows the distance between the gazes of the teacher T and another student S different from the student S in the example of FIG.

図4に示すグラフにおける縦軸及び横軸は図3と同様である。図4に示すように、実線四角形の枠で囲まれた区間では、0.5以上の長い視線間距離が断続的に発生している。また、その他の長い視線間距離の発生は、図3に示す受講者Sとは異なるパターンを示している。実線四角形の枠の区間では、受講者Sが受講者端末3から視線を外して手元のノートを見ている時間帯であったため、視線間距離が長くなった。また、視線間距離が短い区間は、図3と同様に受講者Sが講師Tの説明に適切に追従しているため、視線同調が発生している蓋然性が高い。 The vertical and horizontal axes in the graph shown in FIG. 4 are the same as in FIG. As shown in FIG. 4 , in the section surrounded by the solid-line square frame, a long eye-to-sight distance of 0.5 or more intermittently occurs. In addition, the occurrence of other long eye-to-sight distances shows a pattern different from that of the student S shown in FIG. In the section framed by the solid-line square, the distance between the line of sight was long because the student S was looking at the notebook at hand while looking away from the student terminal 3 . In addition, since the student S appropriately follows the lecturer T's explanation in the section where the eye-to-sight distance is short, as in FIG.

図4及び上述した図3に示すように、受講者Sの視線間距離が短い区間で視線同調が発生しているときには、(1)小さな突発的な距離の増加はあるが、おおむね視線間距離0.2以下に収まっている比率が高い。また、0.5以上の視線間距離が発生する区間では、(2)突発的に短時間だけ視線間距離が長くなる場合と、(3)一定の時間幅で視線間距離が長くなる場合と、(4)より長時間にわたり断続的に視線間距離が長い状態が続く場合とがある。これら(1)~(4)には、夫々の背後に発生の根拠となる講師視線Lt及び受講者視線Lsと、それを引き起こす受講者Sの内的状態とがあるものと考えられる。
以下、図5を参照して、講師視線Ltと、受講者視線Lsと、視線間距離との関係について説明する。
As shown in FIG. 4 and FIG. 3 described above, when eye-gaze synchronization occurs in a section where the eye-to-eye distance of the student S is short, (1) there is a small sudden increase in the eye-to-eye distance, but the eye-to-eye distance is generally A high proportion of them are 0.2 or less. Also, in the section where the line-of-sight distance of 0.5 or more occurs, (2) when the line-of-sight distance suddenly increases for a short period of time, and (3) when the line-of-sight distance increases for a certain time width. , (4) intermittently for a long period of time, the distance between the eyes continues to be long. Behind these (1) to (4) are the instructor's line of sight Lt and the student's line of sight Ls, which are the grounds for their occurrence, and the internal state of the student S that causes them.
Hereinafter, the relationship between the instructor's line of sight Lt, the student's line of sight Ls, and the distance between the lines of sight will be described with reference to FIG.

図5は、図3の例に対応する、講師の視線の移動速度と、受講者の視線の移動速度と、視線間距離との関係性を示すグラフである。 FIG. 5 is a graph showing the relationship between the instructor's line-of-sight movement speed, the student's line-of-sight movement speed, and the distance between the lines of sight, corresponding to the example of FIG.

図5のグラフには、上段、中段、及び下段の夫々に、視線間距離と、受講者の視線の移動速度と、講師の視線の移動速度との夫々が示されている。
「視線の移動速度」とは、連続したフレーム間における視線の移動の距離のことをいう。また、図5のグラフには、縦に伸びた複数種類の破線により複数の区間が示されている。このうち、破線Lf1乃至Lf7の夫々は、講師Tの視線の移動速度が前後に比べて速くなった箇所を示している。また、破線Li1乃至Li7の夫々は、受講者Sの視線がインパルス的(衝動的)に動いた箇所を示している。
In the upper, middle, and lower graphs of FIG. 5, the line-of-sight distance, the student's line-of-sight movement speed, and the lecturer's line-of-sight movement speed are shown, respectively.
The “movement speed of the line of sight” refers to the distance of movement of the line of sight between consecutive frames. Also, in the graph of FIG. 5, a plurality of sections are indicated by a plurality of types of vertically extending dashed lines. Of these lines, broken lines Lf1 to Lf7 indicate locations where the moving speed of the line of sight of the instructor T is faster than before and after. Broken lines Li1 to Li7 indicate locations where the line of sight of the student S impulsively (impulsively) moves.

上述したように、本サービスでは、1人の講師Tとn人の受講者Sの夫々との間の視線間距離が短い場合には、視線同調が発生している蓋然性が高い。しかしながら、視線間距離が短いという事実のみでは、講師Tと受講者SとがレジュメRの近い位置を見ていて、おそらく集中した講義になっているであろうことは推定できても、それ以上の情報を得ることはできない。一方で、上述したように視線は心の窓ともいわれるため、講師Tと受講者Sとの視線の細かな相互作用はそれ以上の内容を表していることが期待できる。視線同調は、講師Tの視線に対する受講者Sの視線の追従という現象であるが、両者の視線間距離の変化にはいくつかの相互作用のパターンが存在する。本サービスでは、これらのパターンの評価が行われて、その評価結果が受講者Sの内的状態を推定するための有用な情報として利用される。以下、視線間距離の変化のパターンの具体例について、図5のグラフを参照して説明する。 As described above, in this service, when the line-of-sight distance between one lecturer T and n students S is short, there is a high probability that line-of-sight synchronization has occurred. However, based only on the fact that the line-of-sight distance is short, it can be estimated that lecturer T and student S are looking at positions close to resume R, and that the lecture is likely to be focused. information cannot be obtained. On the other hand, since the line of sight is said to be the window of the mind as described above, it can be expected that the detailed interaction of the line of sight between the lecturer T and the student S expresses more than that. Line-of-sight synchronization is a phenomenon in which the line of sight of student S follows the line of sight of lecturer T, and there are several interaction patterns in the change in the distance between the lines of sight of the two. In this service, these patterns are evaluated, and the evaluation results are used as useful information for estimating the student's internal state. A specific example of the pattern of change in the distance between eyes will be described below with reference to the graph of FIG.

まず、視線間距離の変化のパターンは、パターンA乃至Eの5種類に分類される。このうち、パターンAは、受講者視線Lsが講師視線Ltに追従するという変化のパターンである。パターンAの場合、講師Tが先に新しい位置に視線を動かしてそこに書かれている内容を説明し、受講者Sがそれに気が付いて視線を追従させる。パターンAでは、講師Tの視線が先に大きく動くことで視線間距離が拡大し、次いで受講者Sの視線が追従することで視線間距離が縮まる。 First, the patterns of change in the distance between the sight lines are classified into five types of patterns A to E. FIG. Of these patterns, pattern A is a change pattern in which the student's line of sight Ls follows the lecturer's line of sight Lt. In the case of pattern A, the lecturer T first moves his line of sight to a new position and explains what is written there, and the student S notices this and makes his line of sight follow. In the pattern A, the line of sight of the lecturer T moves first to increase the line-of-sight distance, and then the line of sight of the student S follows the line of sight to shorten the line-of-sight distance.

パターンBは、受講者視線Lsが確認に戻るという変化のパターンである。パターンBの場合、受講者Sが自分の認識確認のために、講師Tが以前に説明した位置に視線を戻して、その後、講師Tの説明に追従するために視線を動かす。このような視線の動きは,受講者Sが講義の理解に不安を感じて直前の資料を見直そうとする気持ちを表すものと推定される。パターンBでは、受講者Sの視線が、以前に見た位置に大きく戻るように動くことで視点間距離が拡大し、少し間をおいて再び受講者Sの視線が講師Tの視線に追従するように動くことで視点間距離が縮まる。 Pattern B is a change pattern in which the student's line of sight Ls returns to confirmation. In the case of pattern B, the student S returns his line of sight to the position previously explained by the lecturer T to confirm his recognition, and then moves his line of sight to follow the lecturer T's explanation. It is presumed that such a movement of the line of sight indicates that the student S feels uneasy about understanding the lecture and tries to review the material immediately before. In pattern B, the line of sight of student S moves back to the previously seen position, thereby increasing the distance between the viewpoints, and after a short interval, the line of sight of student S follows the line of sight of lecturer T again. By moving like this, the distance between viewpoints is shortened.

パターンCは、受講者視線Lsが先読みするという変化のパターンである。パターンCの場合、受講者Sが講師Tの説明の先読みをするように次の説明の位置を見て、講師Tの説明がそれに追従する。このような視線の動きは,受講者Sが講義を積極的に理解しようという気持ちを表すものと推定される。パターンCでは、受講者Sの視線がこれまで見ていなかった位置に向かって大きく動くことで視点間距離が拡大し、少し間をおいて講師Tの視線がその位置に向かって動くことで視点間距離が縮まる。 Pattern C is a change pattern in which the student's line of sight Ls looks ahead. In the case of pattern C, the student S looks at the position of the next explanation so as to read ahead the lecturer T's explanation, and the lecturer T's explanation follows it. It is presumed that such a movement of the line of sight expresses the intention of the student S to actively try to understand the lecture. In pattern C, the line of sight of student S moves greatly toward a position that has not been seen before, thereby increasing the distance between the viewpoints. the distance between them is reduced.

パターンDは、講師Tが視線を外すという変化のパターンである。パターンDの場合、講師Tの視線が、受講者Sが見ている領域から離れ、少し間をおいて再び戻ってくる。例えば講師TがレジュメRではないものを見た場合には、講師視線LtがレジュメRの範囲の外側に動く。このタイミングにおける視線間距離は受講者Sの内的状態の推定に採用されない。 Pattern D is a change pattern in which the instructor T looks away. In the case of pattern D, the line of sight of the lecturer T leaves the area viewed by the student S, and returns again after a short interval. For example, when the lecturer T sees something other than the resume R, the lecturer's line of sight Lt moves outside the range of the resume R. The line-of-sight distance at this timing is not used for estimating the student's S internal state.

パターンEは、受講者Sがよそ見をするという変化のパターンである。パターンEの場合、受講者Sの視線が、レジュメRの範囲の外側に動く。パターンEでは,受講者Sがノートをとったりノートを見たりするために、受講者端末3から視線を外す行動も含まれるため、より詳細に分析が行われる。 Pattern E is a change pattern in which student S looks away. In the case of pattern E, the line of sight of the student S moves outside the range of the resume R. In pattern E, since the behavior of the student S taking notes or looking at the notes includes the action of looking away from the student terminal 3, a more detailed analysis is performed.

ここで、図5を参照して、視線間距離に両者の視線の移動速度を加えて、視線間距離の変化の背景となる視線移動がより細かく分析して評価した例について説明する。
図5のグラフは、講師視線Ltと受講者視線Lsとの視線間距離を示すグラフ(上段のグラフ)と、講師視線Ltの速さ(下段のグラフ)と、受講者視線Lsの速さ(中段のグラフ)とを時間軸に添って示したものである。
Here, with reference to FIG. 5, an example will be described in which the moving speed of the line of sight between the two is added to the distance between the lines of sight, and the movement of the line of sight, which is the background to the change in the distance between the lines of sight, is analyzed and evaluated in more detail.
The graphs in FIG. 5 show the distance between the line of sight Lt of the instructor and the line of sight Ls of the student (upper graph), the speed of the instructor's line of sight Lt (lower graph), and the speed of the student's line of sight Ls (lower graph). middle graph) are shown along the time axis.

図5のグラフには、上述の破線Lf1乃至Lf7、及び破線Li1乃至LI7のうちいずれか2本の破線で夫々示される複数の区間が表されている。具体的には、破線Li1及びLi2で示される区間a1と、破線Lf1及びLi3で示される区間a2と、破線Li4及びLi5で示される区間a3と、破線Lf2及びLf3で示される区間a4と、破線Lf4及びLi6で示される区間a5と、破線Lf5及びLf6で示される区間a6と、破線Lf7及びLi7で示される区間a7とが表されている。 The graph of FIG. 5 represents a plurality of sections each indicated by any two of the above-described broken lines Lf1 to Lf7 and broken lines Li1 to LI7. Specifically, a section a1 indicated by dashed lines Li1 and Li2, a section a2 indicated by dashed lines Lf1 and Li3, a section a3 indicated by dashed lines Li4 and Li5, a section a4 indicated by dashed lines Lf2 and Lf3, and a A section a5 indicated by Lf4 and Li6, a section a6 indicated by broken lines Lf5 and Lf6, and a section a7 indicated by broken lines Lf7 and Li7 are shown.

これらの複数の区間のうち、A1と表記された区間a2と、A2と表記された区間a5と、A3と表記された区間a7とは、上述のパターンAに対応する特徴を示す視線間距離の大きな区間である。
区間a2、a5、及びa7では、視線間距離が拡大するタイミングでは、講師視線Ltが連続して大きく動く。また、視点間距離が減少するタイミングでは、受講者視線Lsがインパルス的に動く。これは、講師Tの視線の動きはサッケード的ではなく、レジュメRの説明の進行に応じて徐々に視線が動くことで視線間距離が広がり、ある程度それが溜まって視線間距離が開いた頃に受講者Sが気付き、その視線が説明の内容に追従してサッケード的に動くことが推定される。
具体的には例えば、区間a7では、講師TがレジュメRの左下部分の説明が一段落すると、急にレジュメRの右上に視線を移動させて、そこに記載されてる次の説明に移行した。そして、受講者Sがその変化に気付くまで約2秒程度要し、その後視線をレジュメRの右上に追従して移動させた。
Among these multiple sections, the section a2 denoted by A1, the section a5 denoted by A2, and the section a7 denoted by A3 are the distances between the line of sight indicating the features corresponding to the pattern A described above. It's a big section.
In sections a2, a5, and a7, the instructor's line of sight Lt continuously and greatly moves at the timing when the distance between the lines of sight increases. Further, at the timing when the inter-viewpoint distance decreases, the student's line of sight Ls moves impulsively. This is because Lecturer T's line of sight movement is not saccade-like, but as the line of sight moves gradually according to the progress of the explanation of the resume R, the distance between the line of sight widens, and when it accumulates to some extent, the distance between the line of sight widens. It is presumed that the student S notices and that his line of sight follows the content of the explanation and moves in a saccade-like manner.
Specifically, for example, in section a7, when lecturer T finished explaining the lower left part of resume R, he suddenly moved his line of sight to the upper right of resume R and shifted to the next explanation described there. It took about 2 seconds for the student S to notice the change, and then he moved his line of sight to follow the upper right of the resume R.

また、B1と表記された区間a1と、B2と表記された区間a3とは、上述のパターンBに対応する特徴を示す視線間距離が長い区間である。
区間a1及びa3では、視線間距離が長い区間の始まりと終わりとの夫々のタイミングに、受講者Sの視線移動がインパルス的に発生している。その一方で、講師Tの視線はほとんど動いていない。これは、受講者視線Lsが、講師視線Ltからいったん離れて、その後再び戻ってきている。なお、これだけでは、パターンBとパターンEとの区別ができないが、パターンBは、区間の時間幅が短いことが特徴となっている。
具体的には例えば、区間a1では、受講者Sが講師Tの話を聞いて急にレジュメRのタイトルを確認するために視線を動かし、その後再び講師Tの説明に対応する位置に視線を戻した。これにより、受講者視線Lsにインパルス的な距離変化が発生した。
Further, the section a1 indicated as B1 and the section a3 indicated as B2 are sections having a long inter-line-of-sight distance indicating the feature corresponding to the pattern B described above.
In the sections a1 and a3, the line-of-sight movement of the student S occurs impulsively at the start and end of the section with a long line-of-sight distance. On the other hand, the line of sight of the lecturer T hardly moves. This is because the student's line of sight Ls once leaves the lecturer's line of sight Lt, and then returns again. Although pattern B and pattern E cannot be distinguished only by this, pattern B is characterized by a short duration of the section.
Specifically, for example, in the section a1, the student S listens to the lecturer T and suddenly moves his line of sight to confirm the title of the resume R, and then returns his line of sight to the position corresponding to the lecturer T's explanation. rice field. As a result, an impulse-like distance change occurred in the student's line of sight Ls.

また、D1と表記された区間a4と、D2と表記された区間a6とは、上述のパターンDに対応する特徴を示す視線間距離が長い区間である。
区間a4及びa6では、視線間距離が長い区間の始まりと終わりとの夫々のタイミングに講師視線Ltが大きく動き、その後、短時間のうちに再び戻ってきている。ただし、時間幅が短く、また、区間a4及びa6の夫々の区間で講師Tが何を見ているかについては、図5のグラフから判断することはできない。
Also, the section a4 denoted by D1 and the section a6 denoted by D2 are sections having a long inter-line-of-sight distance, which indicates the feature corresponding to the pattern D described above.
In sections a4 and a6, the instructor's line of sight Lt moves significantly at the start and end of the section with a long distance between the lines of sight, and then returns again within a short period of time. However, the time width is short, and it is not possible to judge what the lecturer T is watching in each of the sections a4 and a6 from the graph of FIG.

なお、図5の例では、上述したパターンCに対応する視線の動きは見当たらない。傾向として、視線間距離の変化には、講師視線Ltの比較的ゆっくりかつ継続した変化によるものと、受講者視線Lsのサッケード的な速い変化が関係することが多い。これは受講者Sの受動的な追従が理由の1つになっている。即ち、講師Tは、計画的に説明をしていくにつれて意図された視線移動をするが、受講者Sは、レジュメRのある位置を見ているときに、講師Tの説明が先に進んでしまっていることに気付くと、急いで追いかける。受講者Sにはこのような受動的な追従が存在する。受動的な追従の有無については、同じオンデマンド講義を受講する他の受講者Sの受講者側情報を含む相対的な分析が行われることで特定することができる。 In addition, in the example of FIG. 5, the line-of-sight movement corresponding to the pattern C described above is not found. As a tendency, changes in the line-of-sight distance are often related to relatively slow and continuous changes in the instructor's line of sight Lt and saccade-like rapid changes in the student's line of sight Ls. One of the reasons for this is the student's passive follow-up. In other words, the lecturer T moves his/her line of sight as he systematically explains, but the lecturer T's explanation progresses ahead of the lecturer T when the student S is looking at a position of the resume R. When it notices that it's gone, it rushes after it. The student S has such passive follow-up. The presence or absence of passive follow-up can be specified by performing a relative analysis including student-side information of other students S who attend the same on-demand lecture.

以上、受講者Sが真剣に講師Tの説明に耳を傾けてレジュメRを見る事例について説明したが、受講者Sの中には真剣に説明を聞かない者も存在し得る。受講者SがレジュメRを見ていないタイミングは、視線の角度から容易に検出することができる。その一方で、受講者Sが講師Tの話を真剣に聞かずにレジュメRの別の位置を眺めていることを推定するためには分析が必要となる。そこで、図6乃至図8を参照して、受講者Sがオンデマンド講義を真剣に受講していない事例について説明する。
図6の(A)は、視線同調が発生している場合の視線間距離の時間変化を示すグラフである。
図6の(B)は、受講者がレジュメを見るものの、視線非同調が発生している場面における視線間距離の時間変化を示すグラフである。具体的には、図6の(B)のグラフは、図6の(A)のグラフの受講者視線の前半区間と後半区間とを入れ替えることで、受講者がレジュメを見てはいるが視線同調が発生していない場合を合成したグラフである。
図7は、図6の(A)のグラフと、図6の(B)のグラフとの視線間距離の分布を示すヒストグラムである。
図8の(A)及び(B)は、分析に使用されなかった他のレジュメでの視線間距離の分布を示すグラフである。
A case has been described above in which the student S seriously listens to the lecturer T's explanation and looks at the resume R, but there may be some students S who do not listen to the explanation seriously. The timing at which the student S is not looking at the resume R can be easily detected from the angle of the line of sight. On the other hand, in order to estimate that the student S is looking at another position of the resume R without listening to the lecturer T seriously, analysis is required. Therefore, a case where the student S does not take the on-demand lecture seriously will be described with reference to FIGS. 6 to 8. FIG.
(A) of FIG. 6 is a graph showing the change over time of the line-of-sight distance when line-of-sight synchronization occurs.
(B) of FIG. 6 is a graph showing the change over time of the distance between eyes in a scene where the student looks at the resume but the eyes are out of alignment. Specifically, the graph of (B) in FIG. 6 is obtained by exchanging the first half section and the second half section of the line of sight of the student in the graph of (A) in FIG. It is a graph synthesized when no tuning occurs.
FIG. 7 is a histogram showing the distribution of the line-of-sight distance between the graph of FIG. 6(A) and the graph of FIG. 6(B).
FIGS. 8A and 8B are graphs showing the distribution of the line-of-sight distance in other resumes that were not used in the analysis.

図6の(B)のグラフに示すように、講師視線Ltと受講者視線Lsとが偶然に接近して視線同調が発生しているかのように見えるタイミングも一部に含まれるが、多くは視線間距離が開き、視線同調が発生していない状態(以下、このような状態を「視線非同調」と呼ぶ)が発生している。その違いをより明確にするために、視線間距離のヒストグラムが図7に示されている。 As shown in the graph of FIG. 6(B), there are some timings when the instructor's line of sight Lt and the student's line of sight Ls accidentally approach each other and it seems as if line-of-sight synchronization has occurred. A state in which the line-of-sight distance is widened and line-of-sight synchronization is not occurring (such a state is hereinafter referred to as “line-of-sight non-synchronization”). To make the difference clearer, a histogram of the line-of-sight distance is shown in FIG.

図7に示すように、視線同調が発生している場合の分布と、視線非同調が発生している場合とでは、分布が大きく異なっている。図7の曲線Lh1は、視線同調が発生しているときの視線間距離の分布を示している。また、曲線Lh2は、視線非同調が発生しているときの視線間距離の分布を示している。視線同調が発生しているときには、視線間距離の多くは0.2以下であるのに対して、視線非同調が発生しているときには、視線間距離の分布のピークが0.3乃至0.4の区間に位置する。図7に示すヒストグラムを確率分布と捉えれることで、図7に示す2つの波形を容易に識別することができる。視線同調が発生している場合の視線間距離の分布の一般性を確認するために、図1乃至図7の説明に対応するレジュメRとは異なる他の2枚のレジュメRを用いた講義における視線間距離の分布を示したグラフが図8の(A)及び(B)に示されている。 As shown in FIG. 7, the distribution when line-of-sight alignment occurs is significantly different from the distribution when line-of-sight non-synchronization occurs. A curve Lh1 in FIG. 7 indicates the distribution of the distance between the lines of sight when line-of-sight synchronization occurs. A curve Lh2 indicates the distribution of the distance between the lines of sight when line-of-sight non-synchronization occurs. When line-of-sight alignment occurs, most of the line-of-sight distances are 0.2 or less. Located in section 4. By taking the histogram shown in FIG. 7 as a probability distribution, the two waveforms shown in FIG. 7 can be easily identified. In order to confirm the generality of the distribution of the distance between the gazes when gaze synchronization occurs, two resumes R different from the resumes R corresponding to the explanations of FIGS. Graphs showing the distribution of the line-of-sight distance are shown in FIGS. 8A and 8B.

図8の(A)及び(B)に示すグラフの横軸の刻みは0.05単位である。また、2枚のレジュメRを用いた講義を受講した4人の受講者Sの全員が、図7に示す視線同調が発生している場合の視線間距離の分布と同様の分布が図8のグラフに示されている。即ち、図7の場合も、図8の(A)及び(B)の場合も、講義を真剣に視聴することが受講者Sに予め求められているものとする。このため、図7と、図8の(A)及び(B)とにより夫々示されるデータは、すべて視線同調が発生していることを前提とすることができる。このような前提の下に図7と、図8の(A)及び(B)とを見ると、視線同調が発生しているときの視線間距離の分布は、講義に使用されるレジュメRによらず類似している。このため、図7の視線同調時の分布のパターンは一般的であるといえる。また、この分布のパターンは、正規化することでそのまま視線間距離の確率分布として見ることができる。これにより、新たな受講者Sの受講者視線Lsが得られたときにその尤度を計算することで、真剣に講義を受講しているかどうかを含め受講者Sの内的状態を判定するための指標として活用することができる。 The steps of the horizontal axis of the graphs shown in FIGS. 8A and 8B are 0.05 units. In addition, all of the four students S who attended the lecture using the two resumes R had the same distribution of the distance between the gazes in FIG. shown in the graph. That is, in both the case of FIG. 7 and the cases of (A) and (B) of FIG. 8, it is assumed that the student S is requested in advance to seriously watch the lecture. Therefore, the data shown in FIG. 7 and FIGS. 8A and 8B can all be based on the assumption that line-of-sight alignment has occurred. Looking at FIG. 7 and FIGS. 8A and 8B under this premise, the distribution of the distance between gazes when eye-gaze synchronization occurs is shown in the resume R used in the lecture. They are similar regardless. Therefore, it can be said that the distribution pattern at the time of line-of-sight synchronization in FIG. 7 is general. In addition, this distribution pattern can be viewed as it is as a probability distribution of the distance between eyes by normalization. As a result, the internal state of the student S, including whether or not he or she is taking the lecture seriously, is determined by calculating the likelihood when the student sight line Ls of the new student S is obtained. It can be used as an indicator of

図9の(A)は、n人の受講者の受講者視線をメディアンフィルタに出力した図である。
図9の(B)は、講師視線を示すグラフである。
図9の(C)は、n人の受講者と講師との視線間距離を示すグラフである。
(A) of FIG. 9 is a diagram in which the line of sight of n students is output to the median filter.
FIG. 9B is a graph showing the instructor's line of sight.
(C) of FIG. 9 is a graph showing the line-of-sight distance between the n students and the lecturer.

n人の受講者Sの夫々の受講者視線Lsを、同一のタイミング毎にフィルタリングすることで、1つの視線の軌跡のデータ(以下、「視線軌道データ」と呼ぶ)として表すことができる。これにより、同じ資料(例えばレジュメR)を見て講義を受講する受講者Sのための、講師Tの視線に代わる参照用のデータとして視線軌道データを活用することができる。フィルタリングの手法は特に限定されず、例えば平均値を用いることができる。ただし、平均値は1つでも例外値があるとその影響を受けてしまう。このため、本実施形態では、例外値の影響を受け難いメディアンフィルタを用いた。メディアンフィルタは、n人の受講者Sの各タイミングにおける視線のX座標とY座標との夫々についてソートして、その中央の値(例えば偶数個の場合は中央の2個の平均)をとる。これにより、例外的な値となり易い最大値や最小値の影響を排除することができる。 By filtering the student's line of sight Ls of each of the n students S at the same timing, it is possible to represent one piece of line-of-sight trajectory data (hereinafter referred to as "line-of-sight trajectory data"). As a result, the line-of-sight trajectory data can be used as reference data instead of the line of sight of the lecturer T for the student S who attends the lecture while looking at the same material (eg, resume R). A filtering method is not particularly limited, and for example, an average value can be used. However, the average value is affected by even one exceptional value. Therefore, in this embodiment, a median filter that is less susceptible to the influence of exceptional values is used. The median filter sorts the X-coordinate and Y-coordinate of the line of sight of the n students S at each timing, and takes the central value (for example, the average of the two central values in the case of an even number). As a result, the influence of the maximum and minimum values, which tend to be exceptional values, can be eliminated.

具体的には例えば、n=4(受講者Sの人数が4人)である場合には、ソートした2つ目と3つ目との値の平均値が出力される。図9の(A)には、以上のようにして出力された受講者Sの視線軌道データが示されている。図9の(A)に示す視線軌道データと、図9の(B)に示す講師視線Ltとを比較すると、両者は近い分布の形状を示しており、さらに、レジュメRの外側に向かう例外的な軌道が減少している。 Specifically, for example, when n=4 (the number of students S is four), the average value of the sorted second and third values is output. FIG. 9A shows the line-of-sight trajectory data of the student S output as described above. Comparing the line-of-sight trajectory data shown in FIG. 9A and the lecturer line-of-sight Lt shown in FIG. orbits are decreasing.

図9の(C)には、図9の(A)に示す視線軌道データと、図9の(B)に示す講師視線Ltとの視線間距離の経過が示されている。図9の(C)に示す視線間距離のパターンは、上述した図6の(A)に示した視線間距離のパターンと類似している。しかしながら、図6の(A)に見られたフレーム0~400付近にある大きな視点間距離やインパルスが、図9の(C)に示す視線間距離のパターンでは見られない。つまり、この部分は、受講者視線Lsの動きが講師視線Ltの動きに沿わなかったことにより発生した視線間距離であったことがわかる。このように、n人の受講者Sの受講者視線Lsに基づく視線軌道データは、個々の受講者Sの受講者視線Lsの揺らぎの影響を減少させることができるので、より正確な視線間距離を検出することが可能性となる。 (C) of FIG. 9 shows the course of the inter-line-of-sight distance between the line-of-sight trajectory data shown in (A) of FIG. 9 and the instructor line of sight Lt shown in (B) of FIG. The line-of-sight distance pattern shown in FIG. 9C is similar to the line-of-sight distance pattern shown in FIG. However, the large inter-viewpoint distance and impulse in the vicinity of frames 0 to 400 seen in FIG. 6A are not seen in the inter-sight distance pattern shown in FIG. 9C. In other words, it can be seen that this portion was the inter-line-of-sight distance that occurred because the movement of the student's line of sight Ls did not follow the movement of the instructor's line of sight Lt. In this way, the line-of-sight trajectory data based on the student's line-of-sight Ls of the n students S can reduce the influence of fluctuations in the student's line-of-sight Ls of each student S, so that a more accurate line-of-sight distance can be obtained. can be detected.

以上をまとめると、本サービスでは、講師側情報と受講者側情報とに基づいて、両者の視線間距離と、視線の移動速度とが検出される。視線間距離から視線同調の程度を推定することができるので、視線の移動速度に基づいてより細かな受講者Sの内的状態の推定が可能となる。 In summary, in this service, the line-of-sight distance and the line-of-sight movement speed between the instructor and the student are detected based on the instructor side information and the student side information. Since the degree of line-of-sight synchronization can be estimated from the line-of-sight distance, it is possible to more precisely estimate the internal state of the student S based on the line-of-sight movement speed.

また、本サービスでは、視線間距離が開く場面が分析される。分析の結果、例えば受講者Sがノートを見たり書き込んだりすることや、受講者Sが以前の説明箇所に戻る手戻りや、あるいは次を予測した先読みなどのパターンの推定が行われる。これらの推定は、受講者Sの学びの質の推定に直結する。また、視線間距離が開いた原因が、講師T側及び受講者S側のどちらにもあり、それは学びの相互作用としてどのような意味を持つのかが分析される。熟練した講師Tは対面授業で受講者Sを観察してこれを推定するが、本サービスにより検出される視線同調の方式もまた、そのような受講者Sの学びの理解に繋がる。 In addition, in this service, scenes in which the distance between eyes is wide are analyzed. As a result of the analysis, a pattern is estimated, for example, that the student S looks at or writes in a notebook, that the student S goes back to the previous explanation part, or that the student S reads ahead to predict the next. These estimations are directly linked to the estimation of the learning quality of the student S. In addition, the reason why the line-of-sight distance is widened is on both the instructor T side and the student S side, and it is analyzed what kind of meaning it has in terms of learning interaction. A skilled lecturer T observes the student S in a face-to-face class and infers this, but the line-of-sight synchronization method detected by this service also leads to such understanding of the student S's learning.

また、本サービスで採用されている視線同調の検出の手法は、オンデマンド講義を含むオンライン講義だけではなく、対面形式の講義においても有効である。また、オンライン講義と対面形式の講義とのハイブリッドな形式での講義にも本サービスを適用することができる。例えば、教室に受講者Sが集まり、個々の受講者Sが受講者端末3の画面を見ながら講義を受ける場合に適用することができる。その際、講師Tは、このような環境における受講者S全員の学習状況を個々に把握しなければならないが、従来の手法では1自然人にすぎない講師Tの個人の能力では困難である。即ち、従来の紙媒体の教科書を用いた講義では、受講者Sは全員手元に同じ教科書を持っているため、むしろ授業への参加が概ね把握し易い状況にあった。これがパーソナルコンピュータやタブレット等の受講者端末3に置き換わると、受講者Sが受講者端末3の画面を見ていても、その参加の意思や理解の程度といった内的状態を傍から判断することは極めて困難となる。この内的状態を判断するためには実際に見ている受講者Sが受講者端末3の画面の内容を確認する必要があるが、講師Tが受講者S全員の受講者端末3の画面と、受講者S全員の内的状況とを把握しながら授業をすることは実質に不可能である。 In addition, the gaze synchronization detection method adopted in this service is effective not only for online lectures, including on-demand lectures, but also for face-to-face lectures. In addition, this service can also be applied to lectures in a hybrid format of online lectures and face-to-face lectures. For example, it can be applied when students S gather in a classroom and each student S takes a lecture while watching the screen of the student terminal 3 . At that time, the lecturer T must individually grasp the learning situation of all the students S in such an environment. In other words, in a conventional lecture using a paper-medium textbook, all students S have the same textbook at hand, so it is rather easy to grasp their participation in the class. If this is replaced by a student terminal 3 such as a personal computer or a tablet, even if the student S is looking at the screen of the student terminal 3, it will not be possible to judge the internal state such as the intention of participation and the degree of understanding from the side. becomes extremely difficult. In order to judge this internal state, it is necessary for the student S, who is actually watching, to confirm the contents of the screen of the student terminal 3. , it is practically impossible to teach while grasping the internal situations of all students S.

これに対して、本サービスによれば、講義の比較的長い時間で視線非同調が発生している受講者Sを容易に特定することができる。これにより、講師Tは、その受講者Sを中心にフォローすることができるので、上述の問題を解消することができる。 On the other hand, according to the present service, it is possible to easily identify a student S who has had line-of-sight non-synchronization for a relatively long time in the lecture. As a result, the lecturer T can mainly follow the student S, so that the above problem can be solved.

さらに、最近は教室程度の広さの空間において、そこに存在する人々の夫々の視線を抽出する技術が実現化されている。この技術を用いることで、対面形式の講義においても講師視線Ltに追従する受講者視線Lsを評価することが容易化されるので、視線同調と同等の効果を実現することができる。 Furthermore, recently, in a space as large as a classroom, a technique for extracting the line of sight of each person present there has been realized. By using this technology, it is easy to evaluate the student's line of sight Ls following the lecturer's line of sight Lt even in a face-to-face lecture, so an effect equivalent to that of line-of-sight synchronization can be achieved.

さらに、本サービスは、教育機関だけではなく、パーソナルコンピュータ等の映像表示機器全般を用いるあらゆる場面(例えば企業研修や会議、プレゼンテーション等)に対しても適用することができる。具体的には例えば、企業内研修において研修内容の受講者Sの理解状況を把握することは、研修の効果を担保するためには必須なものとなる。会議やプレゼンの場に本サービスを適用した場合、上述の受講者Sに相当する聴講者が、どの程度その内容を理解し把握しているかを評価できるので、その場がどの程度有意義なものであったか等を評価することができる。 Furthermore, this service can be applied not only to educational institutions, but also to all kinds of situations (for example, corporate training, meetings, presentations, etc.) where video display devices such as personal computers are used in general. Specifically, for example, in in-house training, it is essential to grasp the state of understanding of the training content of the trainee S in order to ensure the effectiveness of the training. When this service is applied to a meeting or a presentation, it is possible to evaluate how much the audience corresponding to the above-mentioned student S understands and comprehends the contents, so how meaningful the place is. It is possible to evaluate whether there was

次に、図10を参照して、上述した本サービスの提供を実現化させる情報処理システム、即ち本発明の情報処理装置の一実施形態に係るサーバ1が適用される情報処理システムの構成について説明する。
図10は、本発明の情報処理装置の一実施形態に係るサーバが適用される情報処理システムの構成の一例を示す図である。
Next, with reference to FIG. 10, the configuration of an information processing system that realizes the provision of the above-described service, that is, an information processing system to which the server 1 according to one embodiment of the information processing apparatus of the present invention is applied will be described. do.
FIG. 10 is a diagram showing an example of the configuration of an information processing system to which a server according to an embodiment of the information processing apparatus of the invention is applied.

図10に示す情報処理システムは、サーバ1と、講師端末2と、受講者端末3-1乃至3-nとを含むように構成されている。
サーバ1、講師端末2、及び受講者端末3-1乃至3-nは、インターネット等の所定のネットワークNWを介して相互に接続されている。
The information processing system shown in FIG. 10 is configured to include a server 1, a lecturer terminal 2, and student terminals 3-1 to 3-n.
The server 1, instructor terminal 2, and student terminals 3-1 to 3-n are interconnected via a predetermined network NW such as the Internet.

サーバ1は、サービス提供者により管理される情報処理装置である。サーバ1は、講師端末2、及び受講者端末3-1乃至3-nと適宜通信をしながら、本サービスを実現するための各種処理を実行する。以下、受講者端末3-1乃至3-nの夫々を区別して説明する必要がない場合には、これらをまとめて「受講者端末3」と呼ぶ。 The server 1 is an information processing device managed by a service provider. The server 1 executes various processes for realizing this service while appropriately communicating with the instructor terminal 2 and the student terminals 3-1 to 3-n. Hereinafter, when there is no need to distinguish between the student terminals 3-1 to 3-n, they will be collectively referred to as "student terminals 3".

講師端末2は、講師Tが操作する情報処理装置である。講師端末2は、上述したように、パーソナルコンピュータ、タブレット、スマートフォン等で構成される。講師端末2は、講師Tによる各種情報の入力操作を受け付けてサーバ1に送信したり、サーバ1から送信されてきた各種情報(例えばレジュメR)を受信して表示したりする。 The lecturer terminal 2 is an information processing device operated by the lecturer T. FIG. The lecturer terminal 2 is composed of a personal computer, a tablet, a smartphone, etc., as described above. The lecturer terminal 2 receives various information input operations by the lecturer T and transmits the information to the server 1, and receives and displays various information (eg, resume R) transmitted from the server 1. FIG.

受講者端末3は、受講者Sが操作する情報処理装置である。受講者端末3は、上述したように、パーソナルコンピュータ、タブレット、スマートフォン等で構成される。受講者端末3は、受講者Sによる各種情報の入力操作を受け付けてサーバ1に送信したり、サーバ1から送信されてきた各種情報(例えばレジュメR)を受信して表示したりする。 The student terminal 3 is an information processing device operated by the student S. FIG. The student terminal 3 is configured by a personal computer, a tablet, a smart phone, etc., as described above. The student terminal 3 receives various information input operations by the student S and transmits the information to the server 1, and receives and displays various information (eg, resume R) transmitted from the server 1. FIG.

図11は、図10に示す情報処理システムのうちサーバのハードウェア構成の一例を示すブロック図である。 11 is a block diagram showing an example of a hardware configuration of a server in the information processing system shown in FIG. 10. FIG.

サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。 The server 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input/output interface 15, an input section 16, and an output section 17. , a storage unit 18 , a communication unit 19 and a drive 20 .

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to programs recorded in the ROM 12 or programs loaded from the storage unit 18 to the RAM 13 .
The RAM 13 also stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12、及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11 , ROM 12 and RAM 13 are interconnected via a bus 14 . An input/output interface 15 is also connected to this bus 14 . An input unit 16 , an output unit 17 , a storage unit 18 , a communication unit 19 and a drive 20 are connected to the input/output interface 15 .

入力部16は、例えばキーボード等により構成され、各種情報を入力する。
出力部17は、液晶等のディスプレイやスピーカ等により構成され、各種情報を画像や音声として出力する。
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNWを介して他の装置(例えば図10の講師端末2、及び受講者端末3)との間で通信を行う。
The input unit 16 is composed of, for example, a keyboard or the like, and inputs various information.
The output unit 17 includes a display such as a liquid crystal display, a speaker, and the like, and outputs various information as images and sounds.
The storage unit 18 is composed of a DRAM (Dynamic Random Access Memory) or the like, and stores various data.
The communication unit 19 communicates with other devices (for example, the instructor terminal 2 and the student terminal 3 in FIG. 10) via the network NW including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア40が適宜装着される。ドライブ20によってリムーバブルメディア40から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア40は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
A removable medium 40 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 20 as appropriate. A program read from the removable medium 40 by the drive 20 is installed in the storage section 18 as necessary.
The removable medium 40 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18 .

なお、図示はしないが、図10の講師端末2も、図11に示すハードウェア構成と基本的に同様の構成を有することができる。したがって、講師端末2のハードウェア構成についての説明は省略する。 Although not shown, the lecturer terminal 2 in FIG. 10 can also have a configuration basically similar to the hardware configuration shown in FIG. Therefore, description of the hardware configuration of the instructor terminal 2 is omitted.

このような図11のサーバ1を含む図10の情報処理システムを構成する各種ハードウェアと各種ソフトウェアとの協働により、内的状態推定処理を含む各種処理の実行が可能になる。その結果、サービス提供者は、オンデマンド講義提供者に対して上述の本サービスを提供することができる。
「内的状態推定処理」とは、講師側情報と受講者側情報とに基づいて、受講者Sの内的状態を推定する処理のことをいう。
以下、図10の情報処理システムを構成する図11のサーバ1において実行される、内的状態推定処理を実行するための機能的構成について説明する。
Various types of processing including internal state estimation processing can be executed by cooperation of various types of hardware and various types of software that constitute the information processing system of FIG. 10 including the server 1 of FIG. As a result, the service provider can provide the above-described present service to the on-demand lecture provider.
"Internal state estimation processing" refers to processing for estimating the internal state of the student S based on the lecturer side information and the student side information.
A functional configuration for executing internal state estimation processing executed in the server 1 shown in FIG. 11 constituting the information processing system shown in FIG. 10 will be described below.

図12は、図10の情報処理システムを構成する図11のサーバの機能的構成のうち、内的状態推定処理を実行するための機能的構成の一例を示す機能ブロック図である。 12 is a functional block diagram showing an example of a functional configuration for executing an internal state estimation process among the functional configurations of the server of FIG. 11 that constitutes the information processing system of FIG. 10. FIG.

図12に示すように、サーバ1が内的状態推定処理を実行する場合、CPU11においては、講師側情報取得部101と、受講者側情報取得部102と、検出部103と、推定部104とが機能する。 As shown in FIG. 12, when the server 1 executes the internal state estimation process, the CPU 11 includes a lecturer side information acquisition section 101, a student side information acquisition section 102, a detection section 103, and an estimation section 104. works.

また、サーバ1の記憶部18の一領域には、講師DB181と、受講者DB182とが設けられている。講師DB181には、講師Tを一意に特定可能な情報(例えばID)に講師側情報が対応付けられて管理されている。受講者DB182には、受講者Sを一意に特定可能な情報(例えばID)に受講者側情報が対応付けられて管理されている。 In one area of the storage unit 18 of the server 1, a lecturer DB 181 and a student DB 182 are provided. In the lecturer DB 181, information that can uniquely identify the lecturer T (for example, an ID) is associated with lecturer-side information and managed. In the student DB 182, student-side information is associated with information (for example, an ID) that can uniquely identify a student S, and is managed.

講師側情報取得部101は、講師端末2の画面の少なくとも一部分に表示されたレジュメRを見ながら講義を行う講師Tの視線の動きの履歴である講師視線Ltと、レジュメRとの対応関係を示す情報を、講師側情報として取得する。講師側情報取得部101により取得された講師側情報は、講師DB181に記憶されて管理される。 The lecturer-side information acquisition unit 101 obtains a correspondence relationship between the lecturer's line of sight Lt, which is the movement history of the line of sight of the lecturer T who gives a lecture while viewing the resume R displayed on at least a part of the screen of the lecturer terminal 2, and the resume R. The information shown is acquired as instructor-side information. The instructor-side information acquired by the instructor-side information acquisition unit 101 is stored and managed in the instructor DB 181 .

受講者側情報取得部102は、受講者端末3の画面の少なくとも一部分に表示されたレジュメRを見ながら、講師Tの講義を受講する受講者Sの視線の動きの履歴である受講者視線LsとレジュメRとの対応関係を示す情報を、受講者側情報として取得する。 The student-side information acquisition unit 102 acquires a student's line of sight Ls, which is the history of the movement of the student's line of sight while watching the resume R displayed on at least a part of the screen of the student's terminal 3. and resume R is acquired as information on the student side.

検出部103は、講師側情報及び受講者側情報の特徴量を検出する。
具体的には例えば、検出部103は、講師側情報及び受講者側情報の特徴量の検出として、受講者Sの視線が、講師Tの視線に追従している状況を示す視線同調を検出する。
また例えば、検出部103は、講師側情報及び受講者側情報の特徴量の検出として、講師Tの視線と受講者Sの視線との間の視線間距離を検出する。
また例えば、検出部103は、講師側情報及び受講者側情報の特徴量の検出として、講師Tの視線の移動速度と受講者Sの視線の移動速度と差を検出する。
また例えば、検出部103は、講師側情報及び受講者側情報の特徴量の検出として、講師端末2及び受講者端末3の夫々の画面に表示されたレジュメRの領域を外れた講師T及び受講者Sの夫々の視線を検出する。
The detection unit 103 detects feature amounts of the lecturer side information and the student side information.
Specifically, for example, the detection unit 103 detects line-of-sight synchronization indicating a situation in which the line of sight of the student S follows the line of sight of the lecturer T as detection of the feature amount of the instructor side information and the student side information. .
Further, for example, the detection unit 103 detects the distance between the line of sight of the lecturer T and the line of sight of the student S as the detection of the feature amount of the lecturer side information and the student side information.
Further, for example, the detection unit 103 detects the difference between the movement speed of the instructor T's line of sight and the movement speed of the student S's line of sight as detection of the feature amount of the lecturer side information and the student side information.
Further, for example, the detection unit 103 detects the feature amount of the lecturer-side information and the student-side information, and detects the lecturer T and the class attendance outside the area of the resume R displayed on the respective screens of the lecturer terminal 2 and the student terminal 3. The line of sight of each person S is detected.

推定部104は、検出部103により検出された講師側情報及び受講者側情報の特徴量に基づいて、受講者Sの内的状態の推定を行う。 The estimation unit 104 estimates the internal state of the student S based on the feature amounts of the instructor-side information and the student-side information detected by the detection unit 103 .

以上のように、図11の情報処理装置が、図12に示す上述の機能的構成を有することにより、オンデマンド形式の講義の提供側が、講義の受講側の内的状態の把握を効率よく行えるようにすることができる。 As described above, the information processing apparatus of FIG. 11 has the above-described functional configuration shown in FIG. 12, so that the on-demand lecture provider can efficiently grasp the internal state of the lecture attendee. can be made

以上、本発明の一実施形態について説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものとみなす。 Although one embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and modifications, improvements, etc. within the range that can achieve the object of the present invention are included in the present invention. Consider.

例えば、上述の実施形態では、本サービスをオンデマンド講義に適用した例が示されているが、オンラインによるライブ講義や対面形式の講義にも本サービスを適用することができる。即ち、情報を伝達する側と、情報の伝達を受ける側とが、夫々異なる画面で共通の資料を見ながら情報の伝達が行われるあらゆるケースに本サービスを適用することができる。なお、オンラインによるライブ講義において視線や姿勢等情報を抽出する場合には、抽出された情報がリアルタイムでサーバ1に送信されて、視線同調が検出される。そして、その検出結果が受講者端末3に送信されることで受講者Sにフィードバックされる。 For example, in the above-described embodiments, an example in which the present service is applied to on-demand lectures is shown, but the present service can also be applied to online live lectures and face-to-face lectures. In other words, this service can be applied to any case in which information is transmitted while the information transmitting side and the information receiving side are viewing common materials on different screens. When extracting information such as line of sight and posture in an online live lecture, the extracted information is transmitted to the server 1 in real time, and line-of-sight synchronization is detected. Then, the detection result is sent to the student terminal 3 and fed back to the student S.

また例えば、上述の実施形態では、講師Tと受講者Sとが共有する資料としてレジュメRが例示されているが、レジュメのように静止画像のみならず、動画像も対象とすることができる。 Further, for example, in the above-described embodiment, the resume R is exemplified as the material shared by the lecturer T and the student S, but not only a still image like a resume but also a moving image can be targeted.

また例えば、上述の実施形態で採用されているキャリブレーションの手法は例示に過ぎない。できるだけ受講者Sが気付かないうちにキャリブレーションが済むような手法が採用されることが望ましい。 Also, for example, the calibration method employed in the above-described embodiments is merely an example. It is desirable to employ a technique that allows the calibration to be completed without the student S noticing it as much as possible.

また、図2の受講者端末3の画面の構成、及びレジュメRが表示されている位置や大きさは例示に過ぎない。また、図示はしないが、受講者端末3の画面の構成、及びレジュメRが表示される位置や大きさも特に限定されない。 Also, the configuration of the screen of the student terminal 3 and the position and size where the resume R is displayed in FIG. 2 are merely examples. Also, although not shown, the configuration of the screen of the student terminal 3 and the position and size of the resume R displayed are not particularly limited.

また、図10に示すシステム構成、及び図11に示すサーバ1のハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Also, the system configuration shown in FIG. 10 and the hardware configuration of the server 1 shown in FIG. 11 are merely examples for achieving the object of the present invention, and are not particularly limited.

また、図12に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した内的状態推定処理を全体として実行できる機能が図10の情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロック及びデータベースを用いるのかは、特に図12の例に限定されない。 Also, the functional block diagram shown in FIG. 12 is merely an example and is not particularly limited. That is, it is sufficient that the information processing system of FIG. 10 has a function capable of executing the above-described internal state estimation processing as a whole. It is not limited to the example of FIG.

また、機能ブロック及びデータベースの存在場所も、図12に限定されず、任意でよい。
図12の例で、内的状態推定処理は、図10の情報処理システムを構成するサーバ1のCPU11の制御により行われる構成となっているが、これに限定されない。例えばサーバ1側に配置された機能ブロック及びデータベースの少なくとも一部を、講師端末2側、受講者端末3側、又は図示せぬ他の情報処理装置が備える構成としてもよい。
Also, the locations of the functional blocks and the database are not limited to those shown in FIG. 12, and may be arbitrary.
In the example of FIG. 12, the internal state estimation processing is configured to be performed under the control of the CPU 11 of the server 1 that constitutes the information processing system of FIG. 10, but is not limited to this. For example, at least part of the functional blocks and database arranged on the server 1 side may be provided on the instructor terminal 2 side, the student terminal 3 side, or another information processing device (not shown).

また、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
Also, the series of processes described above can be executed by hardware or by software.
Also, one functional block may be composed of hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When a series of processes is to be executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware.
Also, the computer may be a computer capable of executing various functions by installing various programs, such as a server, a general-purpose smart phone, or a personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。 A recording medium containing such a program not only consists of a removable medium (not shown) that is distributed separately from the device main body in order to provide the program to the user, but is also preinstalled in the device main body and delivered to the user. It consists of a provided recording medium, etc.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In this specification, the steps of writing a program recorded on a recording medium are not necessarily processed chronologically according to the order, but may be executed in parallel or individually. It also includes the processing to be executed.

以上をまとめると、本発明が適用される情報処理装置は、次のような構成を有していれば足り、各種各様な実施の形態を取ることができる。
即ち、本発明が適用される情報処理装置は、
第1画面(例えば図1の講師端末2の画面)の所定位置(例えば講師端末2の画面の少なくとも一部分)に表示された所定画像(例えば図1のレジュメR)を見ながら情報を伝達する第1ユーザ(例えば図1の講師T)の、視線の動きの履歴(例えば図1の講師視線Lt)と前記所定画像との対応関係を示す第1情報(例えば上述の講師側情報)を取得する第1取得手段(図12の講師側情報取得部101)と、
第2画面(例えば図1の受講者端末3の画面)の所定位置(例えば受講者端末3の画面の少なくとも一部分)に表示された前記所定画像を見ながら、前記情報の伝達を受ける第2ユーザ(例えば図1の受講者S)の、視線の動きの履歴(例えば図1の受講者視線Ls)と前記所定画像との対応関係を示す第2情報(例えば上述の受講者側情報)を取得する第2取得手段(図12の受講者側情報取得部102)と、
前記第1情報及び前記第2情報の特徴量を検出する検出手段(図12の検出部103)と、
検出された前記特徴量に基づいて、前記第2ユーザの内的状態の推定を行う推定手段(図12の推定部104)と、
を備える情報処理装置。
In summary, the information processing apparatus to which the present invention is applied only needs to have the following configuration, and can take various forms.
That is, the information processing apparatus to which the present invention is applied is
The first screen (for example, the screen of the instructor terminal 2 in FIG. 1) is displayed at a predetermined position (for example, at least a part of the screen of the instructor terminal 2) while viewing a predetermined image (for example, the resume R in FIG. 1). Acquire first information (for example, the above-described instructor-side information) indicating the correspondence relationship between the history of line-of-sight movement of one user (for example, the lecturer T in FIG. 1) (for example, the lecturer's line-of-sight Lt in FIG. 1) and the predetermined image. a first acquisition means (instructor-side information acquisition unit 101 in FIG. 12);
A second user receiving the information while viewing the predetermined image displayed at a predetermined position (for example, at least a part of the screen of the student terminal 3) on the second screen (for example, the screen of the student terminal 3 in FIG. 1). Acquire second information (for example, the above-mentioned student-side information) that indicates the correspondence relationship between the movement history of the line of sight (for example, the student S in FIG. 1) (for example, the student's line of sight Ls in FIG. 1) and the predetermined image. A second acquisition means (student side information acquisition unit 102 in FIG. 12) to
detection means (the detection unit 103 in FIG. 12) for detecting the feature amount of the first information and the second information;
estimating means (estimating unit 104 in FIG. 12) for estimating the internal state of the second user based on the detected feature quantity;
Information processing device.

つまり、第1画面の所定画像を見ながら情報を伝達する第1ユーザの視線の動きの履歴と所定画像との対応関係を示す第1情報と、第2画面の所定画像を見ながら情報の伝達を受ける第2ユーザの視線の動きの履歴と所定画像との対応関係を示す第2情報とが取得される。そして、取得された情報の特徴量が検出されて、その特徴量に基づいて、第2ユーザの内的状態の推定が行われる。
これにより、第1情報と第2情報との夫々が取得されたタイミングを問わず、検出された特徴量から第2ユーザの内的状態の把握が可能になる。
That is, the first information indicating the correspondence relationship between the history of the movement of the line of sight of the first user who transmits the information while viewing the predetermined image on the first screen and the predetermined image, and the transmission of the information while viewing the predetermined image on the second screen. Second information indicating the correspondence relationship between the history of the movement of the line of sight of the second user who receives the image and the predetermined image is acquired. Then, the feature amount of the acquired information is detected, and the internal state of the second user is estimated based on the feature amount.
This makes it possible to grasp the internal state of the second user from the detected feature quantity regardless of the timing at which the first information and the second information are acquired.

また、前記検出手段は、
前記特徴量の検出として、前記第2ユーザの視線が、前記第1ユーザの視線に追従している状況(例えば上述した視線同調)を検出することができる。
Further, the detection means
As the detection of the feature amount, it is possible to detect a situation in which the line of sight of the second user follows the line of sight of the first user (for example, the above-described line-of-sight synchronization).

つまり、第1情報及び第2情報の特徴量の検出として、第2ユーザの視線が第1ユーザの視線に追従している状況が検出される。
これにより、第2ユーザの視線が第1ユーザの視線に追従している状況に基づく第2ユーザの内的状態の把握が可能になる。
In other words, a situation in which the line of sight of the second user follows the line of sight of the first user is detected as the detection of the feature amount of the first information and the second information.
This makes it possible to grasp the internal state of the second user based on the situation in which the line of sight of the second user follows the line of sight of the first user.

また、前記検出手段は、
前記特徴量の検出として、前記第1ユーザの視線と、前記第2ユーザの視線との間の距離を検出することができる。
Further, the detection means
As the detection of the feature quantity, the distance between the line of sight of the first user and the line of sight of the second user can be detected.

つまり、第1情報及び第2情報の特徴量の検出として、第1ユーザの視線と第2ユーザの視線との間の視点間距離が検出される。
これにより、第1ユーザの視線と第2ユーザの視線との間の視点間距離に基づく第2ユーザの内的状態の把握が可能になる。
That is, the inter-viewpoint distance between the line of sight of the first user and the line of sight of the second user is detected as the detection of the feature amount of the first information and the second information.
This makes it possible to grasp the internal state of the second user based on the inter-viewpoint distance between the line of sight of the first user and the line of sight of the second user.

また、前記検出手段は、
前記特徴量の検出として、前記第1ユーザの視線の移動速度と、前記第2ユーザの視線の移動速度との差を検出することができる。
Further, the detection means
As the detection of the feature amount, a difference between the moving speed of the line of sight of the first user and the moving speed of the line of sight of the second user can be detected.

つまり、第1情報及び第2情報の特徴量の検出として、第1ユーザの視線の移動速度と第2ユーザの視線の移動速度と差が検出される。
これにより、第1ユーザの視線の移動速度と第2ユーザの視線の移動速度と差に基づく第2ユーザの内的状態の把握が可能になる。
That is, the difference between the moving speed of the line of sight of the first user and the moving speed of the line of sight of the second user is detected as the detection of the feature amount of the first information and the second information.
This makes it possible to grasp the internal state of the second user based on the difference between the movement speed of the line of sight of the first user and the movement speed of the line of sight of the second user.

また、前記検出手段は、
前記特徴量の検出として、前記所定画像の領域を外れた前記第1ユーザ及び前記第2ユーザの夫々の視線を検出することができる。
Further, the detection means
As the detection of the feature amount, the line of sight of each of the first user and the second user outside the area of the predetermined image can be detected.

つまり、第1情報及び第2情報の特徴量の検出として、所定画像の領域を外れた第1ユーザ及び第2ユーザの夫々の視線を検出することができる。
これにより、所定画像の領域を外れた第1ユーザ及び第2ユーザの夫々の視線に基づく第2ユーザの内的状態の把握が可能になる。
That is, as the detection of the feature amount of the first information and the second information, it is possible to detect the line of sight of each of the first user and the second user outside the area of the predetermined image.
As a result, it is possible to grasp the internal state of the second user based on the line of sight of the first user and the second user outside the area of the predetermined image.

1・・・サーバ、2・・・講師端末、3・・・受講者端末、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・入力部、17・・・出力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、40・・・リムーバルメディア、101・・・講師側情報取得部、102・・・受講者側情報取得部、103・・・検出部、104・・・推定部、181・・・講師DB、182・・・受講者DB、NW・・・ネットワーク、T・・・講師、S・・・受講者、R・・・レジュメ、Lt・・・講師視線、Ls・・・受講者視線
1... server, 2... lecturer terminal, 3... student terminal, 11... CPU, 12... ROM, 13... RAM, 14... bus, 15... input Output interface 16 Input unit 17 Output unit 18 Storage unit 19 Communication unit 20 Drive 40 Removable media 101 Instructor side Information acquisition unit 102 Student side information acquisition unit 103 Detection unit 104 Estimation unit 181 Instructor DB 182 Student DB NW Network T... lecturer, S... student, R... resume, Lt... lecturer's line of sight, Ls... student's line of sight

Claims (6)

第1画面の所定位置に表示された所定画像を見ながら情報を伝達する第1ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第1情報を取得する第1取得手段と、
第2画面の所定位置に表示された前記所定画像を見ながら、前記情報の伝達を受ける第2ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第2情報を取得する第2取得手段と、
前記第1情報及び前記第2情報の特徴量を検出する検出手段と、
検出された前記特徴量に基づいて、前記第2ユーザの内的状態の推定を行う推定手段と、
を備える情報処理装置。
a first acquisition means for acquiring first information indicating a correspondence relationship between a history of movement of a line of sight of a first user who transmits information while viewing a predetermined image displayed at a predetermined position on a first screen and the predetermined image; ,
Acquiring second information indicating a correspondence relationship between a history of movement of the line of sight of a second user to whom the information is transmitted and the predetermined image while viewing the predetermined image displayed at a predetermined position on the second screen; 2 acquisition means;
detection means for detecting the feature amount of the first information and the second information;
estimating means for estimating the internal state of the second user based on the detected feature quantity;
Information processing device.
前記検出手段は、
前記特徴量の検出として、前記第2ユーザの視線が、前記第1ユーザの視線に追従している状況を検出する、
請求項1に記載の情報処理装置。
The detection means is
Detecting a situation in which the line of sight of the second user follows the line of sight of the first user as the detection of the feature amount.
The information processing device according to claim 1 .
前記検出手段は、
前記特徴量の検出として、前記第1ユーザの視線と、前記第2ユーザの視線との間の距離を検出する、
請求項1に記載の情報処理装置。
The detection means is
Detecting the distance between the line of sight of the first user and the line of sight of the second user as the feature amount detection,
The information processing device according to claim 1 .
前記推定手段は、
前記特徴量の検出として、前記第1ユーザの視線の移動速度と、前記第2ユーザの視線の移動速度との差を検出する、
請求項1に記載の情報処理装置。
The estimation means is
Detecting the difference between the movement speed of the line of sight of the first user and the movement speed of the line of sight of the second user as the detection of the feature amount,
The information processing device according to claim 1 .
前記推定手段は、
前記特徴量の検出として、前記所定画像の領域を外れた前記第1ユーザ及び前記第2ユーザの夫々の視線を検出する、
請求項1に記載の情報処理装置。
The estimation means is
Detecting the line of sight of each of the first user and the second user outside the area of the predetermined image as the detection of the feature amount,
The information processing device according to claim 1 .
情報処理装置を制御するコンピュータに、
第1画面の所定位置に表示された所定画像を見ながら情報を伝達する第1ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第1情報を取得する第1取得ステップと、
第2画面の所定位置に表示された前記所定画像を見ながら、前記情報の伝達を受ける第2ユーザの、視線の動きの履歴と前記所定画像との対応関係を示す第2情報を取得する第2取得ステップと、
前記第1情報及び前記第2情報の特徴量を検出する検出ステップと、
検出された前記特徴量に基づいて、前記第2ユーザの内的状態の推定を行う推定ステップと、
を含む制御処理を実行させるプログラム。

The computer that controls the information processing device,
a first acquisition step of acquiring first information indicating a correspondence relationship between a history of movement of a line of sight of a first user who transmits information while viewing a predetermined image displayed at a predetermined position on a first screen and the predetermined image; ,
Acquiring second information indicating a correspondence relationship between a history of movement of the line of sight of a second user to whom the information is transmitted and the predetermined image while viewing the predetermined image displayed at a predetermined position on the second screen; 2 an acquisition step;
a detection step of detecting a feature amount of the first information and the second information;
an estimation step of estimating the internal state of the second user based on the detected feature quantity;
A program that executes control processing including

JP2021035304A 2021-03-05 2021-03-05 Information processing apparatus and program Pending JP2022135476A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021035304A JP2022135476A (en) 2021-03-05 2021-03-05 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021035304A JP2022135476A (en) 2021-03-05 2021-03-05 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2022135476A true JP2022135476A (en) 2022-09-15

Family

ID=83231684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035304A Pending JP2022135476A (en) 2021-03-05 2021-03-05 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2022135476A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042817A1 (en) * 2022-08-22 2024-02-29 株式会社日立製作所 Information providing device and information providing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024042817A1 (en) * 2022-08-22 2024-02-29 株式会社日立製作所 Information providing device and information providing method

Similar Documents

Publication Publication Date Title
Goldberg et al. Attentive or not? Toward a machine learning approach to assessing students’ visible engagement in classroom instruction
Valtakari et al. Eye tracking in human interaction: Possibilities and limitations
Rogers et al. Using dual eye tracking to uncover personal gaze patterns during social interaction
Henderson et al. Meaning guides attention during real-world scene description
Sanchez-Cortes et al. Emergent leaders through looking and speaking: from audio-visual data to multimodal recognition
Foulsham et al. The where, what and when of gaze allocation in the lab and the natural environment
Zhang et al. Wandering eyes: Eye movements during mind wandering in video lectures
US20160042648A1 (en) Emotion feedback based training and personalization system for aiding user performance in interactive presentations
US7760910B2 (en) Evaluation of visual stimuli using existing viewing data
Foulsham et al. Look who's talking? Sound changes gaze behaviour in a dynamic social scene
US9262539B2 (en) Mobile device and system for recording, reviewing, and analyzing human relationship
Wang et al. Automated student engagement monitoring and evaluation during learning in the wild
Khorrami et al. A system for monitoring the engagement of remote online students using eye gaze estimation
WO2023041940A1 (en) Gaze-based behavioural monitoring system
US9832392B2 (en) Mobile device for recording, reviewing, and analyzing video
JP2022135476A (en) Information processing apparatus and program
Lohr et al. GazeBaseVR, a large-scale, longitudinal, binocular eye-tracking dataset collected in virtual reality
Shah et al. Assessment of student attentiveness to e-learning by monitoring behavioural elements
US20230128024A1 (en) Automated virtual (ar/vr) education content adjustment based on gaze and learner attention tracking
Vrzakova et al. Speakers' head and gaze dynamics weakly correlate in group conversation
CN112005248A (en) Computing device attention determination
Navalpakkam et al. Eye tracking: a brief introduction
US9571753B2 (en) Mobile device for recording, reviewing, and analyzing video
Mehrubeoglu et al. Capturing reading patterns through a real-time smart camera iris tracking system
Bennett et al. Looking at faces: autonomous perspective invariant facial gaze analysis