JP5392906B2 - Distance learning system and distance learning method - Google Patents

Distance learning system and distance learning method Download PDF

Info

Publication number
JP5392906B2
JP5392906B2 JP2009150283A JP2009150283A JP5392906B2 JP 5392906 B2 JP5392906 B2 JP 5392906B2 JP 2009150283 A JP2009150283 A JP 2009150283A JP 2009150283 A JP2009150283 A JP 2009150283A JP 5392906 B2 JP5392906 B2 JP 5392906B2
Authority
JP
Japan
Prior art keywords
learner
situation
physical
information
learning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009150283A
Other languages
Japanese (ja)
Other versions
JP2011007963A (en
Inventor
節夫 鶴田
義尚 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Denki University
Original Assignee
Tokyo Denki University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Denki University filed Critical Tokyo Denki University
Priority to JP2009150283A priority Critical patent/JP5392906B2/en
Publication of JP2011007963A publication Critical patent/JP2011007963A/en
Application granted granted Critical
Publication of JP5392906B2 publication Critical patent/JP5392906B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、e−learningなどの遠隔教育において学習者の理解度をより高めるための遠隔学習システム及び遠隔学習方法に関する。   The present invention relates to a distance learning system and a distance learning method for further improving a learner's understanding level in distance education such as e-learning.

近年、遠隔学習の場において、インターネットやWebを利用したe−learning技術が広く一般に使われている。このような遠隔学習システムでは、学習の効果を向上させるために様々な技術が提案されている。例えば、特許文献1には、講師と生徒の映像を互いの端末に表示する遠隔学習システムにおいて、講師の注目度が高い生徒画像ウィンドウを講師用画面の上方に配置する技術が開示されている。この従来技術によれば、講師の顔が下に向かずビデオカメラの正面に向きやすくなるので、講師の顔を好適に撮影することが可能となる。   In recent years, e-learning technology using the Internet or the Web has been widely used in the distance learning field. In such a distance learning system, various techniques have been proposed in order to improve the learning effect. For example, Patent Document 1 discloses a technique for disposing a student image window having a high degree of attention of a lecturer above a lecturer screen in a remote learning system that displays videos of the lecturer and students on each other's terminals. According to this conventional technique, the face of the instructor does not face downward and can easily face the front of the video camera, so that the face of the instructor can be suitably photographed.

特開2003−280506号公報JP 2003-280506 A

しかしながら、前記従来の遠隔学習システムによると、解像度の低い生の映像や音そのものを送受信することしかできない場合がある。このような場合、指導者は、学習者の視線、目つき、表情、雰囲気、におい、感情、気配、眠気、退屈といった肉体的・精神的情況をリアルタイムに把握することができなかった。そのため、学習者に聞き逃しや見落としなどによる誤解があっても、指導者はそれに気付くことなく講義を進行してしまう場合があった。   However, according to the conventional remote learning system, there are cases where only a raw video or sound itself with a low resolution can be transmitted and received. In such a case, the instructor could not grasp the physical and mental situations such as the learner's line of sight, eyes, facial expression, atmosphere, smell, emotion, attitude, sleepiness, and boredom in real time. For this reason, even if the learner misunderstood due to missed or overlooked, the instructor may proceed the lecture without noticing it.

本発明は、上記課題を解決するためになされたものであり、その目的は、指導者が学習者の肉体的・精神的情況をリアルタイムに把握し得る遠隔学習システム及び遠隔学習方法を提供することである。   The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a remote learning system and a remote learning method in which an instructor can grasp a learner's physical and mental situation in real time. It is.

本発明の第1の特徴は、学習者が使用する学習者用端末と指導者が使用する指導者用端末とがネットワークを介して接続された遠隔学習システムにおいて、前記学習者及び/又は前記学習者周辺における物理的事象を検出するための複数種類のセンサと、前記学習者及び/又は前記学習者周辺における物理的事象の組み合わせと前記学習者の肉体的・精神的情況との相関関係を定めたルール情報を記憶する記憶手段と、前記複数種類のセンサにより検出された物理的事象の組み合わせと前記記憶手段に記憶されたルール情報とに基づいて前記学習者の肉体的・精神的情況を推定する推定手段と、前記推定手段により推定された前記学習者の肉体的・精神的情況を前記指導者用端末に配信する配信手段とを備え、前記配信手段は、情況の推定精度を向上させるために、前記学習者の反応を促す問い合わせ情報および、情況の推定結果を再確認する情報を配信し、前記推定手段は、前記問い合わせ後の前記学習者の反応および、前記情況の再確認によって得た情報に基づいて前記学習者の肉体的・精神的情況を推定しなおし、前記配信手段は、前記学習者の学習意欲が低下した場合は、前記学習者に刺激を与える態様で警告情報を配信することである。 A first feature of the present invention is that in the remote learning system in which a learner terminal used by a learner and a teacher terminal used by a teacher are connected via a network, the learner and / or the learning A plurality of types of sensors for detecting physical events around the learner, and a correlation between the learner and / or a combination of physical events around the learner and the physical / mental situation of the learner Based on the storage means for storing the rule information, the combination of physical events detected by the plurality of types of sensors, and the rule information stored in the storage means, the physical / mental situation of the learner is estimated. and estimation means for, and a delivery means for delivering the physical and mental circumstances of the learner estimated by the estimating means to the instructor's terminal, the distribution means, estimation accuracy of the situation To improve, inquiry information prompting the reaction of the learner and delivers the information to reaffirm estimation result of circumstances, the estimation means, wherein the reaction of the learner and after the query again the situation The physical / mental situation of the learner is re- estimated based on the information obtained by the confirmation, and the delivery means warns the learner in a manner that stimulates the learner when the learner's willingness to learn decreases. It is to distribute information.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記配信手段が、前記学習者の学習意欲が低下した場合または前記学習者が聞き逃しあるいは見落としをした場合において、(A)前記学習者が短期記憶容量の少ない学習者であるときはキーワードを前記学習者用端末に配信し、(B)前記学習者が連想学習能力の弱い学習者であるときは要約情報を前記学習者用端末に配信し、(C)前記学習者が短期記憶容量の少ない学習者であり且つ連想学習能力の弱い学習者であるときはキーワードおよび要約情報を前記学習用端末に配信することである。 A second feature of the present invention is that, in the distance learning system, when the distribution means decreases in learning motivation of the learner or when the learner misses or overlooks, (A) the learner When the learner has a short short-term memory capacity, a keyword is delivered to the learner's terminal. (B) When the learner is a learner with weak associative learning ability, summary information is sent to the learner's terminal. (C) Distribute keywords and summary information to the learning terminal when the learner is a learner with a short short-term memory capacity and a learner with weak associative learning ability.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記推定手段が、複数のタイミングにおいて前記学習者の肉体的・精神的情況を推定することである。 The third feature of the present invention is that, in the distance learning system, the estimating means estimates the physical / mental situation of the learner at a plurality of timings.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記推定手段が、複数のタイミングにおいて前記学習者の肉体的・精神的情況を推定し、連続する所定数のタイミングにおいて同一の推定結果が得られた場合のみ、その推定結果を採用することである。 According to a fourth feature of the present invention, in the distance learning system, the estimating means estimates the learner's physical and mental situation at a plurality of timings, and the same estimation result is obtained at a predetermined number of consecutive timings. It is to adopt the estimation result only when it is obtained.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記配信手段が、前記学習者に相当するアバターの顔、頭髪、又は衣服の色を変化させることにより、前記学習者の肉体的・精神的情況を前記指導者用端末に配信することである。 According to a fifth aspect of the present invention, in the distance learning system, the distribution means changes the color of the face, hair, or clothes of an avatar corresponding to the learner, so that the learner's physical / spirit is changed. Is to distribute the situation to the instructor's terminal.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記配信手段が、前記推定手段により推定された前記学習者の肉体的・精神的情況を前記学習者用端末に配信することである。 A sixth feature of the present invention is that, in the distance learning system, the distribution means distributes the physical / mental situation of the learner estimated by the estimation means to the learner's terminal.

本発明の第の特徴は、前記遠隔学習システムにおいて、前記推定手段が、前記学習者の肉体的・精神的情況として、眠気、疲労、元気、溌溂、熱中、集中、興味、関心、無関心、退屈、冷淡、同意、賛成、中立、ためらい、反対、又は反発の情況を推定することである。 According to a seventh feature of the present invention, in the distance learning system, the estimating means includes sleepiness, fatigue, energy, jealousy, enthusiasm, concentration, interest, interest, indifference as the learner's physical / mental situation. Estimating circumstances of boredom, chilliness, consent, approval, neutrality, hesitation, opposition, or repulsion.

本発明によれば、指導者が学習者の肉体的・精神的情況をリアルタイムに把握し得る遠隔学習システム及び遠隔学習方法を提供することができる。これにより、指導者は、学習者の肉体的・精神的情況に応じて講義を進行することができるので、学習者の聞き逃しや見落としなどによる誤解を防止することが可能となる。   According to the present invention, it is possible to provide a remote learning system and a remote learning method in which an instructor can grasp the physical / mental situation of a learner in real time. As a result, the instructor can proceed with the lecture according to the physical / mental situation of the learner, and thus it is possible to prevent misunderstanding due to missed or overlooked by the learner.

本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における情況推定手法を説明するための図である。It is a figure for demonstrating the situation estimation method in embodiment of this invention. 本発明の実施の形態におけるルール情報の一例を示す図である。It is a figure which shows an example of the rule information in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における実験データを示す図である。It is a figure which shows the experimental data in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention. 本発明の実施の形態における遠隔学習システムの構成を示す図である。It is a figure which shows the structure of the distance learning system in embodiment of this invention.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本発明は、e−learningなどの遠隔教育において学習者の理解度をより高めるための遠隔学習システムに関する。具体的には、遠隔地にいる学習者の肉体的・精神的情況(眠気、疲労の程度、講義内容に対する関心/無関心度など)を推定し、これを指導者にリアルタイムにフィードバックすることで、より効果的な講義を行う手助けをする。特に、単一のセンサ情報を使うのではなく、複数種類のセンサ情報を合成・分析して学習者の肉体的・精神的情況を精度良く推定することが本発明の特徴である。   The present invention relates to a distance learning system for further enhancing a learner's understanding in distance education such as e-learning. Specifically, by estimating the physical and mental conditions (drowsiness, degree of fatigue, interest / indifference of lecture contents, etc.) of the learner in a remote place and feeding this back to the instructor in real time, Help to give more effective lectures. In particular, the present invention is characterized by accurately estimating the physical / mental situation of the learner by synthesizing and analyzing a plurality of types of sensor information instead of using single sensor information.

本発明の実施の形態における遠隔学習システムは、図1に示すように、各種情報を配信・管理する配信サーバ10と、ユーザが使用する複数のユーザ端末(クライアント)20A〜20Cとを備えている。これら装置は、インターネット等のネットワークを介して相互に接続されている。ユーザ端末20Aは、指導者が使用する端末であると仮定し、以下「指導者用端末」という場合がある。「指導者」には、講演者、説明者、教師などの意味が含まれるものとする。一方、ユーザ端末20B及び20Cは、学習者が使用する端末であると仮定し、以下「学習者用端末」という場合がある。「学習者」には、聴講者、生徒などの意味が含まれるものとする。   As shown in FIG. 1, the remote learning system according to the embodiment of the present invention includes a distribution server 10 that distributes and manages various types of information, and a plurality of user terminals (clients) 20A to 20C used by the user. . These devices are connected to each other via a network such as the Internet. The user terminal 20A is assumed to be a terminal used by a leader, and may be hereinafter referred to as a “leader terminal”. “Instructor” includes the meanings of a speaker, an instructor, a teacher, and the like. On the other hand, the user terminals 20B and 20C are assumed to be terminals used by the learner, and may be hereinafter referred to as “learner terminals”. “Learner” includes the meanings of listeners and students.

ユーザ端末20Aは、図2に示すように、情況評価(情況情報合成・分析)/送受信/表示部21を備えている。情況評価(情況情報合成・分析)/送受信/表示部21は、複数種類のセンサ40からのセンサ情報を合成・分析することにより情況情報を推定する情況評価機能と、他の装置との間で各種情報を送受信する機能と、受信した各種情報をディスプレイ等に表示する機能とを備えている。センサ40には、センサマウス41、Webカメラ42、加速度計43、マイク44が含まれる。言い換えると、センサ40は、ユーザ及び/又はユーザ周辺における物理的事象を検出するためのマルチセンサである。マルチセンサの詳細については後述する。検出部30には、生体情報計測部31、顔位置計測部32、加速度計測部33、音声・キーワード認識・抽出部34が含まれる。生体情報計測部31は、センサマウス41により得られたセンサ情報に基づいて生体情報を計測する。顔位置計測部32は、Webカメラ42により得られた画像に基づいて顔の位置を計測する。加速度計測部33は、加速度計43により得られたセンサ情報に基づいて加速度を計測する。音声・キーワード認識・抽出部34は、マイク44により得られた音声に基づいて音声を認識したり、キーワードを抽出したりする。ここでは、ユーザ端末20Aを例示して説明したが、他のユーザ端末20B及び20Cも同様の機能を備えている。   The user terminal 20A includes a situation evaluation (situation information synthesis / analysis) / transmission / reception / display section 21 as shown in FIG. Situation evaluation (situation information synthesis / analysis) / transmission / reception / display unit 21 synthesizes / analyzes sensor information from a plurality of types of sensors 40 to estimate situation information, and between other devices. It has a function of transmitting / receiving various types of information and a function of displaying various types of received information on a display or the like. The sensor 40 includes a sensor mouse 41, a web camera 42, an accelerometer 43, and a microphone 44. In other words, the sensor 40 is a multi-sensor for detecting physical events in and around the user. Details of the multi-sensor will be described later. The detection unit 30 includes a biological information measurement unit 31, a face position measurement unit 32, an acceleration measurement unit 33, and a voice / keyword recognition / extraction unit 34. The biological information measuring unit 31 measures biological information based on sensor information obtained by the sensor mouse 41. The face position measurement unit 32 measures the face position based on the image obtained by the Web camera 42. The acceleration measuring unit 33 measures acceleration based on the sensor information obtained by the accelerometer 43. The voice / keyword recognition / extraction unit 34 recognizes voice or extracts a keyword based on the voice obtained by the microphone 44. Here, the user terminal 20A has been described as an example, but the other user terminals 20B and 20C have the same function.

このようにマルチセンサを用いて複数種類のセンサ情報を得、これらセンサ情報を融合して処理すれば、単一のセンサ情報では得られない新たな情報を得ることができる。すなわち、図3に示すように、まずはマルチセンサから「脳波」「心拍」「血圧」「眼球運動」「発汗」「顔つき」など複数種類のセンサ情報を得る。次に、これら複数種類のセンサ情報の組み合わせに基づいて「緊張」「集中」「ひらめき」「注意散漫」「ぼんやり」「うとうと」などの徴候を推定する。更に、これら徴候の組み合わせに基づいて「熱意創意盛ん」「疲労気味で聞漏らし可能性大」「イライラで聞漏らし可能性大」「熱意なく聞漏らし可能性大」「関心低く冷淡で意思疎通少」などの情況を推定する。徴候は情況の一種であると考えてもよい。ただし、情況を推定する前処理として徴候を推定しておくことは重要である。すなわち、安価なセンサを用いると測定値が不安定になる場合もあるが、その場合でも何らかの徴候が表れたときは、その徴候の経過を観察することで、より正確に情況を推定することが可能となる。   Thus, by obtaining a plurality of types of sensor information using a multi-sensor, and processing these sensor information by fusing them, new information that cannot be obtained with a single sensor information can be obtained. That is, as shown in FIG. 3, first, a plurality of types of sensor information such as “electroencephalogram”, “heart rate”, “blood pressure”, “eye movement”, “sweat”, and “face” are obtained from the multi-sensor. Next, signs such as “tension”, “concentration”, “inspiration”, “distraction”, “blurry”, “contrast”, and the like are estimated based on a combination of the plurality of types of sensor information. Furthermore, based on the combination of these signs, “Enthusiasm and enthusiasm”, “Large possibility of leakage due to fatigue”, “Large possibility of leakage due to irritation”, “Large possibility of leakage without enthusiasm”, “Low interest and cold communication ”And so on. Signs may be considered a kind of situation. However, it is important to estimate signs as a pre-process for estimating the situation. In other words, the measurement value may become unstable if an inexpensive sensor is used, but even if some signs appear, the situation can be estimated more accurately by observing the progress of the signs. It becomes possible.

次に、本発明の実施の形態で用いるマルチセンサについて説明する。ここでは、マウスセンサ、腕時計型などのバンドセンサ、椅子などにつける設置型センサ、服・帽子などにつけるウェアラブルセンサを用いている。これら既存のセンサを用いて、脈拍(脈波)、皮膚温、発汗、加速度などの情報を得る。「皮膚温」は手首や手の甲で計測した温度であり、体温より若干低い値となるが、以下、特に両者を区別せずに説明する場合がある。脈拍や皮膚温等に加えて、Webカメラやマイクから画像や音声を得ると効果的である。このように安価で手軽なセンサを用いれば、ユーザに不快感を与えることなく情況を推定することができる。   Next, the multisensor used in the embodiment of the present invention will be described. Here, a mouse sensor, a band sensor such as a wristwatch, an installation sensor attached to a chair or the like, and a wearable sensor attached to clothes or a hat are used. Using these existing sensors, information such as pulse (pulse wave), skin temperature, sweating, acceleration and the like is obtained. “Skin temperature” is a temperature measured at the wrist or back of the hand, and is a value slightly lower than the body temperature. In addition to the pulse rate and skin temperature, it is effective to obtain images and sounds from a Web camera and microphone. By using such an inexpensive and easy sensor, it is possible to estimate the situation without causing discomfort to the user.

ただし、安価で手軽なセンサを用いるとセンサ情報の精度が低くなる場合があり、その場合は情況の推定精度も低くなるという問題がある。そこで、本発明では、推定した情況に応じてユーザに問い合わせを行い、その反応に基づいて情況を推定しなおすことで推定精度の向上を図る。例えば、あるユーザが眠気を催していると推定した場合は、そのユーザ端末に「聞いていますか」などユーザの反応を促すメッセージを表示又は音声を出力し、その後のユーザの反応に基づいて情況を推定しなおす。具体的には、ユーザが回答したり顔を上に上げたりした場合は眠っていなかったと推定し、逆に、ユーザが何も反応しなかった場合は眠っていたと推定する。このようにすれば、安価で手軽なセンサを用いた場合でも精度良くユーザの情況を推定することができる。   However, if an inexpensive and simple sensor is used, the accuracy of the sensor information may be lowered, and in this case, there is a problem that the accuracy of estimation of the situation is also lowered. Therefore, in the present invention, an inquiry is made to the user according to the estimated situation, and the estimation accuracy is improved by re-estimating the situation based on the reaction. For example, if it is estimated that a certain user is drowsy, a message prompting the user's reaction such as “Is listening” or a sound is output to the user terminal, and the situation based on the subsequent user's reaction Is estimated again. Specifically, when the user answers or raises his face, it is estimated that he was not sleeping, and conversely, when the user did not respond, it is estimated that he was asleep. In this way, it is possible to accurately estimate the user's situation even when an inexpensive and easy sensor is used.

「聞いていますか」「〜さん、大丈夫ですか?」等などのメッセージは、ユーザに対する警告情報と考えることもできる。このような警告情報は、ユーザに刺激を与える態様で提示するようにしてもよい。例えば、画面をフラッシュさせたり、あるいは、ユーザ端末が携帯端末である場合は携帯端末を振動させたりすると、ユーザを驚かせることができるので眠気を解消させることができる。また、画面をフラッシュさせたり端末を振動させたりする警告態様は、電車内のような音を出すことができない環境に適している。   Messages such as “Are you listening” or “Are you okay?” Can be considered as warning information for the user. Such warning information may be presented in a manner that stimulates the user. For example, when the screen is flashed, or when the user terminal is a mobile terminal, the mobile terminal is vibrated, so that the user can be surprised and sleepiness can be eliminated. Moreover, the warning mode in which the screen is flashed or the terminal is vibrated is suitable for an environment where no sound can be produced, such as in a train.

学習者用端末で推定された情況情報は、配信サーバ10を介して指導者用端末に配信され、例えばアバターにより指導者に提示される。アバターとは、チャットなどのコミュニケーションツールでユーザの分身として画面上に登場するキャラクターのことである。眠気の徴候が表れた場合は、アバターの頭髪の色が例えば白色に変化する。頭髪の色ではなく顔や衣装の色を変化させるようにしてもよい。変化させる色もユーザが自由に設定することができるようになっている。これにより、指導者は、学習者の肉体的・精神的情況をリアルタイムに把握し、その肉体的・精神的情況に応じて講義を進行することができるので、学習者の聞き逃しや見落としなどによる誤解を防止することが可能となる。   The situation information estimated by the learner's terminal is distributed to the instructor terminal via the distribution server 10, and is presented to the instructor by, for example, an avatar. An avatar is a character that appears on the screen as a user's alternate with a communication tool such as chat. When a sign of sleepiness appears, the color of the avatar's hair changes to, for example, white. You may make it change the color of a face and a costume instead of the color of hair. The user can also freely set the color to be changed. As a result, the instructor can grasp the physical / mental situation of the learner in real time and proceed with the lecture according to the physical / mental situation of the learner. Misunderstanding can be prevented.

学習者の情況情報は、指導者だけでなく全学習者に配信するようにしてもよいし、配信サーバ10で集計して関係者だけに公開するようにしてもよい。配信サーバ10で公開する場合は、学習者の情況情報を退屈度・眠気度・賛成度・興味度などの統計情報に加工して公開してもよいし、必要な情報だけを適応的に公開してもよい。更に、各学習者の特性データや情況情報などを配信サーバ10で管理しておき、学習教材中に登場するキーワードや学習内容の要約情報を学習者の特性に応じてその学習者用端末に適応的に表示することも可能である。   The learner's situation information may be distributed not only to the instructor but also to all the learners, or may be aggregated by the distribution server 10 and disclosed only to the related parties. When publishing on the distribution server 10, the learner's situation information may be processed into statistical information such as boredom, sleepiness, approval, interest, etc., or only necessary information may be disclosed adaptively. May be. Further, the characteristic data and situation information of each learner are managed by the distribution server 10, and the keywords appearing in the learning materials and the summary information of the learning contents are adapted to the learner's terminal according to the characteristics of the learner. It is also possible to display it automatically.

例えば、眠気状態など学習意欲が低下した場合において、その学習者が短期記憶容量の少ない学習者であるときは、学習意欲が低下していた部分のキーワードを学習者用端末に表示させるようにしてもよい。短期記憶容量は、複数の演算からなる式の暗算能力と幾つの単語を発生順序なども含めて連続記憶できるかを計測するツール(WebOPsan)を用いて測定する。キーワードを表示させるタイミングは、眠い状態であると推定された時点であってもよいし、その時点から一定期間経過した後でもよい。一定期間経過した後にキーワードを表示させる場合は、眠い状態にあった期間を特定する必要がある。そこで、本発明では、眠い状態にあった期間を記録しておき、その期間に学習者用端末に表示されたキーワードを抽出するようにしている。このようにすれば、聞き逃しや見落としが発生しても、その部分のキーワードを後で復習することができるので、誤解が生じる可能性を低下させることが可能となる。しかも、学習教材中の全キーワードが表示されるのではなく、聞き逃しや見落としが発生した可能性のある部分のキーワードだけが表示されるようにしているので、不要に多くのキーワードが表示されるという不具合も生じない。   For example, when learning motivation such as sleepiness is reduced, if the learner is a learner with a short short-term memory capacity, the portion of the keyword that has decreased learning motivation is displayed on the learner's terminal. Also good. The short-term memory capacity is measured by using a tool (WebOPsan) that measures the mental calculation ability of an expression composed of a plurality of operations and how many words can be continuously stored including the generation order. The timing for displaying the keyword may be a point in time when it is estimated that the keyword is sleepy, or may be after a certain period of time has elapsed since that point. When displaying a keyword after a certain period of time has elapsed, it is necessary to specify the period of sleepiness. Therefore, in the present invention, the period of sleepiness is recorded, and the keywords displayed on the learner's terminal during that period are extracted. In this way, even if an oversight or oversight occurs, the keyword of that part can be reviewed later, so that the possibility of misunderstanding can be reduced. In addition, not all keywords in the learning material are displayed, but only the keywords that may have been missed or overlooked are displayed, so many keywords are displayed unnecessarily. There is no problem.

一方、よそ見やローカルな話しかけ等で聞き逃しや見落としのあった場合において、その学習者が連想学習能力の弱い学習者であるときは、聞き逃しや見落としのあった部分の要約情報を学習者用端末に表示させるようにしてもよい。要約情報を表示させるタイミングは、聞き逃しや見落としのあった時点であってもよいし、その時点から一定期間経過した後でもよい。一定期間経過した後に要約情報を表示させる手法はキーワードの場合と同様であるため、ここでは詳しい説明を省略する。このようにすれば、聞き逃しや見落としが発生しても、その部分の要約情報を後で復習することができるので、誤解が生じる可能性を低下させることが可能となる。しかも、学習範囲全体の要約情報が表示されるのではなく、聞き逃しや見落としが発生した可能性のある部分の要約情報が表示されるようにしているので、適切な内容の要約情報を表示させることが可能である。   On the other hand, if the learner is a learner with weak associative learning ability due to missing or overlooked by looking away or talking locally, the summary information of the part that has been missed or overlooked is used for the learner. You may make it display on a terminal. The timing for displaying the summary information may be at the time of missing or overlooked, or after a certain period of time has elapsed from that time. Since the method for displaying the summary information after a lapse of a certain period of time is the same as that for keywords, detailed description thereof is omitted here. In this way, even if an oversight or oversight occurs, the summary information of that part can be reviewed later, so that the possibility of misunderstanding can be reduced. Moreover, instead of displaying summary information for the entire study area, summary information for parts that may have been missed or overlooked is displayed, so that summary information with appropriate content is displayed. It is possible.

なお、ここでは、短期記憶容量の少ない学習者にはキーワードを表示し、また、連想学習能力の弱い学習者には要約情報を表示することとしているが、本発明はこれに限定されるものではない。すなわち、短期記憶容量の少ない学習者にはキーワードだけでなく要約情報を表示するようにしてもよいし、連想学習能力の弱い学習者には要約情報だけでなくキーワードを表示するようにしてもよい。また、短期記憶容量が少なく且つ連想学習能力が弱い学習者にはキーワードおよび要約情報を表示するようにしてもよい。このようにすれば、より学習者の理解が深まり、効果的な復習を期待することができる。   Here, keywords are displayed for learners with short short-term memory capacity, and summary information is displayed for learners with weak associative learning ability, but the present invention is not limited to this. Absent. In other words, not only keywords but also summary information may be displayed for learners with short-term memory capacity, and keywords may be displayed not only for summary information but also for learners with weak associative learning ability. . In addition, keywords and summary information may be displayed for learners with short short-term memory capacity and weak associative learning ability. In this way, the learner's understanding is deepened and effective review can be expected.

ところで、学習者の肉体的・精神的情況を推定するには一定のルールが必要である。この推定ルールは、図4に示すように、ハードディスク等の記憶手段に予めルール情報Rとして記憶しておく。ルール情報Rは、学習者及び/又は学習者周辺における物理的事象の組み合わせ(例えば「脈拍間隔」「皮膚温」「発汗」の組み合わせ)と、学習者の肉体的・精神的情況(例えば「眠気」「ストレス」「疲労」「興奮」)との相関関係を定めた情報である。複数種類のセンサ情報を融合させれば、下記(1)〜(6)に述べるように単一のセンサ情報では得られない複雑な状況を把握することができるので、学習者の情況を精度良く推定することが可能となる。ルール情報Rを記憶する記憶手段は遠隔学習システム内にあればよく、どの装置上に存在するかは特に限定されるものではない。以下、ルール情報Rの具体例について説明する。   By the way, a certain rule is necessary to estimate the physical and mental situation of the learner. This estimation rule is stored in advance as rule information R in a storage means such as a hard disk as shown in FIG. The rule information R includes a combination of physical events in the learner and / or around the learner (for example, a combination of “pulse interval”, “skin temperature”, and “sweat”) and a physical / mental situation of the learner (for example, “sleepiness”). “Stress” “fatigue” “excitement”). By fusing multiple types of sensor information, it is possible to grasp a complicated situation that cannot be obtained with a single sensor information as described in (1) to (6) below. It is possible to estimate. The storage means for storing the rule information R only needs to be in the distance learning system, and the device on which it exists is not particularly limited. Hereinafter, a specific example of the rule information R will be described.

(1)退屈度や眠気は、脈拍間隔の増大、皮膚温あるいは発汗の低下などに基づいて推定することができる。ただし、高温高湿の場合や人によっては汗をかかない場合がある。この場合でも、あくび(口の暗部の縦幅率が一定値以上である状態が一定時間以上継続)やコックリコックリ(顔の上下動、何回も継続、比較的大、但し左右動なし)の動作をWebカメラで検出したときは、退屈や眠気の状態にあるとして推定精度を向上することができる。 (1) The degree of boredom and sleepiness can be estimated based on an increase in pulse interval, a decrease in skin temperature, or sweating. However, there are cases where high temperature and high humidity and some people do not sweat. Even in this case, yawning (the state where the vertical width ratio of the dark part of the mouth is a certain value or more continues for a certain period of time) or cockle cock (up and down of the face, continued many times, relatively large, but no lateral movement) When the motion is detected by the Web camera, it is possible to improve the estimation accuracy because it is bored or drowsy.

(2)興味は、前記(1)と逆のルールに基づいて推定することができる。 (2) The interest can be estimated based on the rule opposite to (1).

(3)賛意などは、コックリとうなずく動作(顔の上下動、2〜3回まで、比較的小さい)に基づいて推定することができる。つまり、前記の首や顔を縦に振る(うなずく)動作をWebカメラで検出したときは、賛意の状態にあると推定する。また、「ウンウン」とか「フムフム」などの音声がマイクから入力された場合は、その音声を音声認識器などで言語に変換すれば、賛意の状態にあると推定することができる。ただし、首を縦に2回振ったことを検出しただけでは、コックリコックリと眠い状態にあるのか「ウンウン」とうなずいたのか区別することができない。そこで、このコックリ動作と「ウンウン」「フムフム」音声の認識のANDを取る。更に、脈拍間隔の増大、皮膚温あるいは発汗の低下などを併せて検出精度を向上させる。すなわち、脈拍間隔の増大、皮膚温あるいは発汗の低下などがなければ、眠い状態でないとみなして「ウンウン」とうなずいたものと推定する。あるいは、Webカメラで口を縦に長く開けたことや目をつぶっていることを検出した場合は、あくびや眠気とみなして眠い状態にあると推定する。 (3) The praise and the like can be estimated based on a nodding motion (up and down motion of the face, relatively small up to 2 to 3 times). That is, when the motion of shaking the neck or face vertically (nodding) is detected by the Web camera, it is estimated that the user is in favor. Also, when a voice such as “Unun” or “Humhum” is input from a microphone, it can be estimated that the voice is converted into a language by a voice recognizer or the like. However, simply detecting that the head has been swung twice vertically cannot distinguish whether it is a sleepy state or a nod “unun”. Therefore, an AND operation is performed for the recognition operation and the recognition of “unun” and “hummum” voices. Furthermore, the detection accuracy is improved by combining an increase in pulse interval, a decrease in skin temperature or sweating, and the like. That is, if there is no increase in pulse interval, decrease in skin temperature, or sweating, it is assumed that the patient is not sleepy and nodded. Alternatively, when it is detected by the Web camera that the mouth is opened vertically or the eyes are closed, it is assumed that the mouth is sleepy by yawning or drowsiness.

(4)反対の意思などは、首や顔を左右に振ったり斜めにしたりする動作に基づいて推定することができる。つまり、このような動作をWebカメラで検出したときは、反対の意思があると推定する。また、「イヤイヤ」「エー」「そーかな」「フーン」などの音声がマイクから入力された場合は、その音声を音声認識器などで言語に変換すれば、反対の意思があると推定することができる。 (4) Opposition intentions and the like can be estimated based on an action of shaking the neck or face to the left or right or tilting it. That is, when such an operation is detected by the Web camera, it is estimated that there is an opposite intention. In addition, if voices such as “No”, “A”, “Soka”, and “Hoon” are input from a microphone, it is estimated that the intention is opposite if the voice is converted into a language using a voice recognizer or the like. be able to.

(5)反対の意思ではなく注意散漫の徴候として、同じく顔を左右に振ったり横に向けたりする場合がある。そこで、Webカメラで撮影した画像を解析することにより、人や書類などが所定の領域に出入りしたことを検出するようにしてもよい。このようにすれば、人や書類が近くに来たことで顔を横に向けたものとみなして注意散漫の徴候を推定することができる。話し声がマイクや音声認識器から入力された場合も注意散漫の徴候であると推定してもよい。「イヤイヤ」などの言葉も、横に向いた状態で発せられた場合は、途中で現れた人に言ったものであり、反対の意思ではなく注意散漫の徴候とみなすことができる。あるいは、顔を大きく上向けたり後ろを向いたりしながら椅子の背もたれを押したり、椅子を回転させたりして動かしたことを椅子に設けた加速度センサで検出した場合は、人への対応や書類の受け取りを行ったことにより注意散漫の徴候が表れたと推定することができる。 (5) As a sign of distraction rather than an intention of opposition, the face may also be swung left and right or turned sideways. Therefore, it may be detected that a person or a document has entered or exited a predetermined area by analyzing an image taken with a Web camera. In this way, it is possible to estimate a sign of distraction, assuming that the person or document has come close and that the face is turned sideways. It may also be estimated that the speech is input from a microphone or a speech recognizer as a sign of distraction. When words such as “no hate” are uttered in a sideways direction, they are said to the person who appeared on the way, and can be regarded as a sign of distraction rather than an opposite intention. Alternatively, if the accelerometer installed on the chair detects that the chair has been moved by pushing the backrest of the chair or turning the chair with the face facing upwards or facing back, It can be presumed that the sign of distraction appeared due to the receipt of.

(6)その他、厚着をしている状況下では、皮膚温が低下しなくても脈拍が低下すれば眠い状態であると推定する。また、問題解決などに緊張している状況下では、脈拍が上昇しても皮膚温や発汗が低下すれば眠い状態であると推定する。また、風邪で薬を服用している状況下では、皮膚温が上昇しても脈拍が低下すれば眠い状態であると推定する。あくびの前後では脈拍が低下し、また眠いときも脈拍が低下するので、両方のルールに基づいて眠気を推定すれば、より推定の精度を上げることができる。 (6) In addition, under the condition of thick clothing, it is estimated that the patient is sleepy if the pulse is lowered even if the skin temperature is not lowered. Also, in situations where problems are being solved, it is estimated that even if the pulse rises, if the skin temperature or sweating decreases, the patient is sleepy. In addition, under the condition of taking medicine due to a cold, it is estimated that if the pulse decreases even if the skin temperature rises, it is sleepy. Since the pulse decreases before and after yawning, and the pulse also decreases when sleepy, estimating the sleepiness based on both rules can improve the accuracy of the estimation.

次に、実験データを示しながら本発明の構成を更に詳しく説明する。昨春、ある学習者の通常時と眠気時の脈拍数、発汗、皮膚温、正答数について調べた。「正答数」はプレペリンテストの正答数である。その結果、図5に示すように、眠気時は通常時に比べて皮膚温も脈拍も低い値となることが分かった。特に、集中力が下がっている実験開始20分以降にその傾向が表れている。それに対して、発汗については同様の傾向が表れていない。つまり、複数種類のセンサを用いないと分からないことがあり、マルチセンサの必要な場合があることを示している。以下、その他の実験データとその解釈例について説明する。   Next, the configuration of the present invention will be described in more detail while showing experimental data. Last spring, we investigated the pulse rate, sweating, skin temperature, and number of correct answers of a learner during normal and sleepy periods. “Number of correct answers” is the number of correct answers of the pre-pelin test. As a result, as shown in FIG. 5, it was found that both the skin temperature and the pulse were lower during sleepiness than during normal time. In particular, the tendency appears after 20 minutes from the start of the experiment when the concentration is reduced. On the other hand, the same tendency is not shown about perspiration. In other words, it may not be known unless a plurality of types of sensors are used, indicating that a multi-sensor may be necessary. Hereinafter, other experimental data and interpretation examples thereof will be described.

(1)例えば興奮などは、一種類のセンサ情報を用いるだけでは推定することが困難であるが、複数種類のセンサ情報を用いれば精度良く推定することができる。すなわち、脈波の揺らぎが少なく血圧が高い位置を保っていた場合、被験者は緊張していることが知られている(http://www.seeds.sd.tmu.ac.jp/sys/abstdown.html?d=2008-PS04.pdf参照)。 (1) For example, excitement or the like is difficult to estimate by using only one type of sensor information, but can be accurately estimated by using a plurality of types of sensor information. In other words, it is known that the subject is nervous when the fluctuation of the pulse wave is small and the blood pressure is high (http://www.seeds.sd.tmu.ac.jp/sys/abstdown .html? d = 2008-PS04.pdf).

図6、図7、図8に示す状況では、脈波の揺らぎが少なく正答率も高いことから、被験者は多少の緊張感を持って検査に当たったと推定することができる。この推定では一種類のセンサ情報(脈波)だけを用いているが、更に発汗のデータを加えると効果的である。例えば、図8に示す状況では、脈波の揺らぎが少ないことに加えて発汗が常に高いので、興奮又は緊張状態であるという可能性がさらに高まる。つまり、複数種類のセンサを用いることで、より正確な情況評価を期待することが可能となる。   In the situation shown in FIG. 6, FIG. 7, and FIG. 8, since the fluctuation of the pulse wave is small and the correct answer rate is high, it can be estimated that the subject hit the examination with some tension. In this estimation, only one type of sensor information (pulse wave) is used, but it is effective to add more sweat data. For example, in the situation shown in FIG. 8, since the sweating is always high in addition to the small fluctuation of the pulse wave, the possibility of being in an excited state or a tension state is further increased. That is, by using a plurality of types of sensors, it is possible to expect a more accurate situation evaluation.

(2)例えば眠気などは、一種類のセンサ情報を用いるだけで推定することができるが、脈拍、発汗、皮膚温など複数種類のセンサ情報を用いると更に効果的である。複数種類のセンサ情報を用いると、室温が高かったり厚着をしていることが原因で皮膚温が高い場合でも、計測誤差を生じさせることなく正しく情況を推定することができる。 (2) For example, drowsiness can be estimated by using only one type of sensor information, but it is more effective to use a plurality of types of sensor information such as pulse, sweat, and skin temperature. When multiple types of sensor information are used, the situation can be correctly estimated without causing a measurement error even when the skin temperature is high due to high room temperature or thick clothing.

図8を見ると、実験開始55分以降、急に発汗が減少しているが、脈拍も皮膚温も低くないので、少なくとも眠いのではないと正しく情況を推定することができる(自己申告では眠気を催していない)。このような場合、最初は手が濡れていたが、除湿で部屋が乾燥していたとか汗の少ない人であったとか推定することもできる。図9を見ると、脈波の揺らぎが大きい時間帯では正答率が一時的に低下している。このことから、被験者は寝ているわけではないが眠気を催しているものと推定することができる。一種類のセンサ情報を用いるだけでも眠気などの徴候を推定することはできるが、発汗や体温の変化を検出すれば、図9に示すように「眠いのに発汗が上昇していること」や「眠いのに体温が上昇していること」から「眠気を催しているが寝ているわけではない」、図6に示すように「眠くないのに発汗が下降していること」から「眠くない」など、より正確な情況評価が可能となる。更に、湿度を検出すれば、眠いのに発汗が上昇している場合でも、その原因が湿度の高さに関係しているかどうかを推定することが可能となる。   As shown in FIG. 8, since the sweating suddenly decreased after 55 minutes from the start of the experiment, the pulse and skin temperature are not low, so it is possible to correctly estimate the situation at least if it is not sleepy (self-reported sleepiness). Not hosted). In such a case, it can be estimated that the hand was initially wet, but the room was dry due to dehumidification, or the person had little sweat. Referring to FIG. 9, the correct answer rate temporarily decreases in a time zone in which the fluctuation of the pulse wave is large. From this, it can be estimated that the subject is not sleeping but is drowsy. Although it is possible to estimate symptoms such as sleepiness by using only one type of sensor information, if we detect sweating or changes in body temperature, as shown in FIG. From “being sleepy, body temperature is rising” to “being sleepy but not sleeping”, as shown in FIG. 6 “being not sleepy but sweating falling” to “sleepy It is possible to evaluate the situation more accurately. Furthermore, if the humidity is detected, it is possible to estimate whether or not the cause is related to the high humidity even if the sweating increases even though it is sleepy.

(3)タイミングによっては、各センサからのセンサ情報(徴候)のANDが取れず、情況を推定することができない場合がある。このような場合でも、複数のタイミングにおいて各センサからのセンサ情報のANDを取れば、いずれかのタイミングにおいて情況を推定することが可能となる。 (3) Depending on the timing, sensor information (symptoms) from each sensor cannot be ANDed and the situation cannot be estimated. Even in such a case, if the AND of the sensor information from each sensor is taken at a plurality of timings, the situation can be estimated at any timing.

例えば、図10を見ると、発汗の低下と集中度(正答数)の低下との間に若干のタイムラグが発生している。このとき、気温は28度で部屋には冷房が効いていた。このことがタイムラグが発生した原因になっていると考えられる。図7でも同様に、発汗の低下と集中度の低下との間に若干のタイムラグが発生している。タイムラグが発生する場合、タイミングによっては、各センサからのセンサ情報のANDが取れず、情況を推定することができない。この場合、複数のタイミングにおいて各センサからのセンサ情報のANDを取れば、いずれかのタイミングにおいて情況を推定することが可能となる。もちろん、連続する幾つかのタイミングにおいて同一の推定結果が得られた場合のみ、その推定結果を採用するようにしてもよい。このようにすれば、推定精度をより向上させることができる。安価なセンサを用いた場合は計測値が不安定になることがあるので、この場合にも多数のセンサを用いて複数のタイミングにおいて情況を推定する手法は有効である。なお、タイムラグ発生可能性を知識データとし、事前に設定しておくことにより、センサ情報と徴候とは必ずしも同時刻に計測されていなくても、情況を推定することは可能である。   For example, referring to FIG. 10, there is a slight time lag between the decrease in sweating and the decrease in the degree of concentration (number of correct answers). At this time, the temperature was 28 degrees and the room was air-conditioned. This is considered to be the cause of the time lag. In FIG. 7 as well, there is a slight time lag between the decrease in sweating and the decrease in concentration. When a time lag occurs, depending on the timing, sensor information from each sensor cannot be ANDed, and the situation cannot be estimated. In this case, if the AND of the sensor information from each sensor is taken at a plurality of timings, the situation can be estimated at any timing. Of course, the estimation result may be adopted only when the same estimation result is obtained at several successive timings. In this way, the estimation accuracy can be further improved. When an inexpensive sensor is used, the measurement value may become unstable. In this case as well, a technique for estimating the situation at a plurality of timings using a large number of sensors is effective. Note that, by setting the possibility of occurrence of time lag as knowledge data and setting it in advance, it is possible to estimate the situation even if the sensor information and the symptom are not necessarily measured at the same time.

以下、図11〜図17を用いて、本発明の実施の形態における遠隔学習システムの具体的な構成例について説明する。ここでは、クライアント20内のプログラムがC言語やjava(登録商標)により記述されている場合を例示するが、プログラミング言語は特に限定されるものではない。また、クライアント20の機能を中心に説明するが、同様の機能の全部又は一部を配信サーバ10が備えるようにしてもよい。   Hereinafter, a specific configuration example of the distance learning system according to the embodiment of the present invention will be described with reference to FIGS. Here, a case where the program in the client 20 is described in C language or Java (registered trademark) is illustrated, but the programming language is not particularly limited. Although the description will focus on the function of the client 20, the distribution server 10 may be provided with all or part of the same function.

図11に示すように、クライアント20は、配信要求モジュール、情況情報合成・反映部、自他アバター反映モジュール、脈拍低下判定モジュール、体温・汗低下判定モジュールなどを備えている。配信要求モジュールは、配信サーバ10にデータ配信を要求する。情況情報合成・反映部は、ユーザの情況を推定して、その推定結果を反映させるよう他の処理部に指示する。自他アバター反映モジュールは、自身のユーザ端末20や他人のユーザ端末20に登場するアバターに推定結果を反映させる。脈拍低下判定モジュールは、脈拍が低下したかどうかを判定し、体温・汗低下判定モジュールは、体温や汗の量が低下したかどうかを判定する。このような構成によれば、脈拍、体温、汗などの生体情報に基づいてユーザの情況を推定することができる。   As shown in FIG. 11, the client 20 includes a distribution request module, a situation information composition / reflection unit, a self-other avatar reflection module, a pulse reduction determination module, a body temperature / sweat reduction determination module, and the like. The distribution request module requests the distribution server 10 for data distribution. The situation information composition / reflection unit estimates the user's situation and instructs the other processing unit to reflect the estimation result. The own / other avatar reflection module reflects the estimation result on the avatar appearing in the user terminal 20 of the user or the user terminal 20 of another person. The pulse reduction determination module determines whether or not the pulse has decreased, and the body temperature / sweat reduction determination module determines whether or not the body temperature and the amount of sweat have decreased. According to such a structure, a user's condition can be estimated based on biological information, such as a pulse, a body temperature, and sweat.

図12に示すように、クライアント20は、配信要求モジュール、情況情報合成・反映部、自他アバター反映モジュール、加速度判定モジュールなどを備えている。加速度判定モジュールは加速度を判定する。その他のモジュールについては図11で説明した通りであるため説明を省略する。このような構成によれば、ユーザが座っている椅子の動き等に基づいてユーザの情況を推定することができる。   As shown in FIG. 12, the client 20 includes a distribution request module, a situation information composition / reflection unit, a self-other avatar reflection module, an acceleration determination module, and the like. The acceleration determination module determines acceleration. The other modules are the same as described with reference to FIG. According to such a configuration, the user's situation can be estimated based on the movement of the chair on which the user is sitting.

図13に示すように、クライアント20は、配信要求モジュール、情況情報合成・反映部、自他アバター反映モジュール、あくび判定モジュール、首振り上下判定モジュール、首振り左右判定モジュールなどを備えている。あくび判定モジュールは、ユーザがあくびをしたかどうか判定する。首振り上下判定モジュールは、ユーザが首を上下に振ったかどうかを判定する。首振り左右判定モジュールは、ユーザが首を左右に振ったかどうかを判定する。このような構成によれば、ユーザ周辺で撮影された画像に基づいてユーザの情況を推定することができる。   As illustrated in FIG. 13, the client 20 includes a distribution request module, a situation information composition / reflection unit, a self-other avatar reflection module, a yawn determination module, a swing up / down determination module, a swing left / right determination module, and the like. The yawn determination module determines whether the user yawns. The swing up / down determination module determines whether or not the user has swung the head up and down. The swing left / right determination module determines whether the user has swung the head left and right. According to such a structure, a user's condition can be estimated based on the image image | photographed around the user.

図14に示すように、クライアント20は、配信要求スレッド、音声情報監視モジュール、チャット画面反映モジュールなどを備えている。音声情報監視モジュールは、マイクから音声情報が入力されたかどうかを監視する。チャット画面反映モジュールは、入力された音声情報から取得したキーワードや要約情報を眠気などの音声以外の情況情報やその配信結果も考慮してチャット画面に反映させる。このような構成によれば、ユーザ周辺の音声に基づいてユーザの情況を推定することができる。   As shown in FIG. 14, the client 20 includes a distribution request thread, a voice information monitoring module, a chat screen reflection module, and the like. The voice information monitoring module monitors whether voice information is input from the microphone. The chat screen reflection module reflects the keyword and summary information acquired from the input voice information on the chat screen in consideration of situation information other than voice such as sleepiness and the distribution result thereof. According to such a configuration, the user situation can be estimated based on the voice around the user.

図15に示すように、クライアント20は、情況情報監視・メータ作成表示部、理解度メータ作成・表示モジュール、眠気・退屈度メータ作成・表示モジュール、集中度メータ作成・表示モジュールなどを備えている。情況情報監視・メータ作成表示部は、入力される各種情況情報を監視しており、情況情報に変化があると、その内容を各メータ作成・表示モジュールに通知する。理解度メータ作成・表示モジュールは、ユーザの学習理解度を示すメータを作成・表示し、眠気・退屈度メータ作成・表示モジュールは、ユーザの眠気・退屈度を示すメータを作成・表示し、集中度メータ作成・表示モジュールは、ユーザの集中度を示すメータを作成・表示する。このような構成によれば、ユーザの情況がメータで表示されるので、容易にユーザの情況を把握することができる。   As shown in FIG. 15, the client 20 includes a situation information monitor / meter creation / display unit, an understanding level meter creation / display module, a drowsiness / boredness meter creation / display module, a concentration meter creation / display module, and the like. . The situation information monitoring / meter creation display unit monitors various input situation information, and if there is a change in the situation information, notifies the meter creation / display module of the contents. The comprehension meter creation / display module creates and displays a meter that shows the user's learning comprehension level, and the sleepiness / boredness meter creation / display module creates and displays a meter that indicates the user's drowsiness / boring degree, and concentrates The degree meter creation / display module creates and displays a meter indicating the degree of user concentration. According to such a configuration, since the user's situation is displayed on the meter, the user's situation can be easily grasped.

図16に示すように、クライアント20は、配信要求モジュール、情況情報監視・合成・反映モジュール、自他アバター反映モジュール、アバター動作決定モジュールなどを備えている。アバター動作決定モジュールは、首振りや手振りをするかどうかなど、アバターの動作を決定する。このような構成によれば、ユーザの情況がアバターで表示されるので、容易にユーザの情況を把握することができる。   As shown in FIG. 16, the client 20 includes a distribution request module, a situation information monitoring / combining / reflection module, a self-other avatar reflection module, an avatar action determination module, and the like. The avatar motion determination module determines the motion of the avatar, such as whether to swing or shake. According to such a structure, since a user's condition is displayed by an avatar, a user's condition can be grasped | ascertained easily.

図17に示すように、クライアント20は、眠気度変数・警告監視モジュール、警告音モジュール、警告テキスト表示モジュールなどを備えている。眠気度変数・警告監視モジュールは、眠気度変数を監視しており、眠気度変数の値が所定の値に達すると警告音モジュール又は警告テキスト表示モジュールを起動させる。警告音モジュールは警告音を出力し、警告テキスト表示モジュールは警告テキストを表示する。このような構成によれば、適切なタイミングでユーザに警告を与えることができるので、学習効果を向上させることが可能となる。   As shown in FIG. 17, the client 20 includes a sleepiness level variable / warning monitoring module, a warning sound module, a warning text display module, and the like. The sleepiness level variable / warning monitoring module monitors the sleepiness level variable, and activates the warning sound module or the warning text display module when the value of the sleepiness level variable reaches a predetermined value. The warning sound module outputs a warning sound, and the warning text display module displays the warning text. According to such a configuration, a warning can be given to the user at an appropriate timing, so that the learning effect can be improved.

以上のように、本発明によれば、指導者が学習者の肉体的・精神的情況をリアルタイムに把握し得る遠隔学習システム及び遠隔学習方法を提供することができる。これにより、指導者は、学習者の肉体的・精神的情況に応じて講義を進行することができるので、学習者の聞き逃しや見落としなどによる誤解を防止することが可能となる。このような遠隔学習システムを導入することにより、遠隔学習におけるニーズの増加を見込むことができる。また、説明・講演における複数の聴講者・受講者の情況をリアルタイムに把握可能なことは、遠隔学習のみではなく、遠隔共同開発、官が研究奨励する在宅勤務、海外でのオフショア開発などの効率向上に繋がる。   As described above, according to the present invention, it is possible to provide a remote learning system and a remote learning method in which an instructor can grasp the physical / mental situation of a learner in real time. As a result, the instructor can proceed with the lecture according to the physical / mental situation of the learner, and thus it is possible to prevent misunderstanding due to missed or overlooked by the learner. By introducing such a distance learning system, an increase in the needs in distance learning can be expected. In addition, it is not only distance learning but also remote collaborative development, telecommuting that encourages government research, and offshore development overseas. It leads to improvement.

なお、前記の説明では、幾つかの肉体的・精神的情況を例示したが、本発明で採用する肉体的・精神的情況は、前記した内容に限定されるものではない。すなわち、眠気、疲労、元気、溌溂、熱中、集中、興味、関心、無関心、退屈、冷淡、同意、賛成、中立、ためらい、反対、反発など、様々な情況を推定することができる。   In the above description, several physical / mental situations have been exemplified, but the physical / mental situations employed in the present invention are not limited to the above-described contents. That is, various situations such as sleepiness, fatigue, spirit, jealousy, enthusiasm, concentration, interest, interest, indifference, boredom, coldness, consent, approval, neutrality, hesitation, opposition, and repulsion can be estimated.

10 配信サーバ
20A ユーザ端末(指導者用端末)
20B ユーザ端末(学習者用端末)
20C ユーザ端末(学習者用端末)
10 Distribution server 20A User terminal (terminal for leader)
20B User terminal (learner terminal)
20C user terminal (learner terminal)

Claims (7)

学習者が使用する学習者用端末と指導者が使用する指導者用端末とがネットワークを介して接続された遠隔学習システムであって、
前記学習者及び/又は前記学習者周辺における物理的事象を検出するための複数種類のセンサと、
前記学習者及び/又は前記学習者周辺における物理的事象の組み合わせと前記学習者の肉体的・精神的情況との相関関係を定めたルール情報を記憶する記憶手段と、
前記複数種類のセンサにより検出された物理的事象の組み合わせと前記記憶手段に記憶されたルール情報とに基づいて前記学習者の肉体的・精神的情況を推定する推定手段と、
前記推定手段により推定された前記学習者の肉体的・精神的情況を前記指導者用端末に配信する配信手段とを備え、
前記配信手段は、情況の推定精度を向上させるために、前記学習者の反応を促す問い合わせ情報および、情況の推定結果を再確認する情報を配信し、
前記推定手段は、前記問い合わせ後の前記学習者の反応および、前記情況の再確認によって得た情報に基づいて前記学習者の肉体的・精神的情況を推定しなおし
前記配信手段は、前記学習者の学習意欲が低下した場合は、前記学習者に刺激を与える態様で警告情報を配信することを特徴とする遠隔学習システム。
A distance learning system in which a learner terminal used by a learner and a teacher terminal used by a teacher are connected via a network,
A plurality of types of sensors for detecting physical events in and around the learner; and
Storage means for storing rule information defining a correlation between the learner and / or a combination of physical events around the learner and the physical and mental situation of the learner;
Estimating means for estimating the physical and mental situation of the learner based on a combination of physical events detected by the plurality of types of sensors and the rule information stored in the storage means;
A delivery means for delivering the learner's physical and mental situation estimated by the estimation means to the instructor terminal;
The distribution means distributes inquiry information for prompting the learner's reaction and information for reconfirming the situation estimation result in order to improve the situation estimation accuracy ,
The estimation means re- estimates the learner's physical / mental situation based on the learner's reaction after the inquiry and information obtained by reconfirming the situation,
When the learner's willingness to learn decreases, the delivery means delivers warning information in a manner that stimulates the learner.
前記配信手段は、前記学習者の学習意欲が低下した場合または前記学習者が聞き逃しあるいは見落としをした場合において、(A)前記学習者が短期記憶容量の少ない学習者であるときはキーワードを前記学習者用端末に配信し、(B)前記学習者が連想学習能力の弱い学習者であるときは要約情報を前記学習者用端末に配信し、(C)前記学習者が短期記憶容量の少ない学習者であり且つ連想学習能力の弱い学習者であるときはキーワードおよび要約情報を前記学習用端末に配信することを特徴とする請求項1記載の遠隔学習システム。   When the learner's willingness to learn decreases or the learner misses or overlooks, (A) when the learner is a learner with a short short-term memory capacity, (B) When the learner is a learner with weak associative learning ability, the summary information is delivered to the learner terminal, and (C) the learner has a short-term memory capacity. 2. The distance learning system according to claim 1, wherein when a learner is a learner with weak associative learning ability, a keyword and summary information are distributed to the learning terminal. 前記推定手段は、複数のタイミングにおいて前記学習者の肉体的・精神的情況を推定することを特徴とする請求項1記載の遠隔学習システム。   The distance learning system according to claim 1, wherein the estimating means estimates a physical / mental situation of the learner at a plurality of timings. 前記推定手段は、複数のタイミングにおいて前記学習者の肉体的・精神的情況を推定し、連続する所定数のタイミングにおいて同一の推定結果が得られた場合のみ、その推定結果を採用することを特徴とする請求項1記載の遠隔学習システム。   The estimation means estimates the physical / mental situation of the learner at a plurality of timings, and adopts the estimation results only when the same estimation results are obtained at a predetermined number of consecutive timings. The distance learning system according to claim 1. 前記配信手段は、前記学習者に相当するアバターの顔、頭髪、又は衣服の色を変化させることにより、前記学習者の肉体的・精神的情況を前記指導者用端末に配信することを特徴とする請求項1記載の遠隔学習システム。   The distribution means distributes the physical / mental situation of the learner to the instructor terminal by changing the color of the face, hair, or clothes of an avatar corresponding to the learner. The distance learning system according to claim 1. 前記配信手段は、前記推定手段により推定された前記学習者の肉体的・精神的情況を前記学習者用端末に配信することを特徴とする請求項1記載の遠隔学習システム。   The remote learning system according to claim 1, wherein the distribution unit distributes the physical / mental situation of the learner estimated by the estimation unit to the learner's terminal. 前記推定手段は、前記学習者の肉体的・精神的情況として、眠気、疲労、元気、溌溂、熱中、集中、興味、関心、無関心、退屈、冷淡、同意、賛成、中立、ためらい、反対、又は反発の情況を推定することを特徴とする請求項1記載の遠隔学習システム。   The estimation means includes the learner's physical / mental situation as sleepiness, fatigue, energy, jealousy, enthusiasm, concentration, interest, interest, indifference, boredom, coldness, consent, approval, neutrality, hesitation, opposition, The distance learning system according to claim 1, wherein the situation of repulsion is estimated.
JP2009150283A 2009-06-24 2009-06-24 Distance learning system and distance learning method Expired - Fee Related JP5392906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009150283A JP5392906B2 (en) 2009-06-24 2009-06-24 Distance learning system and distance learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009150283A JP5392906B2 (en) 2009-06-24 2009-06-24 Distance learning system and distance learning method

Publications (2)

Publication Number Publication Date
JP2011007963A JP2011007963A (en) 2011-01-13
JP5392906B2 true JP5392906B2 (en) 2014-01-22

Family

ID=43564718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009150283A Expired - Fee Related JP5392906B2 (en) 2009-06-24 2009-06-24 Distance learning system and distance learning method

Country Status (1)

Country Link
JP (1) JP5392906B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097311A (en) * 2011-11-04 2013-05-20 Zenrin Datacom Co Ltd Learning support device, learning support method and learning support program
JP5949143B2 (en) 2012-05-21 2016-07-06 ソニー株式会社 Information processing apparatus and information processing method
KR101607731B1 (en) * 2013-12-19 2016-03-30 정진영 Reading room administrating system and reading room unit comprising the same
KR20160030415A (en) * 2014-09-10 2016-03-18 (주)지디아이코리아 Education management system using life simulation and method thereof
KR101715323B1 (en) * 2015-06-05 2017-03-22 (주)인클라우드 Smart education system based on learner emotion
JP6894228B2 (en) * 2016-12-19 2021-06-30 シャープ株式会社 Servers, information processing methods, network systems, and terminals
JP6807565B2 (en) * 2017-05-12 2021-01-06 パナソニックIpマネジメント株式会社 Action goal achievement support system, information processing method and program
US10127825B1 (en) * 2017-06-13 2018-11-13 Fuvi Cognitive Network Corp. Apparatus, method, and system of insight-based cognitive assistant for enhancing user's expertise in learning, review, rehearsal, and memorization
JP7056339B2 (en) * 2018-04-12 2022-04-19 富士通株式会社 User support programs, user support devices and user support methods
WO2019220751A1 (en) * 2018-05-16 2019-11-21 オムロン株式会社 Information processing device, information processing method, and information processing program
JP7113380B2 (en) * 2018-11-22 2022-08-05 パナソニックIpマネジメント株式会社 LEARNING SYSTEM, LEARNING METHOD AND COMPUTER PROGRAM
JP7095593B2 (en) * 2018-12-28 2022-07-05 トヨタ紡織株式会社 Interest estimation system
WO2020241222A1 (en) * 2019-05-28 2020-12-03 パナソニックIpマネジメント株式会社 Cleanup assisting system and cleanup assisting method
JP2021022157A (en) * 2019-07-26 2021-02-18 株式会社ベネッセコーポレーション Program, method for processing information, and information processor
KR102107337B1 (en) * 2019-08-06 2020-05-07 장현갑 System for smart study management using wearable device
JP2021086422A (en) * 2019-11-28 2021-06-03 株式会社すららネット Learning management system, and control method for learning management system
KR102260223B1 (en) * 2020-09-08 2021-06-03 (주)웅진씽크빅 System and method for supporting untact learning
KR102383457B1 (en) * 2021-05-28 2022-04-08 주식회사 아이스크림에듀 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same
WO2024062935A1 (en) * 2022-09-21 2024-03-28 日本電気株式会社 Information processing device, system, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3360837B2 (en) * 1991-03-23 2003-01-07 株式会社ナムコ Diversion device
JPH1165422A (en) * 1997-08-22 1999-03-05 Omron Corp Method for evaluating mental and bodily state of opeator, and method and system for controlling contents of operation using equipment
JP4285012B2 (en) * 2003-01-31 2009-06-24 株式会社日立製作所 Learning situation judgment program and user situation judgment system
JP4631014B2 (en) * 2004-07-07 2011-02-16 学校法人東海大学 Electronic teaching material learning support device, electronic teaching material learning support system, electronic teaching material learning support method, and electronic learning support program
JP4579634B2 (en) * 2004-09-29 2010-11-10 公立大学法人会津大学 Learning support system and learning support method

Also Published As

Publication number Publication date
JP2011007963A (en) 2011-01-13

Similar Documents

Publication Publication Date Title
JP5392906B2 (en) Distance learning system and distance learning method
US11202594B2 (en) Stimulus information compiling method and system for tests
US9953650B1 (en) Systems, apparatus and methods for using biofeedback for altering speech
Chen et al. Effects of online synchronous instruction with an attention monitoring and alarm mechanism on sustained attention and learning performance
Wang Pupil dilation and eye tracking
US20180032126A1 (en) Method and system for measuring emotional state
US20160042648A1 (en) Emotion feedback based training and personalization system for aiding user performance in interactive presentations
Twyman et al. Robustness of multiple indicators in automated screening systems for deception detection
JP2013097311A (en) Learning support device, learning support method and learning support program
Pengnate Shocking secret you won’t believe! Emotional arousal in clickbait headlines: An eye-tracking analysis
WO2017152215A1 (en) A system for improving engagement
US11393357B2 (en) Systems and methods to measure and enhance human engagement and cognition
TW201941152A (en) Real-time monitoring method for interactive online teaching executed by virtues of a server end as well as a teaching end and a student end which respectively present teaching contents to a teacher and a student
TWI642026B (en) Psychological and behavioral assessment and diagnostic methods and systems
Chan et al. Evaluation of a non-invasive vocal cord vibration switch as an alternative access pathway for an individual with hypotonic cerebral palsy–a case study
Höver et al. Classquake: Measuring students' attentiveness in the classroom
US20230127335A1 (en) Intelligent and adaptive measurement system for remote education
WO2022168180A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022064621A1 (en) Video meeting evaluation system and video meeting evaluation server
El Kaliouby et al. iSET: interactive social-emotional toolkit for autism spectrum disorder
Ito et al. Detecting Concentration of Students Using Kinect in E-learning
WO2022064620A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022064617A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022074785A1 (en) Video meeting evaluation terminal, video meeting evaluation system, and video meeting evaluation program
WO2022064619A1 (en) Video meeting evaluation system and video meeting evaluation server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131011

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees