JP2021018408A - Learning system, learning class providing method and program - Google Patents
Learning system, learning class providing method and program Download PDFInfo
- Publication number
- JP2021018408A JP2021018408A JP2019190680A JP2019190680A JP2021018408A JP 2021018408 A JP2021018408 A JP 2021018408A JP 2019190680 A JP2019190680 A JP 2019190680A JP 2019190680 A JP2019190680 A JP 2019190680A JP 2021018408 A JP2021018408 A JP 2021018408A
- Authority
- JP
- Japan
- Prior art keywords
- student
- lecture
- concentration
- result information
- determination result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 55
- 239000012141 concentrate Substances 0.000 claims description 24
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 230000002787 reinforcement Effects 0.000 description 49
- 238000012545 processing Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 10
- 230000003014 reinforcing effect Effects 0.000 description 7
- 230000037007 arousal Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 210000003128 head Anatomy 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000001502 supplementing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000019020 vocalization behavior Effects 0.000 description 1
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、計算機システムを利用して学習を支援する技術に関する。 The present invention relates to a technique for supporting learning by using a computer system.
特許文献1には、各学習者の受講する講義の内容及び難易度が最適化されており、自身の学習到達度に適合しない講義の受講を自動的に且つ可及的に排除する学習システムが開示されている。 Patent Document 1 provides a learning system in which the content and difficulty level of lectures taken by each learner are optimized, and the attendance of lectures that do not match their own learning achievement is automatically and as much as possible. It is disclosed.
特許文献1の学習システムは、難易度が異なる複数の講義を用意するとともに、各講義を複数の小講義に分割し、小講義毎に各学習者に対して小テストを課し、その各小テストの結果を参照して各学習者に受講させる講義の難易度が適切であるか否かを判定し、各学習者が受講する講義の最適化を自動的に行う。 The learning system of Patent Document 1 prepares a plurality of lectures having different difficulty levels, divides each lecture into a plurality of small lectures, imposes a quiz on each learner for each small lecture, and makes each small lecture. By referring to the test results, it is judged whether or not the difficulty level of the lecture to be taken by each learner is appropriate, and the lecture to be taken by each learner is automatically optimized.
また、特許文献2には、講義映像における任意の時間的範囲の内容について、受講者の理解度を評価する装置が開示されている。 Further, Patent Document 2 discloses a device for evaluating the degree of understanding of a student regarding the content of an arbitrary time range in a lecture video.
特許文献2の装置は、講義映像を視聴する受講者が撮影された受講者映像について、任意の時間的範囲に映された受講者の講義に対する反応を認識する受講者反応認識部と、認識された受講者の反応が肯定的または否定的である程度に基づいて、受講者の講義に対する理解度を推定する理解度推定部と、講義映像が受講者に提示される際に再生が制御された内容を表す再生制御情報を取得する再生制御情報取得部と、推定された理解度と、理解度が推定された受講者映像の時間的範囲と、再生制御情報とに基づいて、受講者の理解が理解度である講義映像の時間的範囲に関する情報を求める講義映像分析部と、を備える。 The device of Patent Document 2 is recognized as a student reaction recognition unit that recognizes the reaction of the student to the lecture projected in an arbitrary time range with respect to the student image taken by the student who watches the lecture video. The comprehension estimation unit that estimates the level of understanding of the student's lecture based on the positive or negative reaction of the student, and the content whose playback is controlled when the lecture video is presented to the student. Based on the playback control information acquisition unit that acquires the playback control information representing the above, the estimated comprehension level, the time range of the student video for which the comprehension level is estimated, and the playback control information, the student's understanding can be understood. It is equipped with a lecture video analysis department that requests information on the time range of lecture video, which is the degree of understanding.
特許文献1の学習システムは、小テストの結果を基に講義の難易度を最適化する。しかしながら、学習者の学力を向上させるためには講義の難易度を調整するだけでは十分ではない。例えば、学習者が講義に集中していなければ、適切な難易度の講義も十分に効果を発揮しない。ことが考えられる。 The learning system of Patent Document 1 optimizes the difficulty level of the lecture based on the result of the quiz. However, adjusting the difficulty of the lecture is not enough to improve the learner's academic ability. For example, if the learner is not focused on the lecture, a lecture of appropriate difficulty will not be effective enough. Is possible.
特許文献2の装置は、受講者の反応から理解度を推定する。この推定した理解度は、受講者の理解度向上および講義映像の品質改善のために利用できると述べられている。しかしながら、推定した理解度をどのように利用して受講者の理解度向上および講義映像の品質改善を実現するのか述べられていない。 The device of Patent Document 2 estimates the degree of understanding from the reaction of the student. It is stated that this estimated comprehension can be used to improve the comprehension of the students and improve the quality of the lecture video. However, it is not stated how to use the estimated comprehension level to improve the comprehension level of the students and the quality of the lecture video.
本開示のひとつの目的は、受講者の学力向上に効果的な学習システムを実現する技術を提供することである。 One purpose of the present disclosure is to provide a technique for realizing an effective learning system for improving the academic ability of students.
本発明のひとつの実施態様に従う学習システムは、映像と音声を含む講義を提供する学習システムであって、前記講義を受講する受講者を撮影するするために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部と、前記画像と前記集中判定結果情報とに基づいて、前記受講者が前記講義の内容を理解しているか否かに関する判定を行い、該判定の結果に基づく理解判定結果情報を記録する理解判定部と、前記集中判定結果情報および前記理解判定結果情報に基づいて前記講義を制御する講義制御部と、を有する。 A learning system according to one embodiment of the present invention is a learning system that provides a lecture including video and audio, and is based on an image acquired for photographing a student who takes the lecture. Based on the centralized judgment unit that makes a judgment as to whether or not the person is concentrating on the lecture and records the concentrated judgment result information based on the judgment result, and the image and the concentrated judgment result information, the student Determines whether or not the lecture is understood, and records the understanding determination result information based on the result of the determination, and the centralized determination result information and the understanding determination result information. It has a lecture control unit that controls lectures.
本発明によれば、講義を受ける受講者が集中しているか否かと講義を理解しているか否かという2つの状態情報に基づいて講義を制御するので、受講者の学力向上に効果的な講義を提供することができる。 According to the present invention, since the lecture is controlled based on two state information, whether or not the students who take the lecture are concentrated and whether or not the lecture is understood, the lecture is effective for improving the academic ability of the students. Can be provided.
以下、本発明の実施形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本実施形態の学習システムは、講師を模した姿を有する仮想的な人物(以下「アバター講師」ともいう)により、受講者に、映像および音声で構成された講義コンテンツを提供する計算機システムである。学習すべき内容を複数の単位に分割し、各単位に対して講義コンテンツが準備されいてる。学習システムはカメラおよびマイクを備え、受講者の画像および音声から受講者の状態を取得することができる。学習システムは、受講者の状態に応じて、提供する講義コンテンツを選択し、また講義コンテンツの提供を制御することにより、受講者の効果的な学習を支援する。また、学習システムは、講義コンテンツの合間および講義コンテンツの途中でアバター講師から受講者に呼びかけ、また受講者の反応を検知することにより、アバター講師と受講者とのインタラクティブな疑似的対話を実現する。 The learning system of this embodiment is a computer system that provides lecture contents composed of video and audio to students by a virtual person (hereinafter, also referred to as "avatar instructor") who imitates an instructor. .. The content to be learned is divided into multiple units, and lecture content is prepared for each unit. The learning system is equipped with a camera and a microphone, and can acquire the student's status from the student's image and sound. The learning system supports the effective learning of the student by selecting the lecture content to be provided according to the state of the student and controlling the provision of the lecture content. In addition, the learning system realizes an interactive pseudo-dialogue between the avatar instructor and the student by calling the student from the avatar instructor in between the lecture contents and in the middle of the lecture content and detecting the reaction of the student. ..
図1は、学習システムの機能構成を示すブロック図である。図2は、学習システムのハードウェア構成を示すブロック図である。 FIG. 1 is a block diagram showing a functional configuration of a learning system. FIG. 2 is a block diagram showing a hardware configuration of the learning system.
図1を参照すると、学習システム10は、集中判定部11、理解判定部12、講義制御部13、補強行動検出部14、補強行動促進部15、集中継続時間調整部16、および記憶部17を有している。記憶部17には、サービスを実行するのに必要な予め準備されたデータが記録されている。集中判定部11、理解判定部12、講義制御部13、補強行動検出部14、補強行動促進部15、および集中継続時間調整部16は、それぞれが実行する処理がソフトウェアプログラムにより規定され、プロセッサがそのソフトウェアプログラムを実行することにより実現される。
With reference to FIG. 1, the
図2を参照すると、学習システム10は、サーバ20と、インターネット等の通信ネットワーク経由でサーバ20に接続可能なパーソナルコンピュータやスマートホン等の情報端末とで構成されている。受講者90は、情報端末30上のブラウザ33を用いてサーバ20に接続し、サーバ20から提供されるサービスを利用する。サービスは、学習コンテンツを提供するサービスである。サービスは図1に示した各部により実現される。
Referring to FIG. 2, the
図2に示すように、サーバ20は、ハードウェアとして、処理装置21、メインメモリ22、記憶装置23、通信装置24、入力装置25、および表示装置26を有し、それらがバス27に接続されている。
As shown in FIG. 2, the
記憶装置23は、書込みおよび読み出しが可能にデータを記憶するものである。図1に示した記憶部17はこの記憶装置23によって実現される。処理装置21は、記憶装置23に記憶されたデータをメインメモリ22に読み出し、メインメモリ22を利用してソフトウェアプログラムの処理を実行するプロセッサである。処理装置21によって、図1に示した集中判定部11、理解判定部12、講義制御部13、補強行動検出部14、補強行動促進部15、および集中継続時間調整部16が実現される。
The
通信装置24は、処理装置21にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報を処理装置21に伝達する。受信した情報は処理装置21にてソフトウェアの処理に利用される。
The
入力装置25は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報は処理装置21にてソフトウェア処理に利用される。表示装置26は、処理装置21によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。入力装置25および表示装置26は、主には、受講者90ではなく管理者(不図示)が利用するために設けられている。
The
図1に戻り、記憶部17は、講義コンテンツを予め記憶している。本実施形態では、学習すべき内容の単位毎に、標準的な講義(以下「標準講義」ともいう)を収めた標準講義コンテンツと、標準講義を補うための講義(以下「補習講義」ともいう)を収めた補習講義コンテンツとが準備されている。
Returning to FIG. 1, the
集中判定部11は、講義を受講する受講者90が講義に集中しているか否かに関する判定を行い、その判定の結果に基づく集中判定結果情報を記録する。
The
理解判定部12は、受講者90が講義の内容を理解しているか否かに関する判定を行い、その判定の結果に基づく理解判定結果情報を記録する。
The
講義制御部13は、集中判定結果情報および理解判定結果情報に基づいて講義を制御する。こののように、講義を受ける受講者90が集中しているか否かと講義を理解しているか否かという2つの状態情報に基づいて講義を制御するので、受講者90の学力向上に効果的な講義を提供することができる。
The
より具体的な処理について説明する。図2に示すように、情報端末30にはカメラ31が備えられている。情報端末30は、講義を受けている受講者90の画像をカメラ31で撮影し、画像データをサーバ20に送信する。サーバ20で画像データを用いた処理が行われる。
A more specific process will be described. As shown in FIG. 2, the
当初には講義制御部13は標準講義コンテンツを受講者90に提供している。その際、集中判定部11は、カメラ31で撮影された画像に基づいて受講者90が集中しているか否か判定する。また、理解判定部12は、カメラ31で撮影された画像に基づいて受講者90が講義を理解しているか否か判定する。講義制御部13は、受講者90が集中していないとき受講者90に集中を促すための集中促進処理を実行し、受講者90が集中しておりかつ講義を理解していないとき講義を補うための補習処理を実行する。補習処理は、講義の内容を補う補習講義を受講者90に提供するための処理である。講義制御部13は、一例として、補習講義コンテンツを受講者90に提供する。このように、受講者90が集中していないときには集中を促し、受講者90が集中していながら講義を理解できていないときには講義を補うので、受講者90の講義の理解を効果的に向上させることができる。
Initially, the
なお、補習講義は、例えば、標準講義の内容を詳しく説明した講義、標準講義の内容を異なる方法で説明した講義、などであってよい。また、標準講義と同じものを再び提供することを補習講義としてもよい。 The supplementary lecture may be, for example, a lecture in which the contents of the standard lecture are explained in detail, a lecture in which the contents of the standard lecture are explained in different ways, or the like. In addition, providing the same lecture as the standard lecture again may be used as a supplementary lecture.
図1に戻り、補強行動検出部14は、補強行動検出処理として、受講者90に講義が提供されているとき、受講者90が所定の補強行動を行っていることを検出する。ここでいう補強行動は、講義を受けながら行うことで、例えば知識が記憶に残りやすくなるといったように、学習の補強となる行動である。補強行動の具体例として、頷く、声出し、筆記(ノートを取る)といった行動がある。補強行動検出処理の詳細は後述する。
Returning to FIG. 1, the reinforcement
補強行動促進部15は、補強行動促進処理として、受講者90が集中しており、かつ、補強行動を行っていないとき、補強行動を推奨する音声、画像、またはテキストの1つ以上を受講者90に提供し、受講者90が集中しており、かつ、補強行動を行っているとき、補強行動を行っていることを賞賛する音声、画像、またはテキストの1つ以上を提供する。このようにすることで、受講者90の行動の状況に応じて所定の補強行動を行うことを受講者90に促すことができる。補強行動促進処理の詳細については後述する。
The reinforcement
より具体的な処理について説明する。図2に示すように、情報端末30にはカメラ31とマイク32が備えられている。
A more specific process will be described. As shown in FIG. 2, the
補強行動促進部15は、カメラ31で撮影された画像に基づいて、受講者90が頷きを行っていることと、受講者90が筆記を行っていることを検出し、マイク32で取得された音声に基づいて、受講者90が声出しをしていることを検出し、それらの検出結果に基づいて補強行動を行っていることを検出する。例えば、頷き、筆記、声出しという3つの行動のうち、いずれか1つでも実行していれば補強行動を行っているとしてもよい。あるいは、3つの行動のうち2つ以上を実行しているとき、補強行動を行っているとしてもよい。
The reinforcement
図1に戻り、集中継続時間調整部16は、集中継続時間調整処理として、受講者90が集中を継続している集中継続時間を計測し、集中継続時間が所定の閾値を超えたら受講者90に休息を促し、計測した集中継続時間の情報を記録しておき、過去の集中継続時間に基づいて、上記閾値を更新する。このように、受講者90に適宜休憩を促すとともに、閾値の更新により受講者90が集中を持続できる時間を改善することができる。例えば徐々に集中を持続できる時間が長くなるように導くことができる。集中継続時間調整処理の詳細は後述する。
Returning to FIG. 1, the concentration
以下の学習システムが実行する処理をより詳細に説明する。 The processing executed by the following learning system will be described in more detail.
図3は、集中判定処理のフローチャートである。集中判定処理は、受講者90が集中しているか否か判定する処理であり、集中判定部11により実行される。
FIG. 3 is a flowchart of the centralized determination process. The concentration determination process is a process for determining whether or not the
集中判定部11にはカメラ31で撮影された画像データが入力される。集中判定部11は、ステップ101にて、画像データに基づき受講者90が情報端末30の前に居るか否か判定する。例えば画像データから人物が検出されたら、受講者90が情報端末30の前に居ると反転する。受講者90が情報端末30の前に居なければ、集中判定部11は、ステップ102にて不在という詳細情報を記録し、ステップ110にて集中フラグに0を設定する。集中フラグは、受講者90が集中していることを1で示し、受講者90が集中していないことを0で示すフラグである。
Image data taken by the
ステップ101にて、受講者90が情報端末30の前に居ると判定されたら、集中判定部11は、ステップ103にて、受講者90が所定の良好な体勢で講義を受けているか否か判定する。受講者90が良好な体勢であるか否かは、一例として、画像データ内の人物の顔領域の位置および動きにより判定する。画像データの所定閾値範囲内に人物の顔の領域があり、その顔の領域が所定閾値以上の大きさであれば、受講者90は良好な体勢であると判定する。顔領域の位置の閾値および顔領域の大きさの閾値は、受講者90が情報端末30の正面でやや前傾姿勢であり、かつふらついていない状態を判別可能な値として、予め受講者90を撮影した平常時の画像から算出した適当な値を用いればよい。受講者90が情報端末30の画面の正面でかつ画面の近く安定していれば、受講者90は良好な体勢で講義を受けていると推定できる。受講者90が良好な体勢でないと判定されたら、集中判定部11は、ステップ104にて不良体勢という詳細情報を記録し、ステップ110にて集中フラグに0を設定する。
If it is determined in
ステップ103にて、受講者90が良好な体勢であると判定されたら、集中判定部11は、ステップ105にて、受講者90の眼が開いているか否か判定する。例えば、画像データから検出された人物の眼が開いていたら、受講者90の眼が開いていると判定する。受講者90がまばたきすることを考慮し、連続する画像データに基づいて人物が眼を開けているか否か判定するのが好ましい。例えば、受講者90の眼が閉じている時間が閾値を超えないこと、および/または、受講者90の眼が閉じている時間の割合が閾値を超えないことを判断に利用することができる。受講者90の眼が閉じていたら、集中判定部11は、ステップ106にて居眠りという詳細情報を記録し、ステップ110にて集中フラグに0を設定する。
If it is determined in
ステップ105にて、受講者90の眼が開いていると判定されたら、集中判定部11は、ステップ107にて、受講者90が情報端末30の画面を見ているか否か判定する。受講者90の視線方向が画面方向の所定範囲内にあれば、受講者90が情報端末30の画面を見ていると判定する。受講者90がまばたきをしたり、ノートを取ったりすることを考慮し、連続する画像データに基づいて人物が画面を見ているか否か判定するのが好ましい。例えば、受講者90の視線方向が所定範囲内にある時間の割合が閾値以上であることを判断に利用することができる。受講者90が情報端末30の画面を見ていないと判定されたたら、集中判定部11は、ステップ108にてよそ見という詳細情報を記録し、ステップ110にて集中フラグに0を設定する。
If it is determined in
ステップ107にて受講者90が情報端末30の画面を見ていると判定されたら、集中判定部11は、ステップ109にて集中フラグに1を設定する。
If it is determined in
以上のように、集中判定部11は、カメラ31で撮影された画像に受講者90が存在するか否か、画像おける受講者90の顔領域の位置および大きさと、画像における受講者90の眼が開いているか否かと、受講者90の視線の方向とに基づいて、受講者90が集中しているか否か判定する。これにより、受講者90が適正な体勢で講義の画面を見ているとき集中していると判定することができる。
As described above, the
図4は、講義制御処理のフローチャートである。講義制御処理は、受講者90が集中しているか否かと講義を理解しているか否かとに基づいて、講義を制御する処理であり、講義制御部13および理解判定部12が実行する。理解判定部12は、受講者90が講義を理解しているか否かを判定する処理を実行する。
FIG. 4 is a flowchart of the lecture control process. The lecture control process is a process of controlling a lecture based on whether or not the
理解判定部12は、ステップ201にて、集中フラグが1であるか否か判定する。集中フラグが1でなければ、すなわち、受講者90が集中していなければ、講義制御部13は、ステップ202にて集中促進処理を実行する。集中促進処理は、受講者90に集中を促すための処理である。集中促進処理の詳細は後述する。
In
ステップ201にて集中フラグが1であれば、すなわち受講者90が集中していれば、理解判定部12は、ステップ203にて、受講者90が講義を理解しているか否か判定する。このとき、理解判定部12は、受講者90を撮影した画像データに基づいて判定を行う。具体的には、画像データから受講者90の眼と眉との間隔(以下「眼眉間隔」ともいう)を計測し、その眼眉間隔が所定の基準値を下回ったら、受講者90は講義を理解していないと判定する。受講者90が講義に集中していることを前提とし、眼と眉の間隔が狭まったら受講者90が講義に集中しているにもかかわらず理解できないため、理解しようと努力している状態であると推定することができるからである。基準値は予め撮影した受講者90の平常時の顔の画像から算出しておけばよい。
If the concentration flag is 1 in
受講者が講義を理解していないと判定されると、講義制御部13は、ステップ204にて補習処理を実行する。補習処理は、受講者90の学習内容の理解を促進するために標準講義を補う処理である。補習処理の詳細は後述する。
If it is determined that the student does not understand the lecture, the
なお、受講者90が講義を理解しているか否かは、受講者90の頭の中で起こっている事象なので、カメラ31で撮影した受講者90の画像等のような外からの観察によって判定することは通常であれば容易でない。例えば、特許文献2では、首を縦に振る、横に振る、笑顔、怪訝な表情などといった動作や表情などの反応に基づいて受講者の理解度を推定する。肯定的な動作や表情が検出されると理解度は高くなる。しかし、受講者が講義に集中しておらず頭の中で講義以外の考え事をしていれば、そのときの肯定的な動作や表情は受講者の講義の理解度を適切に表さないことがありうる。また、受講者にとって講義が易しすぎて集中できない状態であれば、受講者は講義を理解していても肯定的な動作や表情を表さないことがありうる。
Whether or not the
この点について、本実施形態では、受講者90が集中しているときであれば、受講者90が講義を理解しているか否かを画像データに基づいて判定できることに着目している。本実施形態では、ステップ201および203のように、理解判定部12は、受講者90が集中しているときに、受講者90が講義を理解しているか否かを判定する。そして、講義制御部13は、受講者90が集中していないのであれば集中促進処理を実行し(ステップ202)、受講者90が集中しているにもかかわらず講義を理解していないのであれば補習処理を実行する(ステップ204)。
Regarding this point, the present embodiment focuses on the fact that when the
図5は、補習処理のフローチャートである。 FIG. 5 is a flowchart of the supplementary lesson process.
講義制御部13は、まずステップ301にて、受講者90に補習講義の要否を問い掛ける。具体的には、アバター講師が受講者90に対して言葉をかける。アバター講師は、例えば、「〜の講義が理解できていないかな。もう少し詳しく説明しようか?」と問いかける。
First, in
そして、ステップ302にて、講義制御部13は、受講者の回答が補習講義を受けるというものか、受けないというものか判定する。例えば、カメラ31で撮影される受講者90の画像と、マイク32で取得される受講者90の音声かとから、受講者90の回答を判断することができる。例えば、受講者90が頷きながら、「はい。お願いします。」と発声したら、受講者90は補習講義を受けることを希望したと判定できる。一方、受講者90が顔を横に振りながら、「いいえ。結構です。」と発声したら、受講者90は保守講義を受けることを希望しないと判定できる。
Then, in
受講者90が補習講義を受けると回答したら、講義制御部13は、ステップ303にて、予め用意されていた補習講義を受講者90に提供する。一例として、補習講義は、アバター講師が映像および音声を含み、標準講義よりも学習内容を詳しく解説する講義である。
When the
以上説明したように、講義制御部13は、受講者90が集中しておりかつ講義を理解していないと判定されると、受講者90に補習講義の要否を問い掛け、受講者90から要と回答されたら、補習講義を提供する。問いかけにより、講義が理解していないという推定を確認するとともに、補習講義を受けたいという受講者90の意思があるときに補習講義を提供することができるので、補習講義を効果的に提供することができる。
As explained above, when it is determined that the
図6は、集中促進処理のフローチャートである。 FIG. 6 is a flowchart of the concentration promotion process.
講義制御部13は、まずステップ401にて、集中判定処理にて集中判定部11が記録した、受講者90が集中していないことに関する詳細情報を取得する。
First, in
次に、講義制御部13は、ステップ402にて、詳細情報が不在を示しているか否か判定する。詳細情報が不在を示していれば、講義制御部13は、ステップ403にて指導Aを行う。指導Aは、受講者90がトイレ等何らかの理由で情報端末30から離れた場合を想定した指導である。例えば、指導Aにて、講義制御部13は、アバター講師による講義を一時中断し、受講者90が情報端末30の前に戻ったら再開する。受講者90が情報端末30の前に戻ったことは、カメラ31で撮影される画像データから検知することができる。講義を再開するとき、アバター講師は「続きも集中していきましょう。」という集中喚起音声を発生する。なお、ここでは、受講者90に集中を促す集中喚起音声を発生することとしたが、これに限定されることはない。受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供することにしてもよい。
Next, in
ステップ402にて詳細情報が不在を示していなければ、講義制御部13は、ステップ404にて、詳細情報が居眠りを示しているか否か判定する。詳細情報が居眠りを示していれば、講義制御部13は、ステップ405にて指導Bを行う。指導Bは、受講者90が居眠りを始めた場合を想定した指導である。例えば、指導Bにて、講義制御部13は、アバター講師による講義を一時中断し、アバター講師から「××(受講者90の名前)さん、顔を洗ってらっしゃい。」という声かけを行い、受講者90が情報端末30から離れた後に情報端末30の前に戻ったら、アバター講師による講義を再開する。講義を再開するとき、アバター講師は「続きも集中していきましょう。」という集中喚起音声を発生する。なお、ここでは、受講者90に集中を促す集中喚起音声を発生することとしたが、これに限定されることはない。受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供することにしてもよい。
If the detailed information does not indicate the absence in
ステップ404にて詳細情報が居眠りを示していなければ、講義制御部13は、ステップ406にて、詳細情報がよそ見を示しているか否か判定する。詳細情報がよそ見を示していれば、講義制御部13は、ステップ407にて指導Cを行う。指導Cは、受講者90が講義を聞いてはいるものの集中力が低下している場合を想定した指導である。例えば、指導Cにて、講義制御部13は、アバター講師から「××(受講者90の名前)さん、講義をちゃんと聞きましょう。」という集中喚起音声を発生する。なお、ここでは、受講者90に集中を促す集中喚起音声を発生することとしたが、これに限定されることはない。受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供することにしてもよい。
If the detailed information does not indicate a doze in
ステップ406にて詳細情報がよそ見を示していなければ、講義制御部13は、ステップ408にて、詳細情報が不良体勢を示しているか否か判定する。詳細情報が不良体勢を示していれば、講義制御部13は、ステップ407にて上記指導Cを行う。
If the detailed information does not indicate a look away in
以上説明したように、講義制御部13は、受講者90が情報端末30の前に居ないとき、集中促進処理として、講義を中断し、受講者90が情報端末30の前に戻ったら講義を再開し、受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供する。また、講義制御部13は、受講者90の眼が開いていないとき、集中促進処理として、集中できる状態になるための行動を受講者90に促す音声、画像、またはテキストの1つ以上を提供して受講者90が情報端末30の前に居なくなったら講義を中断し、受講者90が情報端末30の前に戻ったら講義を再開し、受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供する。また、講義制御部13は、受講者90の視線方向が情報端末30の画面に向いていないとき、または、受講者90が良好体勢でないとき、受講者90に集中を促す音声、画像、またはテキストの1つ以上を提供する。したがって、様々な理由で集中できていない受講者90にその理由に応じた方法で集中を促すことができる。
As described above, the
図7は、補強行動検出処理のフローチャートである。 FIG. 7 is a flowchart of the reinforcement action detection process.
補強行動検出部14は、まずステップ501にて、カメラ31で受講者90を撮影した画像データから受講者90の頷きを計測する。例えば、時系列の画像データにおける人物の顔領域の位置が上下することを頷き行動と判定することにしてもよい。講義中に一定時間毎に所定回以上の頷き行動が検知されたら、受講者90は講義を受けながら頷きを行っていると判断することにしてもよい。
First, in
次に、補強行動検出部14は、ステップ502にて、マイク32で取得された音声から、受講者90の声出しを計測する。例えば、「よし」、「やるぞ」、「わかった」、「なるほど」など所定の言葉を発したことを声出し行動と判定することにしてもよい。講義中の一定時間毎に所定回以上の声出し行動が検知されたら、受講者90が講義を受けながら声出しを行っていると判断することにしてもよい。
Next, in
次に、補強行動検出部14は、ステップ503にて、画像データから受講者90の筆記を計測する。例えば、時系列の画像データにおいて人物が下を向いてペンを持った手を動かしたことを筆記行動と判定することにしてもよい。講義中の一定時間毎に筆記行動を行っている時間が一定時間を超えたら、受講者90が講義を受けながら筆記を行っていると判断することにしてもよい。
Next, in
次に、補強行動検出部14は、ステップ504にて、受講者90が頷きと声出しと筆記のうち2つ以上を実行しているか否か判定する。受講者90が2つ以上を実行していれば、補強行動検出部14は、ステップ55にて、補強行動フラグに1を設定する。一方、受講者90が2つ以上を実行していなければ、補強行動検出部14は、ステップ506にて、補強行動フラグに0を設定する。補強行動フラグは、受講者90が十分な補強行動を行っているか否かを示すフラグである。補強行動フラグ=1は受講者90が十分な補強行動を行っていることを意味し、補強行動フラグ=0は受講者90が十分な補強行動を行っていないことを意味する。
Next, in
図8は、補強行動促進処理のフローチャトである。 FIG. 8 is a flow chart of the reinforcement action promotion process.
補強行動促進部15は、ステップ601にて、集中フラグが1であるか否か判定する。集中フラグが0であれば補強行動促進部15は、そのまま処理を終了する。集中フラグが1であれば、すなわち、受講者90が集中していれば、補強行動促進部15は、ステップ602にて、補強行動フラグが1であるか否か判定する。補強行動フラグが1であれば、補強行動促進部15は、受講者90が補強行動を行っていることを賞賛するための処理を実行する。本実施形態では、アバター講師が受講者90の補強行動を褒める声かけをする。
In
一方、ステップ602にて補強行動フラグが0であれば、すなわち受講者90が集中していなければ、補強行動促進部15は、ステップ604にて、受講者90に補強行動を推奨するための処理を実行する。本実施形態では、アバター講師が受講者90に補強行動を行うように促す声かけをする。
On the other hand, if the reinforcement action flag is 0 in
図9は、集中継続時間調整処理のフローチャートである。 FIG. 9 is a flowchart of the centralized duration adjustment process.
集中継続時間調整部16は、ステップ701にて、集中継続時間計測処理を実行する。集中継続時間計測処理は、受講者90が集中を継続している時間を計測する処理である。集中継続時間計測処理の詳細は後述する。
In
次に、集中継続時間調整部16は、集中継続時間が所定の集中継続時間閾値を超えているか否か判定する。集中継続時間閾値は、受講者90の状態に応じて変動する閾値である。集中継続時間閾値の詳細は後述する。
Next, the concentration
集中継続時間が集中継続時間閾値を超えていたら、集中継続時間調整部16は、ステップ703にて、受講者90に休憩を促す。集中継続時間が集中継続時間閾値を超えていなければ、集中継続時間調整部16は、ステップ701に戻り集中継続時間の計測を続ける。
If the concentration duration exceeds the concentration duration threshold, the concentration
図10は、集中継続時間計測処理のフローチャートである。 FIG. 10 is a flowchart of the centralized duration measurement process.
集中継続時間調整部16は、ステップ801にて、集中フラグが1であるか否か判定する。集中フラグが1であれば、すなわち受講者90が集中していれば、集中継続時間調整部16は、ステップ802にて、タイマをスタートし、集中継続時間の計測を開始する。更に、集中継続時間調整部16は、ステップ803にて、集中フラグが1であるか否か判定する。集中フラグが1であれば、すなわち受講者90がまだ集中していれば、集中継続時間調整部16は、集中継続時間の計測を継続する。
In
ステップ803にて、集中フラグが0であれば、すなわち受講者90の集中が途切れたら、集中継続時間調整部16は、ステップ805にて集中継続時間の計測を終了する。更に、集中継続時間調整部16は、ステップ806にて、ステップ805で最終的に計測された集中継続時間を履歴情報として記録する。更に、集中継続時間調整部16は、ステップ807にて、集中継続時間の履歴情報に基づいて集中継続時間閾値を更新する。
If the concentration flag is 0 in
集中継続時間調整部16は、集中持続持続の履歴情報に基づいて閾値を徐々に大きくなるように更新する。
The concentration
あまりに長時間連続して集中して学習を続けると学習効率が低下する。したがって、学習をある程度の時間継続したら休憩を取るのが好ましい。集中して学習を行える時間は個人差があり、訓練により徐々に長くすることができる。集中継続時間閾値を徐々に大きく更新するのは、受講者90に集中して学習を行える時間を徐々に長くする訓練のためである。集中継続時間閾値の更新方法の一例として、本実施形態では、前回計測された集中継続時間が集中継続時間閾値以上であれば、集中継続時間閾値に所定値を加算して更新し、前回の集中継続時間が集中継続時間閾値未満であれば、集中継続時間をそのままの値とする。
If you continue to concentrate and study for too long, the learning efficiency will decrease. Therefore, it is preferable to take a break after continuing learning for a certain period of time. There are individual differences in the amount of time that students can concentrate on learning, and it can be gradually lengthened by training. The reason why the concentration duration threshold value is gradually updated to a large value is for training that gradually lengthens the time during which the
上述した本発明の実施形態は、本発明の説明のための例示であり、本発明の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本発明の要旨を逸脱することなしに、他の様々な態様で本発明を実施することができる。 The embodiments of the present invention described above are examples for the purpose of explaining the present invention, and the scope of the present invention is not limited to those embodiments. One of ordinary skill in the art can practice the present invention in various other aspects without departing from the gist of the present invention.
なお、本実施形態において、講義の提供は、一例としてアバター講師による講義の映像を表示し音声を出力することであるが、これに限るものではない。例えば、講義に映像および音声だけでなくテキストの表示が含まれていてもよい。また、講義の提供が、現実の講師による講義を録画した講義コンテンツを再生するものであってもよい。また、講義の提供は、映像には講師が姿を現さずテキストだけが表示され、講師は音声だけで登場するものであってもよい。 In the present embodiment, the provision of the lecture is, for example, displaying the video of the lecture by the avatar instructor and outputting the sound, but the present invention is not limited to this. For example, the lecture may include the display of text as well as video and audio. In addition, the lecture may be provided by reproducing the lecture content obtained by recording the lecture by the actual lecturer. In addition, the lecture may be provided so that the instructor does not appear in the video and only the text is displayed, and the instructor appears only by audio.
また、本実施形態では、集中している受講者90が講義を理解しているか否かの判定に眼眉間隔を利用したが、眼眉間隔は一例であり、これに限定されることはない。受講者90が撮影された画像データから他の方法で講義を理解してるか否か判定することができる。講義を理解しているか否かを判定するのに、受講者90が集中している状態を前提とするという上記着想から、例えば、講義が理解できないときには挙手するように予め受講者90に指示しておき、画像データから受講者90が挙手したことを検出したら、受講者90が講義を理解していないと判断することにしてもよい。受講者90が集中している状態を前提とすれば、講義を理解できないときに挙手することは容易に実行できる。
Further, in the present embodiment, the eye-brow spacing is used to determine whether or not the
10…学習システム、11…集中判定部、12…理解判定部、13…講義制御部、14…補強行動検出部、15…補強行動促進部、16…集中継続時間調整部、17…記憶部、20…サーバ、21…処理装置、22…メインメモリ、23…記憶装置、24…通信装置、25…入力装置、26…表示装置、27…バス、30…情報端末、31…カメラ、32…マイク、33…ブラウザ、90…受講者 10 ... Learning system, 11 ... Concentration judgment unit, 12 ... Understanding judgment unit, 13 ... Lecture control unit, 14 ... Reinforcement behavior detection unit, 15 ... Reinforcement behavior promotion unit, 16 ... Concentration duration adjustment unit, 17 ... Memory unit, 20 ... server, 21 ... processing device, 22 ... main memory, 23 ... storage device, 24 ... communication device, 25 ... input device, 26 ... display device, 27 ... bus, 30 ... information terminal, 31 ... camera, 32 ... microphone , 33 ... Browser, 90 ... Students
Claims (4)
前記講義を受講する受講者を撮影するするために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部と、
前記画像と前記集中判定結果情報とに基づいて、前記受講者が前記講義の内容を理解しているか否かに関する判定を行い、該判定の結果に基づく理解判定結果情報を記録する理解判定部と、
前記集中判定結果情報および前記理解判定結果情報に基づいて前記講義を制御する講義制御部と、
前記受講者が集中を継続している集中継続時間を計測し、前記集中継続時間が所定の閾値を超えたら前記受講者に休息を促し、前記集中継続時間の情報を記録し、過去の集中継続時間に基づいて前記閾値を更新する集中継続時間調整部と、
を有する学習システム。 A learning system that provides lectures that include video and audio.
Based on the image acquired to photograph the student taking the lecture, it is determined whether or not the student is concentrating on the lecture, and the concentration determination result information based on the result of the determination is obtained. Concentration judgment unit to record and
An understanding determination unit that determines whether or not the student understands the content of the lecture based on the image and the concentration determination result information, and records the understanding determination result information based on the determination result. ,
A lecture control unit that controls the lecture based on the centralized determination result information and the understanding determination result information.
The concentration duration during which the student continues to concentrate is measured, and when the concentration duration exceeds a predetermined threshold value, the student is urged to take a rest, information on the concentration duration is recorded, and past concentration continuation is performed. A centralized duration adjustment unit that updates the threshold value based on time,
Learning system with.
請求項1に記載の学習システム。 The concentration time adjusting unit adds a predetermined value to the threshold value if the previous concentration duration is equal to or greater than the threshold value, and maintains the value of the threshold value if the previous concentration duration is less than the threshold value.
The learning system according to claim 1.
コンピュータが、
前記講義を受講する受講者を撮影するするために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録し、
前記画像と前記集中判定結果情報とに基づいて、前記受講者が前記講義の内容を理解しているか否かに関する判定を行い、該判定の結果に基づく理解判定結果情報を記録し、
前記集中判定結果情報および前記理解判定結果情報に基づいて前記講義を制御し、
前記受講者が集中を継続している集中継続時間を計測し、前記集中継続時間が所定の閾値を超えたら前記受講者に休息を促し、前記集中継続時間の情報を記録し、過去の集中継続時間に基づいて前記閾値を更新する、
学習講義提供方法。 It is a learning lecture providing method for providing lectures including video and audio.
The computer
Based on the image acquired to photograph the student taking the lecture, it is determined whether or not the student is concentrating on the lecture, and the concentration determination result information based on the result of the determination is obtained. Record and
Based on the image and the concentration determination result information, it is determined whether or not the student understands the content of the lecture, and the understanding determination result information based on the determination result is recorded.
The lecture is controlled based on the centralized judgment result information and the understanding judgment result information.
The concentration duration during which the student continues to concentrate is measured, and when the concentration duration exceeds a predetermined threshold value, the student is urged to take a rest, information on the concentration duration is recorded, and past concentration continuation is performed. Update the threshold based on time,
How to provide learning lectures.
前記講義を受講する受講者を撮影するするために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録し、
前記画像と前記集中判定結果情報とに基づいて、前記受講者が前記講義の内容を理解しているか否かに関する判定を行い、該判定の結果に基づく理解判定結果情報を記録し、
前記集中判定結果情報および前記理解判定結果情報に基づいて前記講義を制御し、
前記受講者が集中を継続している集中継続時間を計測し、前記集中継続時間が所定の閾値を超えたら前記受講者に休息を促し、前記集中継続時間の情報を記録し、過去の集中継続時間に基づいて前記閾値を更新する、
ことをコンピュータに実行させるための学習講義提供プログラム。 It is a learning lecture providing program for providing lectures including video and audio.
Based on the image acquired to photograph the student taking the lecture, it is determined whether or not the student is concentrating on the lecture, and the concentration determination result information based on the result of the determination is obtained. Record and
Based on the image and the concentration determination result information, it is determined whether or not the student understands the content of the lecture, and the understanding determination result information based on the determination result is recorded.
The lecture is controlled based on the centralized judgment result information and the understanding judgment result information.
The concentration duration during which the student continues to concentrate is measured, and when the concentration duration exceeds a predetermined threshold value, the student is urged to take a rest, information on the concentration duration is recorded, and past concentration continuation is performed. Update the threshold based on time,
A program that provides learning lectures to let a computer do things.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190680A JP2021018408A (en) | 2019-10-18 | 2019-10-18 | Learning system, learning class providing method and program |
JP2023061908A JP7492294B2 (en) | 2019-10-18 | 2023-04-06 | Learning system, learning lecture delivery method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019190680A JP2021018408A (en) | 2019-10-18 | 2019-10-18 | Learning system, learning class providing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019133586A Division JP6636670B1 (en) | 2019-07-19 | 2019-07-19 | Learning system, learning lecture providing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023061908A Division JP7492294B2 (en) | 2019-10-18 | 2023-04-06 | Learning system, learning lecture delivery method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018408A true JP2021018408A (en) | 2021-02-15 |
JP2021018408A5 JP2021018408A5 (en) | 2021-07-26 |
Family
ID=74565997
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019190680A Pending JP2021018408A (en) | 2019-10-18 | 2019-10-18 | Learning system, learning class providing method and program |
JP2023061908A Active JP7492294B2 (en) | 2019-10-18 | 2023-04-06 | Learning system, learning lecture delivery method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023061908A Active JP7492294B2 (en) | 2019-10-18 | 2023-04-06 | Learning system, learning lecture delivery method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2021018408A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7458527B1 (en) | 2023-03-17 | 2024-03-29 | Lineヤフー株式会社 | Information processing device, information processing method, and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7466251B1 (en) | 2023-12-01 | 2024-04-12 | 株式会社フォーサイト | Learning support system and learning support method |
JP7473270B1 (en) | 2023-12-01 | 2024-04-23 | 株式会社フォーサイト | Learning support system and learning support method |
JP7495699B1 (en) | 2023-12-01 | 2024-06-05 | 株式会社フォーサイト | Learning support system and learning support method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006041887A (en) * | 2004-07-27 | 2006-02-09 | Sony Corp | Information processing apparatus and method, recording medium, and program |
JP2006277192A (en) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Image display system |
JP2011221524A (en) * | 2010-03-26 | 2011-11-04 | Sharp Corp | Display device and control method thereof, television receiver, program, and recording medium |
JP2013097311A (en) * | 2011-11-04 | 2013-05-20 | Zenrin Datacom Co Ltd | Learning support device, learning support method and learning support program |
JP2014120137A (en) * | 2012-12-19 | 2014-06-30 | Samsung R&D Institute Japan Co Ltd | Information processing apparatus, information processing method and computer program |
JP2016111379A (en) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Display device, display system, display method, and program |
WO2018097177A1 (en) * | 2016-11-24 | 2018-05-31 | 株式会社ガイア・システム・ソリューション | Engagement measurement system |
WO2018168220A1 (en) * | 2017-03-14 | 2018-09-20 | 日本電気株式会社 | Learning material recommendation method, learning material recommendation device, and learning material recommendation program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4007069B2 (en) | 2002-05-29 | 2007-11-14 | 日本電気株式会社 | Robot apparatus, control method and program for robot apparatus |
JP2004301952A (en) | 2003-03-28 | 2004-10-28 | Fujitsu Ltd | Method, device and program for managing internet lecture |
JP2005338173A (en) | 2004-05-24 | 2005-12-08 | Advanced Telecommunication Research Institute International | Foreign language reading comprehension learning support device |
JP2012069096A (en) | 2010-08-25 | 2012-04-05 | Telework Management:Kk | Information transmission system, information terminal and information transmission method |
JP6915829B2 (en) | 2016-09-09 | 2021-08-04 | 米澤 朋子 | Familiar ambient agent systems and programs |
JP6859640B2 (en) | 2016-09-21 | 2021-04-14 | 富士ゼロックス株式会社 | Information processing equipment, evaluation systems and programs |
JP6819194B2 (en) | 2016-10-05 | 2021-01-27 | 富士ゼロックス株式会社 | Information processing systems, information processing equipment and programs |
JP2018124483A (en) | 2017-02-02 | 2018-08-09 | 日本電信電話株式会社 | Learning support system, learning support device, and learning support method |
JP6844288B2 (en) | 2017-02-07 | 2021-03-17 | 凸版印刷株式会社 | Learning support system, support server |
CN108399376B (en) | 2018-02-07 | 2020-11-06 | 华中师范大学 | Intelligent analysis method and system for classroom learning interest of students |
CN108491781B (en) | 2018-03-16 | 2020-10-23 | 福州外语外贸学院 | Classroom concentration degree evaluation method and terminal |
-
2019
- 2019-10-18 JP JP2019190680A patent/JP2021018408A/en active Pending
-
2023
- 2023-04-06 JP JP2023061908A patent/JP7492294B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006041887A (en) * | 2004-07-27 | 2006-02-09 | Sony Corp | Information processing apparatus and method, recording medium, and program |
JP2006277192A (en) * | 2005-03-29 | 2006-10-12 | Advanced Telecommunication Research Institute International | Image display system |
JP2011221524A (en) * | 2010-03-26 | 2011-11-04 | Sharp Corp | Display device and control method thereof, television receiver, program, and recording medium |
JP2013097311A (en) * | 2011-11-04 | 2013-05-20 | Zenrin Datacom Co Ltd | Learning support device, learning support method and learning support program |
JP2014120137A (en) * | 2012-12-19 | 2014-06-30 | Samsung R&D Institute Japan Co Ltd | Information processing apparatus, information processing method and computer program |
JP2016111379A (en) * | 2014-12-02 | 2016-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Display device, display system, display method, and program |
WO2018097177A1 (en) * | 2016-11-24 | 2018-05-31 | 株式会社ガイア・システム・ソリューション | Engagement measurement system |
WO2018168220A1 (en) * | 2017-03-14 | 2018-09-20 | 日本電気株式会社 | Learning material recommendation method, learning material recommendation device, and learning material recommendation program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7458527B1 (en) | 2023-03-17 | 2024-03-29 | Lineヤフー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2023089080A (en) | 2023-06-27 |
JP7492294B2 (en) | 2024-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021018316A (en) | Learning system, learning class providing method and program | |
JP7492294B2 (en) | Learning system, learning lecture delivery method, and program | |
US11241789B2 (en) | Data processing method for care-giving robot and apparatus | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
US9691296B2 (en) | Methods and apparatus for conversation coach | |
JP2013097311A (en) | Learning support device, learning support method and learning support program | |
US20080124690A1 (en) | Training system using an interactive prompt character | |
CN110091335B (en) | Method, system, device and storage medium for controlling learning partner robot | |
US20210043106A1 (en) | Technology based learning platform for persons having autism | |
US9802125B1 (en) | On demand guided virtual companion | |
KR102011887B1 (en) | Supervisory System of Online Lecture by Eye Tracking | |
US11157074B2 (en) | Presenting assessment content to a user | |
US20170340256A1 (en) | Requesting assistance based on user state | |
CN117541444B (en) | Interactive virtual reality talent expression training method, device, equipment and medium | |
JP2016100033A (en) | Reproduction control apparatus | |
JP2020197778A (en) | Information processing device, control method, and program | |
KR101949997B1 (en) | Method for training conversation using dubbing/AR | |
CN113748449B (en) | Evaluation and training system | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JP6787601B2 (en) | Autism treatment support system, autism treatment support device, and program | |
Lane | 32 Enhancing Informal Learning Experiences with Affect-Aware Technologies | |
CN111027358A (en) | Dictation and reading method based on writing progress and electronic equipment | |
WO2022263715A1 (en) | A method, an apparatus and a computer program product for smart learning platform | |
KR20220113239A (en) | Method, apparatus and program for Managing of Studying | |
JP7069550B2 (en) | Lecture video analyzer, lecture video analysis system, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221115 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230406 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230406 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230418 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230425 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240508 |