JP7466251B1 - Learning support system and learning support method - Google Patents
Learning support system and learning support method Download PDFInfo
- Publication number
- JP7466251B1 JP7466251B1 JP2023204249A JP2023204249A JP7466251B1 JP 7466251 B1 JP7466251 B1 JP 7466251B1 JP 2023204249 A JP2023204249 A JP 2023204249A JP 2023204249 A JP2023204249 A JP 2023204249A JP 7466251 B1 JP7466251 B1 JP 7466251B1
- Authority
- JP
- Japan
- Prior art keywords
- calling
- student
- call
- timing
- topic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000012545 processing Methods 0.000 claims description 27
- 241001465754 Metazoa Species 0.000 claims description 22
- 235000019640 taste Nutrition 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 10
- 230000008450 motivation Effects 0.000 description 9
- 241000282326 Felis catus Species 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000001351 cycling effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
【課題】受講者への効果的な声かけによる学習支援を実現する技術を提供する。【解決手段】講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムは、受講者の属性に関する情報である受講者属性情報を記憶し、受講者に対する講義の提供における特定のタイミングを、アバター講師が映像および音声によって受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定し、受講者属性情報および/または声かけタイミングに基づいて、声かけタイミングに提供する声かけの話題である声かけ話題を特定し、受講者属性情報に基づいて、声かけに用いる態様である声かけ態様を特定し、声かけタイミングに、声かけ話題および声かけ態様による声かけを出力する。【選択図】図1[Problem] To provide a technology that realizes learning support by effectively calling out to students. [Solution] A learning support system that provides students with a lecture consisting of video and audio by an avatar lecturer, which is a virtual person modeled after a lecturer, stores student attribute information that is information about the attributes of the students, identifies specific timing in the provision of a lecture to a student as a calling timing, which is a timing when the avatar lecturer speaks to the student through video and audio, identifies a calling topic that is a topic of calling to be provided at the calling timing based on the student attribute information and/or the calling timing, identifies a calling manner that is a manner to be used for calling based on the student attribute information, and outputs a call based on the calling topic and the calling manner at the calling timing. [Selected Figure] Figure 1
Description
本発明は、計算機システムを利用して学習を支援する技術に関する。 The present invention relates to technology that supports learning using a computer system.
特許文献1には、映像と音声を含む講義を提供する学習システムが開示されている。学習システムは、講義を受講する受講者を撮影するために取得された画像に基づいて、受講者が講義に集中しているか否かに関する判定を行い、その判定の結果に基づく集中判定結果情報を記録し、画像と集中判定結果情報とに基づいて、受講者が講義の内容を理解しているか否かに関する判定を行い、その判定の結果に基づく理解判定結果情報を記録し、集中判定結果情報および理解判定結果情報に基づいて講義を制御する。当該受講者の集中の度合いと理解の度合いに応じて講義を制御するので、各受講者における効果的な学習を支援することが可能となる。
現実の人間である講師が受講者に対面で授業を行う場合、適切なタイミングで適切な声かけを行うと、受講者のモチベーションや集中の度合いが上がり、学習の効果が向上することが知られている。しかしながら、コンピュータを利用してアバター講師による映像と音声で講義を提供する技術分野においては、効果的な声かけの工夫についてほとんど検討がなされていない。 When a real human instructor teaches face-to-face to students, it is known that if the instructor gives appropriate encouragement at the right time, it can increase the students' motivation and concentration, improving the effectiveness of their learning. However, in the field of technology that uses computers to provide lectures through video and audio from avatar instructors, little research has been done on how to provide effective encouragement.
本開示のひとつの目的は、受講者への効果的な声かけによる学習支援を実現する技術を提供することである。 One objective of this disclosure is to provide technology that provides learning support to students by providing effective encouragement.
本発明のひとつの実施態様による学習支援システムは、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する声かけタイミング特定部と、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、を有する。 A learning support system according to one embodiment of the present invention is a learning support system that provides a lecture consisting of video and audio to a student by an avatar lecturer, which is a virtual person simulating a lecturer, and has a student attribute information storage unit that stores student attribute information, which is information related to the attributes of the student; a call-out timing identification unit that identifies a specific timing in the provision of the lecture to the student as a call-out timing, which is a timing when the avatar lecturer speaks to the student by video and audio; a call-out topic identification unit that identifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or the call-out timing; a call-out mode identification unit that identifies a call-out mode, which is a mode used for the call, based on the student attribute information; and a call-out output unit that outputs the call-out topic and the call-out mode at the call-out timing.
本開示に含まれるひとつの態様によれば、受講者への効果的な声かけによる学習支援が可能にする。 One aspect of the present disclosure makes it possible to provide learning support to students by providing effective encouragement.
以下、本発明の実施形態について図面を参照して説明する。 The following describes an embodiment of the present invention with reference to the drawings.
<第1の実施形態>
本実施形態の学習支援システムは、講師を模した姿を有する仮想的な人物(以下「アバター講師」ともいう)により、受講者に、映像および音声で構成された講義コンテンツを提供する計算機システムである。また、学習支援システムは、講義コンテンツの提供における特定のタイミングでアバター講師から受講者に声かけを行い、受講者の学習効果を向上させる。
First Embodiment
The learning support system of this embodiment is a computer system that provides students with lecture content consisting of video and audio by a virtual person (hereinafter also referred to as an "avatar lecturer") who resembles a lecturer. The learning support system also improves the effectiveness of the students' learning by having the avatar lecturer speak to the students at specific times during the provision of the lecture content.
図1は、第1の実施形態による学習支援システムの機能構成を示すブロック図である。 Figure 1 is a block diagram showing the functional configuration of a learning support system according to the first embodiment.
図1を参照すると、学習支援システム10は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、声かけ出力部14、および記憶部15を有している。記憶部15には、サービスを実行するのに必要な予め準備されたデータが記録されている。一例として、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14は、その処理がソフトウェアプログラムにより規定され、プロセッサがそのソフトウェアプログラムを実行することにより実現される。
Referring to FIG. 1, the
図2は、学習支援システムのハードウェア構成を示すブロック図である。 Figure 2 is a block diagram showing the hardware configuration of the learning support system.
図2を参照すると、学習支援システム10は、サーバ20と、インターネット等の通信ネットワーク経由でサーバ20に接続可能なパーソナルコンピュータやスマートホン等の情報端末とで構成されている。受講者90は、情報端末30上のブラウザ33を用いてサーバ20に接続し、サーバ20から提供されるサービスを利用する。サービスは、学習に関連するコンテンツを提供するサービスである。サービスは図1に示した各部により実現される。
Referring to FIG. 2, the
図2に示すように、サーバ20は、ハードウェアとして、処理装置21、メインメモリ22、記憶装置23、通信装置24、入力装置25、および表示装置26を有し、それらがバス27に接続されている。
As shown in FIG. 2, the
記憶装置23は、書込みおよび読み出しが可能にデータを記憶するものである。図1に示した記憶部15はこの記憶装置23によって実現される。処理装置21は、記憶装置23に記憶されたデータをメインメモリ22に読み出し、メインメモリ22を利用してソフトウェアプログラムの処理を実行するプロセッサである。処理装置21によって、図1に示した講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14が実現される。
通信装置24は、処理装置21にて処理された情報を有線または無線あるいはそれら両方を含む通信ネットワークを介して送信し、また通信ネットワークを介して受信した情報を処理装置21に伝達する。受信した情報は処理装置21にてソフトウェアの処理に利用される。入力装置25は、キーボードやマウスなどオペレータによる操作入力による情報を受け付ける装置であり、入力された情報は処理装置21にてソフトウェア処理に利用される。表示装置26は、処理装置21によるソフトウェア処理に伴って画像やテキストの情報をディスプレイ画面に表示する装置である。入力装置25および表示装置26は、主には、受講者90ではなく管理者(不図示)が利用するために設けられている。
The
The
図1に戻り、記憶部15は、講義コンテンツと、受講者属性情報と、講義前話題リストと、講義後話題リストとを予め記憶している。講義コンテンツとしては、学習すべき内容の単位毎に講義を収めたコンテンツが準備されている。受講者属性情報として、各受講者90のそれぞれの属性に関する情報が記録されている。講義前話題リストは、講義コンテンツを提供する前のタイミングで提供する声かけに用いる話題のリストである。講義後話題リストは、講義コンテンツを提供した後のタイミングで提供する声かけに用いる話題のリストである。
Returning to FIG. 1, the
図3は、受講者属性情報のテーブルを示す図である。 Figure 3 shows a table of participant attribute information.
受講者属性情報D01のテーブルには、各受講者90のそれぞれの受講者番号(No.)、氏名、住所、嗜好、生年月日、および希望方言が登録されている。氏名は当該受講者90の氏名を示す。住所は、当該受講者90の住所を示す。嗜好は、当該受講者90の嗜好を示す。生年月日は、当該受講者90の生年月日を示す。希望方言は、当該受講者90がアバター講師に使ってほしいと希望する方言を示す。方言は、特定の地域で用いられている言語体系である。例えば、受講者番号が1である受講者90は、氏名が「特許 一郎」であり、「愛知県名古屋市・・・」に住んでおり、「ネコ」と「中日ドラゴンズ」を嗜好し、2001年10月1日生まれであり、アバター講師に「名古屋弁」を使ってほしいと希望している。
In the table of student attribute information D01, the student number (No.), name, address, preferences, date of birth, and desired dialect of each
講義出力部19は、個々の受講者90の要求および学習の進捗に応じて、記憶部15に記憶されている講義コンテンツを、情報端末30のブラウザ33を通じて受講者90に提供する。
The
声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、および声かけ出力部14は、連携して、受講者90に声かけを行う一連の処理を実行する。以下、この一連の処理を声かけ処理ともいう。
The calling
図4は、声かけ処理のフローチャートである。 Figure 4 is a flowchart of the call process.
ステップ101にて、声かけタイミング特定部11は、当該受講者90に対する講義コンテンツの提供における特定のタイミングを、アバター講師が映像および音声によって受講者90に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する。声かけタイミング特定部11は、例えば、講義コンテンツの提供を開始前のタイミングである講義前タイミングを、声かけタイミングとして特定する。講義前の声かけは、その後の講義の効果に影響する重要なタイミングである。そのタイミングで適切な声かけを行うことにより、受講者90のモチベーションや集中の度合いが高い状態で講義の提供を開始することがができる。また、声かけタイミング特定部11は、例えば、講義コンテンツの提供を終了した後のタイミングである講義後タイミングを、声かけタイミングとして特定する。講義を聞いただけでなく、その次に講義内容の復習や、講義に関連する問題の演習を行うことで学力を効果的に向上させることができる。そのタイミングで適切な声かけを行うことにより、講義を受けた後の学習に対する受講者90のモチベーションを高めることができる。
In
ステップ102にて、声かけ話題特定部12は、受講者属性情報D01および/または声かけタイミングに基づいて、当該受講者90に対して、声かけタイミングに提供する声かけの話題である声かけ話題を特定する。以下、この声かけ話題を特定する処理を声かけ話題特定処理ともいう。
In
図5は、声かけ話題特定処理のフローチャートである。 Figure 5 is a flowchart of the process for identifying topics of conversation.
ステップ201にて、声かけ話題特定部12は、特定された声かけタイミングが講義前タイミングか講義後タイミングか判定する。
In
声かけタイミングが講義前タイミングであれば、ステップ202にて、声かけ話題特定部12は、講義前話題リストから1つ以上の声かけ話題を決定する。
If the call timing is before the lecture, in
図6は、講義前話題リストを示す図である。 Figure 6 shows a list of pre-lecture topics.
講義前話題リストD02には、講義コンテンツを開始する前に好適な声かけの話題として、「激励」、「リアルタイム話題」、および「嗜好話題」が設定されている。「激励」は、受講者のモチベーションを直接的に上げるような話題である。「リアルタイム話題」は、当該受講者が興味を示しそうなリアルタイムの話題であり、例えば、当該受講者の地元の天気やニュースや当日のスポーツの結果などが含まれる。実際のリアルタイムの天気、ニュース、スポーツの結果の情報は例えば外部のサイトから取得可能である。「嗜好話題」は、当該受講者が好きな物に関する話題であり、例えば、当該受講者がネコ好きであれば、飼いネコに関する話などが該当する。「リアルタイム話題」および「嗜好話題」には、当該受講者の意識を講義に向かせる効果があると考えられる。 In the pre-lecture topic list D02, "encouragement," "real-time topics," and "interesting topics" are set as suitable topics for encouraging students before starting the lecture content. "Encouragement" is a topic that directly increases the motivation of the students. "Real-time topics" are real-time topics that are likely to interest the students, such as the weather and news in the students' local area and the results of sports for the day. Actual real-time weather, news, and sports results information can be obtained, for example, from external sites. "Interesting topics" are topics related to things that the students like, such as if the students like cats, then talking about pet cats would be appropriate. "Real-time topics" and "interesting topics" are considered to have the effect of directing the students' attention to the lecture.
声かけ話題特定部12が講義前話題リストD02から1つ以上の声かけ話題を決定する方法は特に限定されない。例えば、声かけ話題特定部12は、講義前話題リストD02からランダムに1つ以上の声かけ話題を選択してもよい。あるいは、声かけ話題特定部12は、講義前話題リストD02の話題を巡回するように声かけ話題を順次選択してもよい。
The method by which the call
声かけタイミングが講義後タイミングであれば、ステップ203にて、声かけ話題特定部12は、講義後話題リストから1つ以上の声かけ話題を決定する。
If the call timing is post-lecture, in
図7は、講義後話題リストを示す図である。 Figure 7 shows the post-lecture topic list.
講義後話題リストD03には、講義コンテンツを終えた後に好適な声かけの話題として、「労い」および「嗜好話題」が設定されている。「労い」は、講義の受講を労って、その後の学習のモチベーションを上げるような話題である。「嗜好話題」は、当該受講者が好きな物に関する話題であり、当該受講者の疲れを取り、その後の学習に向かうモチベーションを上げる効果があると考えられる。 In the post-lecture topic list D03, "appreciation" and "interesting topics" are set as suitable topics for encouraging students after finishing the lecture content. "Appreciation" is a topic that expresses appreciation for attending the lecture and increases motivation for future learning. "Interesting topics" are topics related to things that the student likes, and are thought to have the effect of relieving the student's fatigue and increasing motivation for future learning.
声かけ話題特定部12が講義後話題リストD03から1つ以上の声かけ話題を決定する方法は特に限定されない。例えば、声かけ話題特定部12は、講義後話題リストD03からランダムに1つ以上の声かけ話題を選択してもよい。あるいは、声かけ話題特定部12は、講義後話題リストD03の話題を巡回するように声かけ話題を順次選択してもよい。
The method by which the call-out
図4に戻り、ステップ103にて、声かけ態様特定部13は、受講者属性情報D01に基づいて、当該受講者90への声かけに用いる態様である声かけ態様を特定する。本実施形態における声かけ態様は、一例として、声かけに用いる言語体系である声かけ言語体系である。例えば、声かけ態様特定部13は、受講者属性情報D01に、希望方言(言語体系)が登録されていれば、その言語体系を、当該受講者90への声かけ言語体系として特定してもよい。また、受講者属性情報D01に、希望方言(言語体系)が登録されていなければ、声かけ態様特定部13は、受講者属性情報D01に登録されている住所が示す地域の方言を、当該受講者90への声かけ言語体系として特定してもよい。あるいは、受講者属性情報D01に、希望方言(言語体系)が登録されていなければ、声かけ態様特定部13は、日本の標準語を、当該受講者90への声かけ言語体系として特定してもよい。
Returning to FIG. 4, in
また、声かけ態様特定部13は、声かけ言語体系として、いずれかひとつの言語体系を選択してもよいが、複数の言語体系を組み合わせて声かけ言語体系としてもよい。例えば、図3の受講者属性情報D01において、受講者番号が「1」の受講者「特許 一郎」は、「名古屋弁」を希望し、「ネコ」を嗜好しているので、声かけ態様特定部13は、「名古屋弁」と「ネコ」を模擬する言葉(動物言葉)とを合成した声かけ態様を特定してもよい。一例として、「こんにちは。特許一郎くん。今日は名古屋はどえりゃー暑いですね。体調大丈夫ですか? 特許一郎くんの好きな中日ドラゴンズは昨夜も勝ちましたニャン。特許一郎くんもしっかり勉強しましょう。それでは講義を開始しますニャン。」といった声かけが可能となる。
The calling
続いて、ステップ104にて、声かけ出力部14は、当該声かけタイミングに、当該声かけ話題および当該声かけ態様による声かけの映像および音声を、情報端末30のブラウザ33を通じて、当該受講者90に出力する。
Next, in
<第2の実施形態>
第2の実施形態の学習支援システムは、第1の実施形態のものと同等の機能に加え、講義を受講している受講者の画像および音声から受講者の状態を取得し、取得した受講者の状態の情報を、その後の声かけの制御に利用することにより、声かけの効果の向上を図るものである。
Second Embodiment
The learning support system of the second embodiment has the same functions as the first embodiment, and in addition, it acquires the status of students attending a lecture from images and audio of the students, and uses the acquired information on the students' status to control subsequent encouragement, thereby improving the effectiveness of encouragement.
第2の実施形態の学習支援システムは、第1の実施形態のものと同様の構成および動作を有するので、以下では、主に第2の実施形態における第1の実施形態と異なる部分について説明する。 The learning support system of the second embodiment has the same configuration and operation as that of the first embodiment, so the following mainly describes the differences between the first embodiment and the second embodiment.
図8は、第2の実施形態による学習支援システムの機能構成を示すブロック図である。第2の実施形態の学習支援システムのハードウェア構成は図2に示した第1の実施形態のものと同様である。 Figure 8 is a block diagram showing the functional configuration of the learning support system according to the second embodiment. The hardware configuration of the learning support system of the second embodiment is similar to that of the first embodiment shown in Figure 2.
第2の実施形態では、学習支援システム10は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、声かけ態様特定部13、声かけ出力部14、および記憶部15に加え、集中判定部16を有している。集中判定部16は、講義出力部19、声かけタイミング特定部11、声かけ話題特定部12、および声かけ態様特定部13と同様に、ソフトウェアプログラムの処理を実行するプロセッサである処理装置21によってが実現される。
In the second embodiment, the
集中判定部16は、情報端末30のカメラ31によって受講者90を撮影するために取得された画像に基づいて、受講者90が講義に集中しているか否かに関する判定を行い、その判定の結果に基づく集中判定結果情報を記録する。集中判定の方法は特に限定されないが、例えば、受講者90が端末の前におり、良好な体勢をとっており、眼が開いており、画面を見ているという条件が揃っていれば、集中していると判定することにしてもよい。
The
図9は、集中判定結果情報の一例を示す図である。ここでは講義前の声かけに関する集中判定結果情報およびその算出方法について説明するが、講義後の声かけに関する集中判定結果情報およびその算出方法も同様にしてもよい。講義前の声かけの場合、声かけ後の講義における受講者の画像を基に集中判定を行うが、講義後の声かけの場合、講義後の復習や問題演習における受講者の画像を基に集中判定を行えばよい。 Figure 9 is a diagram showing an example of concentration judgment result information. Here, concentration judgment result information related to calling out before a lecture and a method for calculating the same will be described, but concentration judgment result information related to calling out after a lecture and a method for calculating the same may also be used. In the case of calling out before a lecture, concentration judgment is made based on an image of the student in the lecture after the calling out, but in the case of calling out after a lecture, concentration judgment can be made based on an image of the student in the review or practice questions after the lecture.
集中判定結果情報D04には、講義コンテンツを開始する声かけの各話題に対応付けて、当該話題の各回集中度と話題別集中度とが記録されている。話題別集中度の算出方法は特に限定されないが、例えば、集中判定部16は、当該話題の声かけが行われる毎に、その後の講義に対する集中度である各回集中度を算出して蓄積し、蓄積された各回集中度の話題別の平均値を算出し、話題別集中度とすることにしてもよい。また、その中の各回集中度の算出方法も特に限定されないが、例えば、集中判定部16は、一定時間毎に画像を基に受講者が集中しているか否か判定し、集中か非集中かを示す集中フラグを記録し、講義中の集中と非集中の回数比によって5段階評価し、評価結果を各回集中度とすることにしてもよい。また、集中判定部14は、声かけが行われる毎に話題別集中度を更新してもよいし、所定期間毎に更新してもよい。
In the concentration determination result information D04, the concentration level for each time of the topic and the concentration level by topic are recorded in association with each topic of the call to start the lecture content. The method of calculating the concentration level by topic is not particularly limited, but for example, the
図9の例では、「激励」という話題については、各回集中度が4,5,5,5,4,4,5・・・であり、話題別集中度が4.5である。本例では、各回集中度は「1」から「5」までの5段階で表されている。「5」が最も集中していることを示し、「1」が最も集中していないことを示す。「リアルタイム話題」という話題については、各回集中度が4,3,3,3,4,3,3・・・であり、話題別集中度が3.2である。「嗜好話題」という話題については、各回集中度が3,4,4,4,3,4・・・であり、話題別集中度が3.8である。 In the example of Figure 9, for the topic "encouragement", the concentration levels for each episode are 4, 5, 5, 5, 4, 4, 5..., and the concentration level by topic is 4.5. In this example, the concentration level for each episode is expressed on a five-level scale from "1" to "5". "5" indicates the highest concentration and "1" indicates the lowest concentration. For the topic "real-time topics", the concentration levels for each episode are 4, 3, 3, 3, 4, 3, 3..., and the concentration level by topic is 3.2. For the topic "preference topics", the concentration levels for each episode are 3, 4, 4, 4, 3, 4..., and the concentration level by topic is 3.8.
声かけ話題特定部12は、声かけの後の受講者90の講義に対応する集中判定結果情報に基づいて、講義前タイミングの声かけ話題および講義後タイミングの声かけ話題を選択する。声かけ話題の選択方法は特に限定されないが、例えば、声かけ話題特定部12は、話題別集中度の高い話題の比率が高く、話題別集中度の低い話題の比率が低くなるように、それ以降の話題を選択していけばよい。例えば、声かけ話題特定部12は、各話題の比率を、話題別集中度の合計値に対する各話題の集中度の割合と一致させるように、話題を選択してもよい。これにより、過度に同じ話題が集中することなくまた話題別集中度の更新も可能にしながら、受講者に効果の高い声かけを多く与えることが可能となる。
The calling
講義前タイミングについては、声かけ話題特定部12は、受講者90に提供された声かけの声かけ話題と、その声かけ話題による声かけの後の受講者90の講義に対応する集中判定結果情報とを集計してそれらの相関関係を算出し、その相関関係に基づいて、講義前タイミングに提供する声かけ話題を選択する。
For the pre-lecture timing, the call
例えば、嗜好話題として、講義前に野球の時事ネタの声かけをしたら、講義への集中度が高かったら、その後、講義前に野球の時事ネタの声かけの頻度を高めてもよい。また、講義前にネコに関する声かけをしたら、講義への集中度が高かったら、その後、講義前にネコに関する声かけの頻度を高めてもよい。講義前に食べ物に関する声かけをしたら、講義への集中度が高かったら、その後、講義前に食べ物に関する声かけの頻度を高めてもよい。 For example, if a student is asked about current events in baseball before a lecture as a topic of interest, and the student's level of concentration during the lecture is high, then the frequency of asking about current events in baseball before the lecture may be increased. Also, if a student is asked about cats before a lecture, and the student's level of concentration during the lecture is high, then the frequency of asking about cats before the lecture may be increased. If a student is asked about food before a lecture, and the student's level of concentration during the lecture is high, then the frequency of asking about food before the lecture may be increased.
講義後タイミングについては、声かけ話題特定部12は、受講者90の講義に対応する集中判定結果情報に基づいて、その講義の講義後タイミングに提供する声かけ話題を選択する。
For the post-lecture timing, the call
<第3の実施形態>
第3の実施形態の学習支援システムは、アバター講師に対して受講者に合わせた人柄を設定し、その人柄に基づく声かけを行う。現実世界では、受講者が講師に好感や親近感を持っていると、受講者の講義への集中度や学習へのモチベーションが高まることが知られているが、アバター講師は現実の人間である講師とは異なるので、受講者がアバター講師に対する好感や親近感を持ちにくい。本実施形態では、アバター講師に人柄(パーソナリティ)を持たせることにより、受講者がアバター講師に好感や親近感を持ちやすやすくすることができる。
Third Embodiment
The learning support system of the third embodiment sets a personality for the avatar instructor that matches the student, and talks to the student based on that personality. It is known that in the real world, if a student likes or feels close to the instructor, the student's concentration in the lecture and motivation to study increases, but since an avatar instructor is different from an instructor who is a real person, it is difficult for the student to like or feel close to the avatar instructor. In this embodiment, by giving the avatar instructor a personality, it is possible to make the student more likely to like or feel close to the avatar instructor.
第3の実施形態の学習支援システムは、第1の実施形態のものと同様の構成および動作を有するので、以下では、主に第3の実施形態における第1の実施形態と異なる部分について説明する。 The learning support system of the third embodiment has the same configuration and operation as that of the first embodiment, so the following mainly describes the parts of the third embodiment that are different from the first embodiment.
第3の実施形態による学習支援システムの機能構成およびハードウェア構成は、それぞれ図1および図2に示した第1の実施形態のものと同様である。 The functional and hardware configurations of the learning support system according to the third embodiment are similar to those of the first embodiment shown in Figures 1 and 2, respectively.
第3の実施形態では、声かけ態様特定部13は、当該受講者90の受講者属性情報に基づいて、アバター講師に人柄を設定し、その人柄に基づく声かけ態様を特定する。それにより、声かけ出力部14から受講者90に提供される声かけは、設定された人柄のアバター講師による声かけとなる。人柄は、例えば、嗜好、性格、態度、しゃべり方などによって設定することができる。
In the third embodiment, the calling
例えば、声かけ態様特定部13は、受講者90の受講者属性情報に基づいて、アバター講師に受講者90と類似する嗜好をもった人柄を設定し、その人柄に基づく声かけ態様を特定してもよい。これにより、受講者がアバター講師に対する親近感を感じやすくなる。
For example, the speaking
例えば、受講者がイヌ好きだったらアバター講師の人柄としてイヌ好きという嗜好を設定することが考えられる。そうすると、例えば、嗜好話題の声かけにおいては、イヌ好きのアバター講師がイヌの話題の声かけを行うこととなり、受講者はアバター講師に好感や親近感を持ちやすくなる。 For example, if a student is a dog lover, then it is conceivable to set a dog-loving preference as the personality of the avatar instructor. Then, when speaking to students about topics related to their preferences, the dog-loving avatar instructor will speak about dogs, and students will be more likely to feel a good impression and affinity towards the avatar instructor.
<付記>
以上、本発明の実施形態について述べてきたが、本発明は、これらの実施形態だけに限定されるものではなく、本発明の技術思想の範囲内において、これらの実施形態を組み合わせて使用したり、一部の構成を変更したりしてもよい。
<Additional Notes>
Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and these embodiments may be used in combination or some of the configurations may be changed within the scope of the technical concept of the present invention.
また、上述した実施形態には以下に示す事項が含まれている。ただし、上述した実施形態に含まれる事項が以下に示すものだけに限定されることはない。 The above-described embodiment also includes the following items. However, the items included in the above-described embodiment are not limited to those listed below.
(事項1)
講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援システムであって、受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定する声かけタイミング特定部と、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、を有する学習支援システム。
(Item 1)
A learning support system in which a lecture consisting of video and audio is provided to students by an avatar lecturer, which is a virtual character modeled after a lecturer, comprising: a student attribute information storage unit which stores student attribute information, which is information relating to the attributes of the students; a call-out timing identification unit which identifies a specific timing in the provision of the lecture to the student as a call-out timing, which is a timing when the avatar lecturer speaks to the student by video and audio; a call-out topic identification unit which identifies a call-out topic, which is a topic of call to be provided at the call-out timing, based on the student attribute information and/or the call-out timing; a call-out style identification unit which identifies a call-out style, which is a style used for the call, based on the student attribute information; and a call-out output unit which outputs the call-out topic and the call-out style at the call-out timing.
これによれば、講義の提供に伴って、適切なタイミングに適切な態様によって適切な話題の声かけを行うので、受講者の学習効果を高める効果的な声かけが可能になる。 This allows for prompts on appropriate topics at appropriate times and in appropriate ways as the lecture is delivered, making it possible to provide effective prompts that improve the learning outcomes of students.
(事項2)
事項1に記載の学習支援システムにおいて、前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系である。これによれば、方言など特定の言語体系の言葉遣いで声かけが行われるので、効果的な声かけが可能となる。
(Item 2)
In the learning support system described in
(事項3)
事項2に記載の学習支援システムにおいて、前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、前記声かけ態様特定部は、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する。これによれば、受講者の地元の方言や好感を持った言葉遣いで声かけが行われるので、効果的な声かけが可能となる。
(Item 3)
In the learning support system described in
(事項4)
事項2に記載の学習支援システムにおいて、前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、前記声かけ態様特定部は、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する。
(Item 4)
In the learning support system described in
(事項5)
事項1に記載の学習支援システムにおいて、前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に人柄を設定し、前記人柄に基づく声かけ態様を特定する。これによれば、アバター講師に人柄(パーソナリティ)を持たせることにより、受講者がアバター講師に好感や親近感を持ちやすやすくすることができる。
(Item 5)
In the learning support system described in
(事項6)
事項5に記載の学習支援システムにおいて、前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する。これによれば、受講者がアバター講師に対する親近感を感じや少なる。
(Item 6)
In the learning support system described in item 5, the addressing style specification unit sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies an addressing style based on the personality. This makes the student feel closer to the avatar instructor.
(事項7)
事項1に記載の学習支援システムにおいて、前記声かけタイミング特定部は、前記講義の提供を開始する前のタイミングである講義前タイミングを、前記声かけタイミングとして特定する。これによれば、講義前のタイミングで適切な声かけを行うことにより、受講者のモチベーションや集中の度合いが高い状態で講義の提供を開始することがができる。
(Item 7)
In the learning support system described in
(事項8)
事項7に記載の学習支援システムにおいて、前記声かけ話題特定部は、前記講義前タイミングに提供する声かけ話題として、その後に提供される前記講義への前記受講者のモチベーションが高い声かけ話題を選択する。これによれば、講義前に受講者のモチベーションを効果的に高めることができる。
(Item 8)
In the learning support system described in item 7, the call topic identification unit selects, as the call topic to be provided at the pre-lecture timing, a call topic that highly motivates the students for the lecture to be provided thereafter. This makes it possible to effectively increase the motivation of the students before the lecture.
(事項9)
事項8に記載の学習支援システムにおいて、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部を更に有し、前記声かけ話題特定部は、前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する。これによれば、実際に測定された結果に基づいて効果の高い声かけを選択することが可能になる。
(Item 9)
The learning support system described in item 8 further comprises a concentration judgment unit that judges whether the student is concentrating on the lecture based on an image acquired to photograph the student attending the lecture and records concentration judgment result information based on the result of the judgment, and the calling topic identification unit selects a calling topic to be provided at the pre-lecture timing based on the relationship between the calling topic and the concentration judgment result information corresponding to the lecture after the calling based on the calling topic. This makes it possible to select a highly effective calling based on an actually measured result.
(事項10)
事項1に記載の学習システムにおいて、前記集中判定部は、前記声かけ話題のそれぞれについて声かけ後の講義に対する前記受講者の集中度を示す話題別集中度を算出し、前記声かけ話題特定部は、前記話題別集中度が高い話題の比率が前記話題別集中度が低い話題の比率よりも低くなるように、声かけ話題を選択する。これによれば、過度に同じ話題が集中することなくまた話題別集中度の更新も可能にしながら、受講者に効果の高い声かけを多く与えることが可能となる。
(Item 10)
In the learning system described in
(事項11)
事項10に記載の学習システムにおいて、前記声かけ話題特定部は、前記声かけ話題のそれぞれの比率が、前記話題別集中度の合計値に対する前記声かけ話題の集中度の割合と一致させるように、声かけ話題を選択する。
(Item 11)
In the learning system described in
(事項12)
事項1に記載の学習支援システムにおいて、前記声かけタイミング特定部は、前記講義の提供を終了した後のタイミングである講義後タイミングを、前記声かけタイミングとして特定する。これによれば、講義後に適切な声かけを行うことにより、講義を受けた後の学習に対する受講者のモチベーションを高めることができる。
(Item 12)
In the learning support system described in
(事項13)
処理装置と記憶装置とを有するコンピュータによって、講師を模した仮想的な人物であるアバター講師により、受講者に、映像および音声で構成された講義を提供する学習支援方法であって、前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、前記処理装置が、前記受講者に対する前記講義の提供における特定のタイミングを、前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングとして特定し、前記受講者属性情報および/または前記声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する。
(Item 13)
A learning support method in which a lecture consisting of video and audio is provided to students by an avatar lecturer, which is a virtual character modeled after a lecturer, using a computer having a processing device and a storage device, wherein the storage device stores student attribute information, which is information relating to the attributes of the students, and the processing device identifies a specific timing in the provision of the lecture to the students as a calling timing, which is a timing at which the avatar lecturer speaks to the students using video and audio, identifies a calling topic, which is a topic of the calling to be provided at the calling timing, based on the student attribute information and/or the calling timing, identifies a calling manner, which is a manner to be used for the calling, based on the student attribute information, and outputs the calling topic and the calling manner at the calling timing.
10:学習支援システム、11:タイミング特定部、12:話題特定部、13:態様特定部、14:出力部、15:記憶部、16:集中判定部、19:講義出力部、20:サーバ、21:処理装置、22:メインメモリ、23:記憶装置、24:通信装置、25:入力装置、26:表示装置、27:バス、30:情報端末、31:カメラ、33:ブラウザ、90:受講者、D01:受講者属性情報、D02:講義前話題リスト、D03:講義後話題リスト 10: Learning support system, 11: Timing identification unit, 12: Topic identification unit, 13: Behavior identification unit, 14: Output unit, 15: Memory unit, 16: Concentration judgment unit, 19: Lecture output unit, 20: Server, 21: Processing device, 22: Main memory, 23: Storage device, 24: Communication device, 25: Input device, 26: Display device, 27: Bus, 30: Information terminal, 31: Camera, 33: Browser, 90: Student, D01: Student attribute information, D02: Pre-lecture topic list, D03: Post-lecture topic list
Claims (10)
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、
前記声かけ態様特定部は、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する、
学習支援システム。 A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The calling style is a calling language system that is a language system used for calling,
The student attribute information includes address information of the student and information on a desired language system, which is a language system desired by the student,
the addressing style specification unit specifies the addressing language system based on the address and the desired language system .
Learning support system.
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、
前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、
前記声かけ態様特定部は、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する、
学習支援システム。 A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The calling style is a calling language system that is a language system used for calling,
The student attribute information includes address information of the student and information on a favorite animal of the student, which is a favorite animal of the student,
The voice language system is a combination of a dialect, which is a language system peculiar to each region, and an animal language, which adds an onomatopoeia that imitates the sound of an animal or an onomatopoeia that imitates the action of an animal to the end of a word,
the calling style specification unit specifies the calling language system based on a dialect determined from the address and an animal word determined from the favorite animal ;
Learning support system.
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけ態様特定部は、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する、
学習支援システム。 A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
the addressing style specification unit sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies an addressing style based on the personality .
Learning support system.
受講者の属性に関する情報である受講者属性情報を記憶する受講者属性情報記憶部と、
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定する声かけ話題特定部と、
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定する声かけ態様特定部と、
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する声かけ出力部と、
を有し、
前記声かけタイミングは、前記講義の提供を開始する前のタイミングである講義前タイミングであり、
前記学習支援システムは、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録する集中判定部を更に有し、
前記声かけ話題特定部は、前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する、
学習支援システム。 A learning support system that provides a lecture consisting of video and audio to students by an avatar lecturer, which is a virtual person modeled after a lecturer,
a student attribute information storage unit that stores student attribute information that is information related to the attributes of students;
a call-out topic specification unit that specifies a call-out topic to be provided at the call-out timing based on the student attribute information and/or a specific timing in providing the lecture to the student, the call-out timing being a timing at which the avatar lecturer speaks to the student by video and audio;
a calling style specification unit that specifies a calling style to be used for the calling based on the student attribute information;
a call output unit that outputs a call according to the call topic and the call mode at the call timing;
having
The timing for calling out is a pre-lecture timing, which is a timing before the start of providing the lecture,
The learning support system further includes a concentration judgment unit that judges whether the student is concentrating on the lecture based on an image acquired to photograph the student attending the lecture, and records concentration judgment result information based on the result of the judgment,
The calling topic specification unit selects a calling topic to be provided at the pre-lecture timing based on a relationship between the calling topic and concentration determination result information corresponding to the lecture after the calling by the calling topic .
Learning support system.
前記声かけ話題特定部は、前記話題別集中度が高い話題の比率が前記話題別集中度が低い話題の比率よりも低くなるように、声かけ話題を選択する、
請求項4に記載の学習支援システム。 the concentration determination unit calculates a topic-specific concentration degree indicating a concentration degree of the student on the lecture after the calling for each of the called topics,
the calling topic identification unit selects the calling topic such that a ratio of topics having a high topic-specific concentration degree is lower than a ratio of topics having a low topic-specific concentration degree.
The learning support system according to claim 4 .
請求項5に記載の学習支援システム。 the calling topic identification unit selects a calling topic such that a ratio of each of the calling topics matches a ratio of a concentration degree of the calling topic to a total value of the concentration degrees by topic.
The learning support system according to claim 5 .
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、The calling style is a calling language system that is a language system used for calling,
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が希望する言語体系である希望言語体系の情報とを含み、The student attribute information includes address information of the student and information on a desired language system, which is a language system desired by the student,
前記処理装置が、前記住所および前記希望言語体系に基づいて前記声かけ言語体系を特定する、the processing device identifies the speech language system based on the address and the desired language system;
学習支援方法。Learning support methods.
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけ態様は、声かけに用いる言語体系である声かけ言語体系であり、The calling style is a calling language system that is a language system used for calling,
前記受講者属性情報は、前記受講者の住所の情報と、前記受講者が好きな動物である嗜好動物の情報とを含み、The student attribute information includes address information of the student and information on a favorite animal of the student, which is a favorite animal of the student,
前記声かけ言語体系は、各地域に特有の言語体系である方言と、語尾に動物の鳴き声を模擬する擬音語または動物の行動を模擬する擬態語を付加する動物言葉と、を合成したものであり、The voice language system is a combination of a dialect, which is a language system peculiar to each region, and an animal language, which adds an onomatopoeia that imitates the sound of an animal or an onomatopoeia that imitates the action of an animal to the end of a word,
前記処理装置が、前記住所から定まる方言と、前記嗜好動物から定まる動物言葉とに基づいて前記声かけ言語体系を特定する、the processing device specifies the voice-calling language system based on a dialect determined from the address and an animal word determined from the favorite animal;
学習支援方法。Learning support methods.
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information regarding attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記処理装置が、前記受講者の前記受講者属性情報に基づいて、前記アバター講師に前記受講者と類似する嗜好をもった人柄を設定し、前記人柄に基づく声かけ態様を特定する、the processing device sets a personality having similar tastes to the student for the avatar instructor based on the student attribute information of the student, and specifies a manner of speaking to the student based on the personality;
学習支援方法。Learning support methods.
前記記憶装置が、受講者の属性に関する情報である受講者属性情報を記憶し、The storage device stores attendee attribute information which is information relating to attributes of attendees,
前記処理装置が、The processing device comprises:
前記受講者属性情報および/または前記受講者に対する前記講義の提供における特定のタイミングであって前記アバター講師が映像および音声によって前記受講者に語りかける行動である声かけを行うタイミングである声かけタイミングに基づいて、前記声かけタイミングに提供する声かけの話題である声かけ話題を特定し、identifying a calling topic to be provided at the calling timing based on the student attribute information and/or a calling timing which is a specific timing in providing the lecture to the student and is a timing at which the avatar lecturer calls out to the student by video and audio, and
前記受講者属性情報に基づいて、前記声かけに用いる態様である声かけ態様を特定し、Identifying a calling style to be used for the calling based on the student attribute information;
前記声かけタイミングに、前記声かけ話題および前記声かけ態様による声かけを出力する、outputting a call according to the call topic and the call manner at the call timing;
方法において、In the method,
前記声かけタイミングは、前記講義の提供を開始する前のタイミングである講義前タイミングであり、The timing for calling out is a pre-lecture timing, which is a timing before the start of providing the lecture,
前記処理装置が、前記講義を受講する受講者を撮影するために取得された画像に基づいて、前記受講者が前記講義に集中しているか否かに関する判定を行い、該判定の結果に基づく集中判定結果情報を記録し、The processing device judges whether the students are concentrating on the lecture based on an image acquired to photograph the students attending the lecture, and records concentration judgment result information based on the result of the judgment.
前記声かけ話題と、前記声かけ話題による声かけの後の講義に対応する集中判定結果情報との関係に基づいて、前記講義前タイミングに提供する声かけ話題を選択する、selecting a calling topic to be provided at the pre-lecture timing based on a relationship between the calling topic and concentration determination result information corresponding to the lecture after the calling by the calling topic;
学習支援方法。Learning support methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023204249A JP7466251B1 (en) | 2023-12-01 | 2023-12-01 | Learning support system and learning support method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023204249A JP7466251B1 (en) | 2023-12-01 | 2023-12-01 | Learning support system and learning support method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7466251B1 true JP7466251B1 (en) | 2024-04-12 |
Family
ID=90622449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023204249A Active JP7466251B1 (en) | 2023-12-01 | 2023-12-01 | Learning support system and learning support method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7466251B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220169A (en) | 2003-01-10 | 2004-08-05 | Omron Corp | Learning community formation system |
JP2007011389A (en) | 2006-07-10 | 2007-01-18 | Nova:Kk | Education service system using communication channel and method of providing education service |
WO2018147435A1 (en) | 2017-02-09 | 2018-08-16 | 株式会社博報堂 | Learning assistance system and method, and computer program |
JP2022163854A (en) | 2021-04-15 | 2022-10-27 | 大日本印刷株式会社 | Education support device, education support method, and program |
JP2023089080A (en) | 2019-10-18 | 2023-06-27 | 株式会社フォーサイト | Learning system, learning class providing method and program |
-
2023
- 2023-12-01 JP JP2023204249A patent/JP7466251B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004220169A (en) | 2003-01-10 | 2004-08-05 | Omron Corp | Learning community formation system |
JP2007011389A (en) | 2006-07-10 | 2007-01-18 | Nova:Kk | Education service system using communication channel and method of providing education service |
WO2018147435A1 (en) | 2017-02-09 | 2018-08-16 | 株式会社博報堂 | Learning assistance system and method, and computer program |
JP2023089080A (en) | 2019-10-18 | 2023-06-27 | 株式会社フォーサイト | Learning system, learning class providing method and program |
JP2022163854A (en) | 2021-04-15 | 2022-10-27 | 大日本印刷株式会社 | Education support device, education support method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Van Weelden | Relationships between perceptions of conducting effectiveness and ensemble performance | |
WO2021196614A1 (en) | Information interaction method, interaction apparatus, electronic device and storage medium | |
CN107391521A (en) | Expand message exchange topic automatically based on message category | |
JP2003514257A (en) | Method and apparatus for language training | |
CN117541444B (en) | Interactive virtual reality talent expression training method, device, equipment and medium | |
Pickel et al. | A cross-modal weapon focus effect: The influence of a weapon's presence on memory for auditory information | |
TW202145775A (en) | Online meeting system | |
US20120070808A1 (en) | Teaching system combining live and automated instruction | |
JP2003216564A (en) | Communication supporting method, communication server using therefor and communication supporting system | |
JP7466251B1 (en) | Learning support system and learning support method | |
JP2002530724A (en) | Apparatus and method for training with an interpersonal interaction simulator | |
Ribble et al. | Teaching digital citizenship: when will it become a priority for 21st century schools | |
CN112364478A (en) | Virtual reality-based testing method and related device | |
Rajagopalan | Misogyny, solidarity and postfeminism on social media: The work of being Diana Shurygina, survivor-celebrity | |
JP2006235671A (en) | Conversation device and computer readable record medium | |
Roux et al. | The commodification of women’s empowerment: The case of Vagina Varsity | |
JP7072761B2 (en) | Pseudo-chat device, pseudo-chat execution method and program | |
WO2013156828A1 (en) | Method and system for creating and sharing interactive video portraits | |
KR20120031373A (en) | Learning service system and method thereof | |
JP7495699B1 (en) | Learning support system and learning support method | |
WO2021064947A1 (en) | Interaction method, interaction system, interaction device, and program | |
CN116741143B (en) | Digital-body-based personalized AI business card interaction method and related components | |
JP7458528B1 (en) | Information processing device, information processing method, and program | |
JP7496128B2 (en) | Virtual person dialogue system, image generation method, and image generation program | |
US20170124889A1 (en) | Management apparatus, method, and computer readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231204 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7466251 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |